La Nature
-
-
- LA NATURE
- REVUE DES SCIENCES ET DE LEURS APPLICATIONS
- p.n.n. - vue 1/558
-
-
-
- p.n.n. - vue 2/558
-
-
-
- LA NATURE
- REVUE DES SCIENCES ET DE LEURS APPLICATIONS
- QUATRE-VINGT-HUITIÈME ANNÉE 1960
- DUNOD ÉDITEUR
- 92, RUE BONAPARTE, PARIS
- Page de titre n.n. - vue 3/558
-
-
-
- SUPPLÉMENT AU N° 3308 (DÉCEMBRE 19601
- Le gérant : F. Dl’NOD.
- Laval. — Imprimerie Barnéoud S. A.
- Imprimé en France.
- p.n.n. - vue 4/558
-
-
-
- Ne 3297
- Janvier I960
- NATURE
- es origines du peuple malgache
- Bien que d’une superficie supérieure à celle de la France, 590 000 km2, Trie de Madagascar est remarquablement peu peuplée : 4 millions d’habitants environ qui se groupent selon des densités extrêmement variables allant de 5 habitants au km2 à l’ouest, à 2o-3o dans les régions centrale et orientale. Cette population se trouve répartie en un nombre relativement élevé de groupes ethniques dont la nomenclature complète ne fut établie que depuis peu, et qui correspondent davantage aux anciens royaumes qui existaient avant l’arrivée des Français qu’à des groupements strictement délimités actuellement. En effet, les phénomènes de migrations intérieures, le mélange des groupes entre eux ont abouti à un chevauchement des anciennes frontières ethniques dont les limites sont devenues mouvantes et théoriques.
- La population rhalgache a depuis fort longtemps attiré l’intérêt des observateurs. Une homogénéité remarquable de la culture et de la langue alliée à une grande hétérogénéité des caractères physiques ont donné lieu à de vives discussions depuis près de trois siècles et ont soulevé de véritables passions.
- Les races. — La situation géographique exceptionnelle de la Grande Ile en fit effectivement un véritable lieu de rencontre des représentants des trois grandes races du monde. Proche à la fois du continent africain et de la péninsule d’Arabie, elle se trouve également située sur le lieu de passage des anciennes grandes routes maritimes de communication entre l’Extrême-Orient et l’Afrique. Eléments blancs, noirs, jaunes s’y trouvent inextricablement mêlés, et l’absence de tout document historique écrit n’a fait qu’augmenter la confusion qui règne dans les connaissances sur les différentes phases du peuplement de Madagascar.
- Cependant, si l’on excepte quelques traces d’influence européenne, due aux incursions des Portugais et des Hollandais qui dès le début du xvie siècle ont abordé la Grande Ile; d’influence sud-orientale, apportée par les trafiquants d’origine arabe qui dès le xne siècle fréquentaient les côtes malgaches et faisaient commerce avec les habitants de l’île (x), et dont il ne reste que peu de traces (ruines dites arabes de la côte nord-ouest, manuscrits de langue malgache mais d’écriture arabe conservés pieusement dans les tribus Antaimoro du sud-est); enfin, mais très hypothétiques, des traces d’apports indiens et chinois qui forment actuellement des colonies grandissantes mais ne semblent pas se mélanger, on peut considérer que les caractères physiques des Malgaches procèdent de deux éléments principaux : l’élément jaune ou xanthoderme et l’élément noir ou mélanoderme, de loin le plus important.
- La plupart des auteurs s’accordent pour voir dans l’élément xanthoderme une origine malaise ou plus généralement indonésienne, antérieure ou non à l’élément mélanoderme. Cet élément aurait été apporté dans l’île peut-être en deux vagues successives, l’une aux premiers siècles de l’ère chrétienne, l’autre autour du xvie siècle, par les Mei'ina ou Hova. L’absence
- 1. Selon Ptolémée (n“ siècle avant J.-C.) et Amen (Périple de la mer Erythrée), la côte orientale de l’Afrique était, jusqu’au delà de l’Équateur, sous la suzeraineté du roi du Yémen. Le trafic y était intense.
- Fig:. 1. — Une femme Merina.
- (Collection du Musée de l’Homme).
- de documents écrits ne permet pas d’affirmer l’authenticité d’une première invasion lointaine. Quant à la seconde, elle n’est pas douteuse et elle est le point de départ de toute une dynastie de souverains Merina qui régnèrent progressivement en maîtres sur l’île tout entière et imposèrent langue et civilisation.
- Ont-ils trouvé à leur arrivée , des populations négroïdes, et quelles populations ? Ici les opinions ont longtemps différé, les unes s’appuyant sur des arguments linguistiques, les autres sur des arguments d’ordre traditionnel, culturel ou religieux.
- Pour certains, l’île était déjà habitée par de petits êtres, les Kimosy, dont on trouverait trace dans les traditions populaires. Leur description varie selon les auteurs, mais tous mentionnent leur très petite taille, leur peau relativement claire, leur pilosité abondante, leurs cheveux laineux et leur civilisation primitive. Ils auraient vécu dans le sud-est de l’île. Actuellement, la plupart des auteurs s’accordent pour douter de leur existence.
- D’autres auteurs voient dans les Vazimba, population négroïde, les premiers habitants de Madagascar. Ce serait eux que les envahisseurs indonésiens auraient combattus et refoulés du plateau central vers l’ouest et le sud de l’île. Appelés encore
- p.1 - vue 5/558
-
-
-
- 9
- "D ANTANKARA
- TSIMIHETY
- MAKOA
- SAKALAVA
- SIHANAKA
- MERINA
- _ BEZANOZANO _ BETSIMISARAKA VAKINANKARATRA
- BETSILEO
- ANTANALA
- _ ANTAIMORO (TEMORO)
- __ZAFISORO
- - ANTAIFASY
- ANTAIVARATRA et ANTAISAKA
- BARA
- MAHAFALY
- ANTANOSY
- KARIMBOLA
- ANTANDROY
- SERVICE DE MUSEOLOGIE DU MUSEE DE L'HOMME
- Fig. 2. — Principaux groupes ethniques de Madagascar.
- (D’après L. Molet).
- Tompqn-Tani (maîtres du sol) par les habitants, ils inspirent une grande frayeur et leurs mânes seraient avides de vengëance. Selon la tradition, ils doivent venir un jour reprendre possession de la terre qu’ils ont perdue. On montre encore leurs tombes, chez les Betsileo et les Sakalava, différentes des tombes communes et à l’écart des villages, dans des régions isolées. Les Sihanaka en font des demi-dieux, à forme humaine et aux pieds retournés. D’autres, des ancêtres, des esprits, partout craints et respectés. Leur culte semble encore vivant, et on les considère comme les vrais propriétaires du sol et du sous-sol.
- Probablement antérieur à l’élément xanthoderme, l’élément mélanoderme forme le fond de la population actuelle de Madagascar et son pourcentage dans chaque groupe ethnique dépasse nettement celui de l’élément mongoloïde, si l’on excepte un noyau presque pur de xanthodermes chez les Merinct du plateau central. Quelle est son origine ?
- Les premiers voyageurs qui avaient abordé Madagascar, frappés par l’apparence physique très mélanoïde de ses habitants, n’avaient jamais mis en doute l’idée d’un peuplement d’origine africaine de la Grande Ile. Il faut attendre la fin du xixe siècle pour voir surgir une théorie nouvelle qui fît école, celle d’un peuplement venu de Mélanésie. A. et G. Grandidier en furent les précurseurs. Actuellement, la plupart des auteurs ont tendance à abandonner cette dernière théorie pour revenir à celle d’un peuplement d’origine africaine. Cependant la question, restée pendante jusqu’ici, n’avait jamais été tranchée de façon formelle.
- La théorie mélanésienne. — La place nous manque ici pour entrer dans le détail des différents arguments mentionnés dans les volumineux ouvrages des Grandidier et nous nous contenterons d’en évoquer quelques-uns parmi les principaux. Us sont de quatre sortes : d’ordre géographique, linguistique, ethnographique, anthropologique.
- Les arguments géographiques invoquent surtout la difficulté pour les Mélano-Africains, naturellement peu navigateurs, de traverser le canal du Mozambique, agité tout au long de l’année par des courants violents et contraires. Inversement, la mousson du nord-est et le courant équatorial du sud auraient facilité la migration de populations venues de Mélanésie.
- Les arguments linguistiques reposent surtout sur le fait que les Malais, trop peu nombreux à leur arrivée dans l’île, n’auraient pu imposer leur langue à une population tout entière. Cette langue, à affinités malayo-polynésiennes, serait celle d’immigrants antérieurs aux Malais et d’origine mélanésienne. La présence de termes mélanésiens dans le malgache confirmerait cette hypothèse.
- C’est surtout aux arguments ethnographiques, les plus nombreux, que les Grandidier se sont attachés particulièrement. Selon ces auteurs, les phénomènes juridiques, économiques, moraux, religieux, techniques et esthétiques malgaches évoqueraient la culture mélanésienne.
- Quant aux arguments anthropologiques, ils sont très pauvres, malgré leur intérêt. Quelques comparaisons générales entre les caractères physiques des Malgaches et des Mélanésiens de la Nouvelle-Guinée, une analyse comparative restreinte de quelques crânes, viennent appuyer d’un faible poids la théorie mélanésienne.
- En fait, la plupart des arguments émis par Grandidier et ses successeurs se sont trouvés réfutés par un certain nombre d’auteurs partisans de la théorie africaine.
- La théorie africaine. — Aux arguments géographiques, on opposa l’existence d’un trafic commercial intense et ancien entre les côtes africaine et malgache, et d’expéditions de pillage fréquentes dirigées autrefois par les Malgaches contre les Comores et la côte africaine. En outre, une migration transocéanique sans escales aurait présenté des difficultés insurmontables pour les Mélanésiens dont les moyens de navigation sont relativement primitifs.
- Pour la langue malgache, il ne fait de doute pour personne
- Fig. 3. — Homme Bara (Collection du Musée de l’Homme).
- p.2 - vue 6/558
-
-
-
- 3
- actuellement qu’elle est dérivée d’une langue-mèi'e indonésienne peu modifiée, peut-être proche du javanais, d’où se seraient détachés divers rameaux, dont un rameau mélanésien, ce qui expliquerait la présence des mots mélanésiens, vocables anciens indonésiens, dans le malgache.
- Quant aux phénomènes d’ordre ethnographique qui paraissaient si importants aux Grandidier, ils se trouvent être communs pour la plupart à une grande partie de l’Asie sud-orientale. Les civilisations sud-asiatiques se sont largement diffusées à travers l’Océanie et, selon J. Faublée, spécialiste de l’ethnographie malgache, la civilisation de la Grande Ile est proche des civilisations indonésiennes archaïques, comme la langue malgache le serait de la langue indonésienne.
- Au point de vue anthropologique, pas plus que les partisans de la théorie adverse, les partisans de la thèse africaine ne se soucièrent d’établir des comparaisons systématiques entre les caractères physiques des Mélano-Africains, des Mélanésiens et des Malgaches. En revanche, la recherche des groupes sanguins, récemment effectuée à Madagascar, et la découverte de leur analogie avec ceux des groupes de l’Afrique orientale, représentent un argument important en faveur de la théorie africaine.
- Enfin, les quelques recherches d’ordre paléontologique effectuées à Madagascar ont permis de mettre au jour des vestiges d’industrie associée à une faune subfossile domestique apparentée à celle d’Afrique orientale. Cette faune, semble-t-il, aurait été importée anciennement par l’Homme venu d,'Afrique.
- Malgré tout, que ce soit en faveur de l’une ou de l’autre théorie, les arguments d’ordre linguistique ou ethnographique, qui relèvent de phénomènes essentiellement mouvants, se révèlent insuffisants pour déceler la véritable origine du peuplement noir de la Grande Ile; seule le permet une analyse anthropologique précise des principaux groupes ethniques, jointe à leur comparaison systématique avec les deux éléments mélano-dermes principaux du monde, les Noirs d’Afrique et les Noirs d’Océanie. Et, puisque ceux-ci possèdent un certain nombre de caractères physiques communs, c’est sur l’étude de leurs caractères différentiels qu’on peut établir un rapprochement entre l’un ou l’autre groupe et les Noirs de Madagascar.
- Les caractères physiques des Malgaches. — Rares sont les régions du monde où se trouvent rassemblés, sur une superficie relativement peu étendue, des groupes humains aux caractères physiques aussi composites, aussi variés que ceux de la population malgache. Ainsi, la couleur de la peau y varie du brun foncé, typique des races noires, au jaune plus ou moins foncé, caractéristique des races du sud-est asiatique. La forme des cheveux va du type droit des Xanthodermes au type crépu des Mélanodermes, en passant par les formes frisées et ondu-léés, le type crépu restant cependant la forme la plus couramment observée. Les statures sont également extrêmement variables : des régions entières abritent des groupes de petite taille, très inférieure à la moyenne — notamment les Antaisaka de la zone orientale de l’île — qui contraste fortement avec la haute stature de certains groupes du sud comme les Bara. Les lèvres présentent généralement l’épaississement caractéristique des races mélanodermes, sans toutefois atteindre le degré d’éversion des lèvres des Soudanais. Le nez est souvent large sans être dilaté, et le prognathisme plus souvent modéré que très marqué. La présence sporadique de paupières bridées, caractéristiques des races jaunes, confirme, comme la couleur de la peau et la forme des cheveux, la présence indiscutable et profonde de l’élément indonésien.
- En bref, on peut compter à Madagascar un certain nombre de types sous-raciaux parmi lesquels l’élément mélanoderme domine. Cet élément semble être composé de deux types principaux : un type de petite taille et un type de haute taille. Le premier se trouve localisé principalement dans la zone orientale, alors que la zone occidentale est le domaine des hautes statures. Il est donc possible que la Grande Ile ait été l’objet d’au moins deux invasions successives de groupes noirs différents, la première correspondant à des éléments de petite taille qui auraient été refoulés ultérieurement par une seconde invasion d’éléments de grande taille, dans les régions orientales, plus insalubres que les Hauts Plateaux : ce fait coi’respond à un phénomène humain classique.
- Mais la grande majorité de la population est composée de groupes qui ont subi manifestement un métissage à tous les degrés, qui se sont mélangés aux envahisseurs successifs, et
- p.3 - vue 7/558
-
-
-
- 4
- dont les descendants actuels ont hérité des caractères souvent dissociés, mais parfois aussi intermédiaires entre les deux grandes souches parentales que sont 'les races mélanoderme et xan-thoderme.
- On rencontre encore, parmi le groupe Merina, un noyau d’indonésiens purs qui se conservent intacts, dépositaires des traditions des anciens souverains : ce sont les Andriana dont les traits sont caractéristiques des populations sud-asiatiques. Uniquement protégé par la barrière des castes, ce noyau est extrêmement réduit, et peut-être ne lardera-t-il pas à se fondre parmi la population si composite que forment actuellement les Merina.
- Fis- 6. — Femme Antankarana (Collection du Musée de VHomine).
- Malgaches, Mélanésiens et Noirs d'Afrique. — En ce qui
- concerne les caractères physiques non mesurables, ou caractères somatoscopiques, un des grands arguments de Grandidier portait principalement sur une longue comparaison entre la forme des cheveux chez les Malgaches et chez les Mélanésiens, ces deux groupes présentant, selon cet auteur, une longue chevelure crépue qu’on ne retrouve pas chez les Mélano-Africains dont les cheveux, s’ils sont crépus, restent relativement courts. Or, rien n’est moins vrai chez les Malgaches : la présence du type de cheveu crépu long est chez eux sporadique et, quand elle existe, elle ne semble pas être due à l’influence d’un apport mélanésien, mais à un métissage entre le type droit (le moins fréquent) et le type crépu court (le plus courant).
- Par ailleurs la pilosité, qui semble plus accentuée chez les Mélanésiens que chez les Noirs d’Afrique, n’apparaît pas à Madagascar comme une caractéristique frappante.
- La couleur de la peau ne représente pas un critère différentiel valable, puisque Mélanésiens et Mélano-Africains offrent la teinte sombre classique des races mélanodermes.
- Un élément important, qui entre dans le cadre d’une étude anthropologique classique, est l’analyse statistique des emprein-
- tes digitales et palmaires des populations que l’on examine. Chez les Malgaches, les types de dessins digitaux présentent des caractères particuliers qui ne les apparentent ni aux Noirs d’Afrique, ni aux Mélanésiens, et qui sont ceux d’une population composite où sont intervenus dans une proportion variable des éléments jaunes et des éléments noirs. Les types de dessins palmaires, en revanche, se rapprochent nettement de ceux des Mélano-Africains.
- Pour les caractères physiques mesurables, ou caractères soma-tométriques, les populations mélano-africaines diffèrent essentiellement des Mélanésiens par les traits suivants : leur taille est généralement beaucoup plus élevée, leurs bras sont plus courts, leur bassin est plus étroit et leur thorax offre un aplatissement antéro-postérieur caractéristique. La comparaison des caractères céphaliques montre également que les Mélano-Africains ont une tête plus haute, un front plus développé, une face beaucoup moins large et moins basse, un nez généralement plus épaté et un prognathisme facial beaucoup moins accentué.
- Le Mélanésien typique est petit, ses bras sont longs, il a un bassin large et une poitrine développée, son visage présente des traits caractéristiques : la face est large, basse et prognathe, et les arcades sourcilières très développées, surtout chez les Néo-Calédoniens, rappellent, mais atténué, le bourrelet sus-orbitaire de l’Homme de Neanderthal.
- Chez les Malgaches, leur grande variété s’oppose à une généralisation trop hâtive sur leur apparentement à l’un ou l’autre groupe. Cependant, on trouve à Madagascar des populations, comme les Sakalava, les Antandroy, les Bara, qui s’identifient presque exactement aux groupes de l’Afrique sud-orientale, notamment aux Noirs du Mozambique. Par ailleurs chez tous les groupes malgaches, quand on les compare aux Mélanésiens, le nombre des caractères différents est toujours supérieur au nombre des caractères analogues.
- Mais certains groupes ethniques malgaches (Merina et Bet-simisaraka) offrent également des traits assez différents de ceux des Mélanésiens et des Africains, car ils sont fortement imprégnés par l’élément jaune : en effet, un certain nombre de caractères les classent entre les Indonésiens et les Noirs d’Afrique du Sud. C’est ce qui ressort également de la comparaison des groupes sanguins où on peut observer que les Malgaches, tout en s’éloignant franchement des Mélanésiens, ne se confondent pas exactement avec les Noirs d’Afrique du Sud, mais possèdent le plus souvent leurs caractères propres qui les classent entre ces derniers et les Indonésiens.
- Conclusion. — Il semble indéniable que les caractères physiques de la population malgache ne s’apparentent en aucune façon aux caractères particuliers que l’on peut observer chez les populations mélanésiennes. Mais l’élément noir de Madagascar semble bien trouver son origine dans les groupes d’Afrique sud-orientale qui paraissent avoir émigré depuis une époque reculée vers les terres hospitalières de la Grande Ile.
- Succédant aux groupes mélanodermes, et les soumettant après de longues luttes qui durèrent dans certaines régions jusqu’au siècle dernier, les envahisseurs indonésiens firent leur apparition probablement aux alentours du xvie siècle et se mêlèrent étroitement aux premiers occupants de l’île.
- De leur côté, les commerçants arabes se croisèrent occasionnellement avec les populations côtières du sud chez qui il n’est pas rare de rencontrer le visage étroit et allongé, le nez busqué et les lèvres minces du type arabe sud-oriental.
- Actuellement, le brassage intense entre les différents groupes qui se produit dans l’île tout entière explique la difficulté d’une mise en évidence de types raciaux distincts. L’évolution interne présente aboutit à la création de types nouveaux, mixtes, et spécifiquement malgaches.
- Marie-Claude Ciiamla, Attachée de recherches au C.N.R.S.
- p.4 - vue 8/558
-
-
-
- Détection des étoiles variables par télévision
- 5
- Les étoiles variables ont en astronomie une importance considérable : pour certaines d’entre elles (céphéides), une relation existe entre leur luminosité propre et la période des variations de leur éclat, ce qui permet de déterminer leur distance en observant cette période et leur magnitude apparente. La principale difficulté qui survient à ce propos, aussi curieuse qu’elle puisse paraître, est la découverte proprement dite des étoiles variables. Les observations visuelles, tout en présentant un réel intérêt, sont la cause de grandes pertes de temps, et il est certain que la comparaison de deux photographies de la même région du ciel prises à un certain intervalle l’une de l’autre est beaucoup plus fructueuse. Ordinairement, les plaques sont examinées au moyen d’un appareil plus simple que ne le laisserait supposer son nom de blinkmicroscope, qui dévoile alternativement à l’œil les images superposables des deux plaques. Grâce à la persistance des impressions lumineuses, les étoiles ordinaires ne changent pas d’aspect lorsque la cadence de permutation est de io à i5 cycles par seconde, tandis que les étoiles variables semblent présenter des variations d’éclat. L’observation au blinkmicroscope fatigue l’œil et nécessite une grande attention, c’est pourquoi beaucoup d’étoiles variables passent inaperçues.
- On a songé également à superposer le négatif d’une des photographies au positif de l’autre, les noirs de l’une recouvrant les blancs de la seconde : si l’opération est bien conduite, ce qui présente d’ailleurs de très grandes difficultés, seules les
- au spot. Une cellule photoélectrique placée derrière chacune des plaques donne un signal proportionnel à la quantité de lumière qui les traverse à chaque instant. Les signaux issus des deux cellules Cx et C2 sont soustraits électroniquement et la différence est utilisée, après amplification, pour moduler la brillance d’un spot illuminant un écran de télévision T, dont le balayage est asservi à celui du spot qui éclaire les plaques. Le « signal différence » est nul quand les deux photographies sont identi-
- Fig. 1. — Principe
- de l’explorateur à spot lumineux à deux canaux de J. Borg-man.
- L’appareil a été construit au Laboratoire d’astronomie Kapteyn de l’Université de Gronin-gue. Explications dans le texte.
- étoiles variables apparaissent, les autres devenant invisibles. Un nouvel appareil, imaginé par le Hollandais J. Borgman et décrit dans la Revue Technique Philips (t. 19, n° 4) repose sur le même principe mais évite de délicates opérations photographiques (fig. i). Il consiste à explorer simultanément les deux clichés Pj et P2 au moyen de deux pinceaux lumineux Sx et S2 qui proviennent, grâce à un jeu de miroirs, d’un seul spot S formé sur l’écran d’un tube cathodique. Si l’on assujettit ce spot à décrire sur l’écran une trame comme celles que l’on rencontre en télévision, les clichés sont balayés parallèlement
- Fig. 2. — Photographies de l’écran de télévision, une étoile variable se trouvant dans la partie explorée du cliché.
- En haut, image de l’un des clichés (négatif). Au milieu, image inversée de l’autre cliché (positif). En bas, somme des deux images précédentes. Seule apparaît une étoile dont l’éclat a varié entre les prises des photos de cette même région du ciel (Photos du Service central photographique de l’Université de Groningue, aimablement communiquées par la Revue Technique Philips).
- p.5 - vue 9/558
-
-
-
- 6
- ques, mais les emplacements où se trouve une étoile variable sont visibles sur l’écran du téléviseur sous la forme d'une tache claire ou sombre : on voit immédiatement apparaître les étoiles variables qu’il est facile de repérer par rapport aux étoiles les plus brillantes d’un des clichés, qui apparaissent lorsqu’on supprime le signal d’une des cellules photoélectriques.
- L’inventeur de cet appareil pense qu’il pourrait être aussi utilisé à déceler des petites planètes qui changent de position par rapport aux étoiles fixes et peut-être à rechercher dçs différences entre deux photographies aériennes d’un territoire ennemi prises à un certain temps d’intei’valle.
- J. L.
- LES SOUFFLERIES A INDUCTION
- Il y a quelque temps déjà, examinant les principes des souffleries transsoniques et supersoniques (La Nature, février ig58, p. 52), nous avions vu que le seul moyen d’éviter des dépenses >de fonctionnement trop élevées était d’utiliser des souffleries dites « à rafales », dans lesquelles un jet d’air à grande vitesse traverse la veine de mesure pendant un temps relativement ‘court. Deux types de /souffleries à rafales avaient été décrits : les souffleries à aspiration et les souffleries à refoulement. Les possibilités en sont limitées par la faible capacité que l’on devrait doriner aux réservoirs si l’on désire vraiment une installation économique. Tel n’est pas le cas des souffleries à induction dont nous avons vu un exemple avec la soufflerie E.4 de l’Institut Aéronautique de Saint-Cyr (La Nature, juillet 1959, p. 5o4). La S.N.E.C.M/A. ptilise également à son centre d’essais de moteurs de Villaroche une soufflerie transsonique basée sur ce principe que nous allons développer maintenant avec quelque détail. '
- Il consiste à faire débiter un réservoir de fluide sous pression dans un éjecteur (fig. 1). La détente de l’air injecté par le canal périphérique (2) entraîne par induction vin débit important dans le canal central (x). Les premiers essais furent réalisés avec de l’air comprimé, mais là encore, avec des réservoirs de dimensions limitées le temps de fonctionnement reste faible. C’est ainsi que naquit l’idée d’utiliser de la vapeur d’eau comme fluide inducteur. La soufflerie transsonique de la S.N.E.C.M.A. est de ce type. Elle est entraînée par une trompe à vapeur alimentée à partir d’un accumulateur de Ruths qui est périodiquement rechargé en vapeur par le chauffage central. Cet accumulateur consiste en un réservoir de 45 m3 rempli d’eau à 75 p. 100 et peut supporter une pression de i5 kg/cm2.
- Le mélange air-vapeur, après passage dans la chambre de mesure, est décéléré dans un diffuseur et s’échappe dans l’atmosphère (fig. 2). Cette Soufflerie, dont la veine a une sec-
- tion utile de o,4 x o,(i m, peut atteindre des durées de fonctionnement supéi’ieures à 3 mn. Le nombre de Mach va jusqu’à i,35. Les moyens de mesure répondent à une triple exigence de rapidité, de sûreté et de précision. Les ondes de choc, les pointes d’arrêt et les zones de décollement sont examinées par strioscopie. Enfin, par sa structure même, cette soufflerie est dans une large mesure insensible aux corps étrangers arrachés par l’écoulement et des essais de flutter peuvent y être poursuivis jusqu’à rupture de la maquette.
- Des résultats encore plus remarquables sont espérés des souffleries à entraînement par trompes à eau chaude. L’eau chaude, à plus de 2000, est emmagasinée dans un réservoir calorifugé sous une pression de plusieurs dizaines d’atmosphères. Elle est amenée par des soupapes à aiguille dans les tuyères motrices où elle s’évapore en partie; le mélange air-eau-vapeur formé avec le gaz induit en aval de la chambre de mesure passe dans des aubes de déviation qui permettent de capter l’eau résiduelle et de la renvoyer à l’accumulateur.
- Du fait de la densité importante des jets qui sortent des tuyères, la trompe à eau chaude est d’un fonctionnement plus économique que la trompe à vapeur. En outre, la présence en aval de la chambre de mesure d’une phase liquide finement divisée produit un effet d’insonorisation qui rend le fonctionnement de telles souffleries extrêmement silencieux.
- Le bien-fondé des principes que nous venons d’exposer a été éprouvé par une installation maquette réalisée par la S.N.E.C.M.A. à son centre d’essais de moteurs de Villaroche. L’accumulateur qui peut contenir environ 1 000 kg d’eau chaude est chauffé électriquement au moyen d’électrodes. Les essais ont montré la validité de ce mode d’entraînement de l’air et ont permis d’en déterminer les caractéristiques exactes.
- Il est dès maintenant possible de prévoir un grand développement des souffleries à entraînement par trompe à eau chaude. Parmi les possibilités intéressantes, signalons des bancs d’essais de moteurs à forte dépression, qui utiliseraient des trompes à eau chaude pour créer cette dépression.
- Jacques Spincourt.
- Fig. 1. — Schéma de soufflerie à éjecteur à air comprimé.
- 1, Section de mesure ; 2, éjecteur ; 3, réservoir à air comprimé ; 4, compresseur. (Documents aimablement communiqués par la S.N.E.C.M.A.),
- t, RéchaufTeur ; 2, redresseur ; 3, chambre de mesure ; 4, volets ; 5, col ; 6, trompe ; 7, accumulateur de
- Ruths ; 8, alimentation de vapeur ; 9, diffuseur.
- p.6 - vue 10/558
-
-
-
- Hyménoptères ennemis des Fourmilions
- Le Laboratoire Arago, créé par Lacaze-Dulhiers à Banyuls-sur-Mer, publie une revue, Vie et Milieu, un des rares périodiques français qui consacrent à l’écologie la plus grande partie de leur activité. Outre de nombreux travaux sur la faune et la flore des environs de Banyuls et de la région méditerranéenne, elle offre d’intéressantes notes sur les mœurs et l’habitat des animaux. Dans un des derniers numéros parus (tome X, ig5g, fasc. 3), on trouve ainsi une étude de J. R. Steffan sur les mœurs des Chalcidiens parasites des fourmilions. Ces 1res petits hyménoptères attaquent les larves des Myrméléonides et pondent dans leur corps l’œuf qui se développe à leurs dépens. On connaît les habitudes de ces curieuses larves qui creusent dans le sable un piège en forme d’entonnoir, au fond duquel elles se tiennent enterrées, seules dépassant leurs puissantes mandibules. Quand un petit insecte, souvent une fourmi (d’où leur nom de fourmilion) passe sur les bords de l’entonnoir, la larve, par un mouvement de la tète, projette sur lui des pelletées de sablé qui le font choir au fond de l’entonnoir où il devient la proie du fourmilion. Ce comportement très particulier n’est pas général chez les larves de Myrméléonides, un grand nombre d’entre elles chassant la nuit leurs proies tandis qu’elles se tiennent cachées pendant le jour dans le sable; elles sont cependant toutes très carnassières. C’est d’ailleurs aux larves piégeuses que s’attaquent les Chalcidiens étudiés par Steffan. Le cas avait déjà été signalé et en partie étudié par Wallace (1942) pour un Chalcidien d’assez grande taille (3.5-5 mm), Hockeria eriensis, qui parasite les larves de Myrmeleon immaculatus. La femelle de ce petit hyménoptère pénètre dans le piège du fourmilion et s’immobilise sur la paroi de l’enlon-noir, la tète tournée vers l’extérieur; quand la larve se décide à jeter ses pelletées de sable, le parasite se laisse ensevelir et, au fond de l’entonnoir, se déroule une lutte dont il sort toujours vainqueur. L’hôte cherche souvent à s’échapper et peut même sortir du sol, mais il finit par recevoir dans le thorax la piqûre qui lui inocule l’œuf dont sortira la larve qui le dévorera lentement. Cette piqûre paralyse partiellement la larve de fourmilion, qui se montre incapable de creuser un nouveau piège, mais tisse néanmoins son cocon dans lequel elle s’immobilise.
- On remarquera le comportement curieux du parasite et de sa victime. Le premier n’hésite pas à pénétrer dans le piège qui est fatal à tous les autres petits insectes; quant à la seconde, elle paraît avoir partiellement perdu ses facultés combattives et cherche plutôt à fuir un ennemi qu’il lui serait facile, semble-t-il, de maîtriser. Ce comportement est assez comparable à celui des araignées attaquées par un Pompile. Ce n’est pas sans surprise que l’on voit cet hyménoptère pénétrer dans le terrier d’une mygale pour aller la paralyser au fond de son repaire. Dans les deux cas, on est frappé par le mépris de l’attaquant pour un adversaire puissamment armé et par la faiblesse de la défense de ce dernier, dont les réactions semblent plus ou moins inhibées par la présence du parasite.
- Le Chalcidien étudié par Steffan est le Lasiochalcidia pugna-trix, qui s’attaque aux larves du Myrmeleon inconspicuus dont les pièges sont abondants dans la sablière d’Enjarre, près de
- Fig. 1. — Femelle de Lasiochalcidia pugnatrix Steff. couchée sur le flanc et enfonçant sa tarière dans une larve du fourmilion Myrmeleon inconspicuus également renversée sur le côté.
- D'après une photo à l’éclair électronique. Grossi 15 lois environ.
- Mazargues (Bouches-du-Rhône). Notons qu’en Afrique tropicale comme en Europe, diverses formes de Lasiochalcidia s’attaquent au même fourmilion. En quête d’une proie, le Chalcidien chemine rapidement sur le sable et tombe en arrêt s’il décèle la présence d’une larve dissimulée sous une faible épaisseur de sable; mais, contrairement à l’espèce étudiée par Wallace, il ne semble pas pénétrer dans un piège lorsqu’il en rencontre un. Après avoir repéré une larve, il creuse avec les pattes et déblaie le sable pour la débusquer; en même temps il introduit sa tarière, non pour pondre, mais pour obliger le fourmilion à quitter sa retraite. Dans cette action, les vibrations du sol provoquées par les mouvements de la larve semblent être l’origine des excitations qui attirent le Chalcidien. En effet, celui-ci paraît ignorer la présence d’une larve immobile et, par contre, l’agitation d’une petite masse de sable avec un pinceau déclenche le réflexe de fouissement. Quand, enfin, l’hyménoptère a réussi à obliger la larve de fourmilion à sortir du sol, celte dernière est saisie ou capturée après une brève poursuite; mais elle se défend en saisissant dans ses mandibules une patte ou une antenne de l’attaquant. De toutes façons, après une courte lutte, ce dernier pique le prothorax de l’hôte, qui présente une courte immobilité et, à partir de ce moment, la ponte et les différentes étapes du développement du parasite se déroulent suivant le rythme normal.
- L’auteur fait remarquer que les mœurs du Lasiochalcidia diffèrent de celles des Chalcidiens en général; c’est un véritable chasseur dont le comportement est bien plus proche de celui des Sphégiens paralyseurs que de celui d’un simple parasite.
- L. C.
- Augmentation de l'éclat du Soleil ?
- Le Centre culturel américain a publié l’information suivante : Les astronomes de l’observatoire Lovvell, près de Flagstaff (Arizona), ont constaté qu’au cours des cinq dex'nières années, l’éclat du Soleil s’est accru de 2 pour 100, la chaleur qu’il dégage ayant probablement augmenté d’autant. Ils. sont parvenus à cette conclusion en comparant l’éclairement des planètes Uranus et Neptune par le Soleil et par seize autres étoiles. Les astronomes estiment que lé point maximum de cette intensification de l’éclat et de la
- chaleur du Soleil coïncide avec le paroxysme de l’activité solaire qui se produit cycliquement tous les onze ans. Leurs conclusions, qui bouleversent la théorie établie selon laquelle la production de chaleur par le Soleil serait constante, pourraient aider à résoudre le mystère des âges glaciaires et à mieux comprendre les modifications climatiques qui ont provoqué dans la préhistoire la fonte des glaces polaires et les formidables inondations qui ont submergé de vastes régions du monde.
- p.7 - vue 11/558
-
-
-
- La « matière extraordinaire »
- Atomes et molécules mésiques — Hyperatomes
- Depuis peu l’attention des physiciens atomistes a été attirée sur l’existence d’atomes « extraordinaires », où l’un des électrons planétaires est remplacé par un méson (électron lourd) ; un hypéron, autre particule « étrange », peut aussi remplacer un nucléon dans le noyau. L’existence trop éphémère de ces particules ne permet guère d’en escompter pour l’instant des applications pratiques pour la production d'énergie. Mais l’étude de ces curieuses réactions, dont M. Pierre Vernier, maître de conférences à la Faculté des Sciences de Dijon, nous entretient dans l’article qu’on va lire, ne peut manquer d’augmenter nos connaissances sur la structure des atomes.
- La matière est constituée d’atomes, assemblés en général en molécules. Un atome comporte un noyau relativement lourd, autour duquel gravitent des électrons. Chaque électron porte une charge élémentaire négative, et le noyau porte autant de charges élémentaires positives que l’atome non ionisé comprend d’électrons. L’atome non ionisé est donc dans son ensemble électriquement neutre.
- Dans les années 1910-1980, on ne connaissait que deux particules élémentaires, le proton, noyau de l’atome d’hydrogène, et l’électron, déjà bien connu par diverses expériences, en particulier celles de J. J. Thomson. Ces deux particules suffisaient pour rendre compte, en gros, de la radioactivité p et de l’existence des isotopes. Cependant cette théorie soulevait de grosses difficultés. Dès la mise en évidence du neutron, par Chadwick, en 1932, on exclut les électrons libres du noyau et on admit que celui-ci était constitué de neutrons et de protons. Les neutrons et les protons présentent beaucoup de caractères communs; aussi a-t-011 créé l’appellation de nucléon qui désigne indifféremment un proton ou un neutron.
- Depuis iq32 on a découvert beaucoup d’autres particules élémentaires, l’électron positif, les mésons, le neutrino, etc. Nous avons indiqué dans le tableau I les principales particules élémentaires connues.
- Toutes les particules ne sont pas stables; certaines, en particulier les mésons, se décomposent spontanément au bout d’un temps plus ou moins long. Citons par exemple les réactions :
- méson tc- —méson p.- + neutrino,
- méson p.~ —>• électron 4- neutrino + antineutrino.
- Pour chaque particule, on peut définir une durée de vie. Cette durée de vie n’a qu’une valeur statistique; c’est le temps au bout duquel la moitié d’un stock de ces particules s’est décomposé. Pour une particule donnée, on ne peut prévoir le moment exact de sa disparition. On est cependant presque certain qu’au bout d’un temps très supérieur à la durée de vie (par exemple dix fois) la particule aura disparu.
- Lorsqu’une particule se déplace dans un milieu pour lequel elle présente une affinité, il peut se produire une réaction nucléaire. Ce mode de disparition s’ajoute à la décomposition spontanée, et la durée de vie effective, qui n’a toujours qu’une valeur statistique, sera plus courte que si la particule restait isolée. Ainsi certaines particules sont stables hors de la présence de matière; c’est le cas des électrons positifs et deë antiprotons, mais lorsqu’elles traversent la matière elles produisent des réactions d’annihilation, comme nous le verrons.
- La notion d’antiparticule a été introduite théoriquement par Dirac.
- Tableau I. — Particules fondamentales
- L'unité de masse est celle de l’électron ; l’unité de charge est la charge élémentaire ; l’unité de temps est la seconde.
- Charge Masse Spin Durée de vie à l’état libre
- 1° Particules stables
- Electron négatif (négaton) . I I 1/2
- Electron positif (positon) + 1 I 1/2
- Proton ....... + 1 1 836 1/2 1
- Antiproton I 1 836 1/2 00
- Neutrino 0 0 1/2 (
- Antineutrino .... 0 O I / 2 '
- Photon 0 0 I /
- 2° Particules instables
- Neutron (*). 0 1 838 1/2 770 s
- Antineutron ..... 0 1 838 r/2 770 ?
- Mésons légers (leptons)
- a— — 1 207 1/2 2,2 X IO-6
- UL+ + 1 207 1/2 2,2 X 10—6
- TZ — x 274 O 2,5 x 10—8
- rrO 0 274 0 2,5 X 10—8
- 7C+ . + I 274 0 2,5 x 10—8
- Mésons lourds (2)
- K— — x 966 0 ? 10—8 à 10—10
- K° 0 r^j 966 0 ? 10—8 à 10—10
- K+ + I 966 0 ? 10—8 à 10-10
- Hypérons
- A0 0 2 210 1/2? 3,7 X IO-10
- A0 (antilambda) .... 0 2 210 1/2 ? 3,7 x 10—10
- S— — I 2 34(2) 1 / 2 ? 3,4 x 10-11
- 2* . 0 2 33(l) 1 / 2 ? 3,4 x 10—11
- 2+ . + x 2 32(8) 1/2 ? 3,4 x 10-11
- S— — I 2 670 1 / 2 ? 10-10
- h'û 0 2 67O 1 / 2 ? io-10
- s+ + t ro 2 67O 1/2? 10—1°
- 1. Le neutron, stable quand il est engagé dans un noyau, se désintègre à l’état libre en un proton, un négaton et un neutrino.
- 2. Les mésons K ne sont pas uniquement déterminés par leur charge : on signale plusieurs types de mésons K+, K— et K” qui diffèrent principalement par leur durée de vie.
- A chaque particule, d’après Dirac, en correspond une autre, dite antiparticule, dont toutes les propriétés masse, durée de vie, etc., sont identiques, sauf la charge électrique qui est opposée (lorsqu’elle existe).
- L’électron positif et l’électron négatif, le proton et l’antiproton, le neutron et l’antineutron, constituent des couples particule-antiparticule, dont la propriété caractéristique est de donner une réaction dite réaction d’annihilation :
- Particule + Antiparticule —> Photons y (2 ou 3).
- La masse du couple particule-antiparticule est convertie en énergie qui est emportée par les photons y. Inversement, dans le champ électrique d’une particule chargée, un photon y d’une énergie suffisante peut se transformer en un couple particule-antiparticule. Cette réaction, qui est en quelque sorte l’inverse de la précédente, peut servir à la production des antiparticules.
- La notion d’antiparticule est sortie de la théorie de Dirac comme une nécessité gênante qui faisait mettre en doute la
- p.8 - vue 12/558
-
-
-
- 9
- valeur de cette théorie. La preuve expérimentale de l’existence des antiparticules a montré qu’il y avait là, au contraire, un des points les plus intéressants de la théorie.
- En présence de l’abondance de protons et de neutrons de la matière, les antiprotons et les antineutrons donneraient rapidement une réaction d’annihilation, et ceci explique la difficulté de mettre en évidence ces particules malgré leur stabilité intrinsèque.
- On s’est posé le problème de savoir s’il serait possible de fabriquer des atomes « extraordinaires », en ajoutant ou en substituant aux constituants normaux des atomes des particules différentes. On peut envisager de remplacer un des électrons qui gravitent autour du noyau par une particule plus lourde, méson ou antiproton, de même charge que l’électron. On peut aussi envisager d’introduire dans le noyau un hypéron.
- Ces atomes seront instables et il ne semble pas que, dans l’état actuel de la technique, on puisse songer à introduire dans un atome plus d’une particule extraordinaire, car cela supposerait un concours de circonstances bien improbable. L’instabilité de ces atomes exclut que l’on puisse en recueillir une quantité, même faible, dans un « récipient ». En revanche, on a pu mettre en évidence des événements et des séries d’événements qui impliquent à un certain moment l’existence d’un atome extraordinaire. Le nombre total d’atomes ainsi aperçus est encore très faible, quelques millions ou dizaines de millions. Réunis ensemble, ces atomes laisseraient insensible la plus sensible des balances. Nous verrons par quels procédés on a pu les mettre en évidence.
- Les atomes extraordinaires, que l’on sait produire le plus facilement sont les atomes mésiques tz et p.. Le noyau est un noyau normal mais à un électron orbital est substitué un méson négatif léger. Nous examinerons d’abord le mode de production de ces mésons.
- Production des mésons légers. — Les mésons k se forment dans de nombreuses réactions nucléaires. Citons par exemple l’interaction de photons ^de très haute énergie avec des noyaux légers :
- Photon y + Deutérium —> 2 protons 4- tz~.
- Les éléments du second membre de cette équation ont une masse totale au repos plus grande que ceux du premier membre, d’environ 274 fois la masse de l’électron. Le photon y doit apporter l’équivalent en énergie de cette masse. Son énergie doit donc être au moins égale à 187 MeV (x). En fait, pour que le rendement de la réaction soit appréciable, il faut que l’énergie soit supérieure à cette valeur.
- On peut aussi produire des mésons en bombardant des noyaux légers par des protons de haute énergie. Dans ces réactions .aussi, il y a création de masse à partir de l’énergie des protons. L’énergie d’un proton doit être supérieure à l’équivalent en énergie de la masse du méson à créer (187 MeV pour un méson a:).
- Les particules de haute énergie nécessaires à la production des mésons ont d’abord été trouvées dans le rayonnement cosmique, grâce auquel on a découvert les mésons. Maintenant avec les accélérateurs de particules (synchrocyclotron, cosmo-trons, etc.) on sait communiquer à des protons des énergies de plusieurs centaines et même plusieurs milliers de MeV. On peut dans ce dernier cas produire, à côté des mésons ir, une petite quantité de mésons K.
- Les mésons tz~ sont habituellement produits en bombardant une cible de béryllium ou d’aluminium avec des protons issus d’un synchrocyclotron (fig. 1). Ces mésons sont instables et
- 1. Rappelons qu’un électron-volt (1 eV) est l’énergie d’un électron accéléré dans un cliamp électrique par différence de potentiel de 1 V. 1 MeV (mégaélectron-volt) = 1 000 000 eV = 1,6 x 10—9 erg.
- Synchrocyclotron
- Cible d’aluminium
- Ecran absorbant tes rayonnements
- Canal
- Aimant déviant tes particules chargées
- Ecran absorbant
- Cible à bombarder par des mésons
- Fig. 1. — Schéma d’un dispositif d’étude de la matière mésique.
- Les protons accélérés suivant des orbites grossièrement circulaires dans un synchrocyclotron sont envoyés sur une cible en aluminium. Le dispositif est entouré d’un écran qui absorbe les mésons et autres particules produites. Un canal percé dans cet écran laisse passer un faisceau parallèle de particules. Un aimant, déviant les particules chargées, n’envoie, à travers le canal percé dans un deuxième écran absorbant, que les mêsons
- que l’on désire.
- se décomposent rapidement en des mésons p. suivant les réactions énoncées plus haut :
- tu- —>- p.- —>- électron négatif.
- Mais la seconde réaction est beaucoup plus lente que la première. Un méson d’une énergie de quelques dizaines de MeV ne parcourt guère plus de 2 m dans le vide avant de se décomposer en un méson p., alors qu’un méson p.~ peut parcourir quelques centaines de mètres sans se décomposer en un électron. Si on place une cible à une distance de 2 ou 3 m du lieu de production des mésons p.~, elle ne recevra que quelques mésons tz~ non encore décomposés. En revanche, les mésons p.- qui résultent dé la décomposition des mésons tz~ parviendront presque tous à la cible.
- Pour bombarder une cible avec des mésons tz on placera celle-ci aussi près que possible du lieu de production des mésons n. Pour la bombarder avec des mésons p. on se placera au contraire à une distance de quelques mètres.
- Un champ magnétique dévie les mésons 7t_ et p.- qui sont des particules chargées mais, à vitesse égale, les mésons tz~ sont moins déviés que les mésons p,-. On peut ainsi achever de séparer les mésons ir et p..
- Vintégration des mésons aux atomes. — Les mésons, au moment de leur création par les procédés que nous venons de décrire, ont des énergies très élevées, quelques dizaines ou centaines de MeV. Leur vitesse leur interdit toute capture par les atomes.
- Pour que leur capture soit possible, les mésons doivent au préalable être ralentis, et ceci, bien entendu, en un temps inférieur à leur durée de vie. Le processus de ralentissement a été étudié par Fermi. Lorsqu’un méson traverse la matière, il provoque, sur son passage, des ionisations qui lui font perdre de l’énergie. Le méson cède son énergie aux électrons qu’il arrache aux atomes rencontrés. Le nombre d’ionisations qu’un méson produit par unité de longueur décroît quand sa vitesse augmente et, pour des mésons d’énergie moyenne, ce nombre est approximativement proportionnel à l’inverse du carré de sa vitesse. Un méson perd son énergie d’autant moins vite que sa vitesse est plus grande et la perte d’énergie par unité de
- p.9 - vue 13/558
-
-
-
- 10
- temps est approximativement proportionnelle à l’inverse de sa vitesse. Elle est en outre proportionnelle à la densité des électrons dans la matière traversée.
- Fermi a trouvé ainsi que le temps nécessaire pour ramener un méson de l’énergie de quelques dizaines de MeV qu’il possède lors de sa création à une énergie de quelques électrons-volts qu’il doit avoir pour être capturé, est de l’ordre de io~9 à io~10 s, s’il traverse un liquide ou un solide, i ooo fois plus s’il traverse un gaz. Donc, si le méson est ralenti par un milieu condensé, la majorité des mésons et presque tous les mésons p. n’auront pas le temps de subir la décomposition spontanée avant leur capture par un atome.
- La relativité ajoute une circonstance favorable. Pour un observateur lié à un méson dont la vitesse approche celle de la lumière (3oo ooo km/s), le temps paraît plus court que pour un observateur fixe. Les durées de vie indiquées plus haut pour les mésons sont valables pour un observateur lié à la particule. Si un méson x" nous semble mettre 2 x io-8 s pour passer de 290000 km/s à 280000 km/s, ce temps ne représente pas même la moitié de sa durée de vie moyenne et il conserve une chance non négligeable d’être capturé par un atome.
- L'atome de Bohr et les orbites quantifiées. — L’énergie du méson est la somme de deux termes : son énergie cinétique, qui résulte de sa vitesse, et son énergie potentielle électrique, qui résulte de la force d’attraction électrique entre le méson et le noyau. Nous verrons que l’on peut négliger en première approximation l’action des électrons qui peuvent entourer le noyau. On convient habituellement que l’énergie du méson est nulle quand il est au repos à une distance infinie du noyau. L’énergie potentielle électrique est toujours négative, l’énergie cinétique est toujours positive. L’énergie totale, qui reste constante si le méson ne subit pas d’autre action que la force d’attraction électrique du noyau, peut être positive ou négative.
- On peut montrer que si l’énergie totale du méson est positive, sa trajectoire l’amène une fois à une distance minimale du noyau puis il s’en éloigne indéfiniment. Si l’énergie totale du méson est négative, il décrit une trajectoire fermée autour du noyau ou du moins sa distance au noyau passe successivement par des maximums et des minimums. La capture du méson par l’atome peut être définie comme le passage d’un état d’énergie positive à un état d’énergie négative.
- Dans les états d’énergie négative, la quantification apparait. Comme les électrons dans les atomes ordinaires, les mésons ne peuvent décrire que certaines orbites, ils ne peuvent prendre qu’une suite disci’ète d’énergies.
- Dans l’approximation de Bohr, ces énergies sont données par la formule :
- 27î2Z2e4mr
- w -----------------
- n2h2
- n est un entier positif appelé nombre quantique principal; h est la constante de Planck; Z est le numéro atomique du noyau; e est la valeur de la charge élémentaire; mr est une quantité appelée « masse réduite » du méson, qui peut être calculée en fonction de la masse mQ du méson et de la masse du noyau par la formule :
- momN
- m, =------------ .
- m0 + mH
- La masse réduite, qui diffère peu de la masse réelle du méson, intervient à la place de celle-ci parce que le mouvement de rotation du méson autour du noyau entraîne celui-ci. L’ensemble du méson et du noyau tourne autour d’un point du segment qui joint leur centre; ce point est appelé centre de masse.
- Pour n différent de 1, plusieurs orbites sont possibles, auxquelles correspondent des énergies légèrement différentes, mais
- dont l’ordre de grandeur est néanmoins donné par les formules précédentes.
- Ces formules sont la généralisation à des atomes mésiques de formules applicables à des atomes ordinaires ne comportant qu’un électron par suite de la perte de tous leurs électrons sauf un. Elles s’appliquent aux atomes mésiques, même s’ils n’ont pas perdu leurs électrons parce que ceux-ci gravitent à des distances du noyau beaucoup plus grandes que le méson. Par exemple pour le niveau fondamental (niveau d’énergie minimale) d’un atome d’hélium mésique (n, = 1, Z = 2), le méson p. gravite à une distance du noyau de l’ordre de i,5 x io-11 cm, l’électron que doit comporter en plus l’atome pour être électriquement neutre est à environ 5 x io-9 cm. L’action de l’électron sur le méson sera donc très faible en regard de celle du noyau.
- Le méson capturé par un atome tend à prendre l’énergie minimale compatible avec la quantification de son orbite. Il va sauter d’orbite en orbite jusqu’à celle, unique, qui correspond au nombre quantique principal n — 1. On dit que l’atome est alors dans son état fondamental. A chaque saut le nombre n diminue d’une ou plusieurs unités et l’énergie de l’atome mésique diminue de :
- W — W'
- 2tï2Z 2e4m2 h2
- n et n étant les valeurs du nombre quantique principal avant et après le saut.
- L’énergie W — W' est emportée par un photon. A ce pho-ton correspond une vibration électromagnétique de fréquence
- W — W' ch ,
- v =-----;---- et de longueur d’onde v = —------—, , c étant la
- h W — W
- vitesse de la lumière.
- Ce phénomène d’émission de photons n’est pas spécial aux atomes mésiques, il se présente aussi pour des atomes ordinaires. Mais souvent, dans les atomes ordinaires, les photons émis ont une longueur d’onde comprise entre o,4 et 0,8 micron, ils sont alors détectables par l’œil. Dans les atomes mésiques, les photons correspondants ont une longueur d’onde de l’ordre de 20 angstroms; ce sont des rayons X.
- Un atome ordinaire n’est que rarement dans un état excité (avec une énergie supérieure à l’énergie fondamentale) et par suite ne peut généralement pas émettre de photons. Lorsqu’un atome mésique se forme il est toujours dans un état excité et il tend toujours à émettre un ou plusieurs photons X. Les longueurs d’onde de ces photons sont caractéristiques et peuvent être calculées. L’émission de photons qui ont ces longueurs d’onde constitue une preuve de l’existence des atomes mésiques. Le fait que les photons soient des photons X constitue une circonstance favorable. A l’aide de chambres d’ionisation, il est possible de les détecter presque tous et en outre de mesurer individuellement leurs longueurs d’onde. Quelques millions de photons ainsi obtenus après une expérience de quelques heures ou de quelques jours apportent ainsi une information non négligeable sur les atomes mésiques. Si ces photons avaient été du domaine visible, la lumière qu’ils auraient transportée n’aurait même pas été décelable.
- Nous avons dit que les mésons ou les électrons décrivent des orbites autour des noyaux. En fait, il s’agit là d’une image trop précise. Elle suppose que pour chaque particule on puisse définir à chaque instant une position et une vitesse exactes. D’après le principe d’incertitude de LIeisenberg, cela est impossible. L’orbite dont nous avons parlé ne peut que schématiser l’état de l’atome. D’une façon très grossière, on peut la considérer comme une ligne autour de laquelle on a des chances maximales de trouver la particule. Mais si par exemple un méson décrit une orbite circulaire, le méson a une probabilité non nulle de se manifester au centre de son « orbite ».
- p.10 - vue 14/558
-
-
-
- 11
- La particule orbitale qui gravite autour d’un noyau présente donc une probabilité de se trouver à l’intérieur du noyau qui n’est jamais nulle. Cette probabilité devient très importante si le rayon de l’orbite cesse d’être grand en regard du rayon du noyau et ce cas se présente souvent pour les atomes mésiques.
- La décomposition des atomes mésiques. — Nous avons vu que les mésons sont instables; les atomes dans lesquels ils entrent ne peuvent donc avoir qu’une durée de vie limitée. La durée de vie moyenne d’un atome pi-mésique ne peut excéder 2 x io~8 s et celle d’un atome mu-mésique 2 x xo~6 s. Mais un autre processus de décomposition peut intervenir. Du fait de la probabilité non négligeable de trouver le méson à l’intérieur du noyau, on peut parfois observer une réaction entre le méson et un nucléon.
- Nous avons vu que le méson tend à sauter d’orbite en orbite, de sorte que la distance moyenne du méson au noyau tend à diminuer. Du point de vue des forces électrostatiques la seule orbite stable est l’orbite fondamentale (n = 1). Le méson ne passe que très peu de temps sur les autres orbites. Souvent ce temps est trop court pour qu’une réaction puisse intervenir entre le méson et un nucléon de noyau, avant que le méson ait atteint l’orbite fondamentale. On a, dans ce cas, deux événements possibles :
- — La décomposition spontanée du méson ;
- — La capture du méson par le noyau lorsqu’il est sur l’orbite fondamentale.
- Des particules différentes sont émises dans les deux cas par l’atome. Ces événements se manifestent par . des traces dans des plaques photographiques nucléaires ou dans des chambres de Wilson. L’observation de l’épaisseur et de la longueur des traces permet de déterminer la nature et l’énergie des particules correspondantes, On peut ainsi mettre en évidence les deux modes de décomposition des atomes mésiques.
- Le processus de réaction avec le noyau entre d’autant plus en compétition avec la décomposition spontanée que la probabilité de trouver le méson dans le noyau est plus grande. Deux facteurs interviennent pour déterminer cette probabilité : les dimensions du noyau et les dimensions de l’orbite. Quand la masse du noyau croît, ses dimensions augmentent et le rayon de l’orbite fondamentale décroît au contraire en raison de l’augmentation corrélative de la charge du noyau. On peut donc prévoir que la décomposition spontanée sera plus fréquente pour les noyaux les plus légers.
- C’est bien ce que l’on vérifie : pour des atomes mu-mésiques d’hydrogène là décomposition spontanée est à peu près générale, alors qu’elle est exceptionnelle pour des atomes de plomb, où la capture du méson est la règle.
- D’autre part, le rapport entre l’affinité du méson pour les nucléons et la rapidité de décomposition spontanée intervient. Le méson t: a une durée de vie 100 fois plus courte que le méson p., mais l’affinité du méson p. pour les nucléons est très faible alors que celle du méson 'k est très forte. La réaction du méson p. avec le noyau ne se produit, en fait, que pour les atomes les plus lourds. Pour le méson %, cette réaction est au contraire la règle générale.
- L’affinité du méson tî pour les nucléons est telle qu’il peut réagir sur le noyau avant même d’avoir atteint l’orbite fondamentale, en dépit du peu de temps qu’il passe sur les orbites excitées. Cette réaction prématurée peut être mise en évidence grâce aux photons X que le méson émet lorsqu’il saute d’une orbite à une autre. Si le méson réagit avant d’avoir atteint l’orbite fondamentale, on n’observe pas l’émission d’un pho-ton X caractéristique. En mesurant le nombre de photons X émis et le nombre de mésons produits, on peut connaître la proportion de mésons qui atteignent l’orbite fondamentale. Cette proportion devient inférieure à 10 pour 100 pour les atomes de numéro atomique supérieur à 7.
- Une telle étude est du plus haut intérêt pour la connaissance des réactions entre les mésons et les nucléons, connaissance fondamentale à cause du rôle joué par les mésons tz dans les interactions entre nucléons.
- Les molécules mésiques. — Lorsque deux atomes s’unissent pour former une molécule, les électrons extérieurs (électrons de valence) interviennent pour assurer sa cohésion.
- Si un méson est capturé par l’un des atomes, il se substitue à l’un des électrons intérieurs. Comme le méson gravite environ 200 fois plus près du noyau que l’électron auquel il s’est substitué, il n’y a pas de modification importante de la molécule, sauf si l’atome ne comporte qu’un électron. C’est le cas des molécules d’hydrogène.
- On a alors formation d’une molécule d’hydrogène mésique. La distance des deux noyaux qu’elle contient est de l’ordre de 200 fois plus petite que dans une molécule d’hydrogène ordinaire. Ce phénomène se produit quels que soient les nombres de masse des noyaux. Il se produit en particulier avec du deutérium et du tritium (hydrogène hyperlourd). Dans ce cas, l’affinité des noyaux d’hydrogène l’un pour l’autre peut entraîner une réaction nucléaire.
- MI + 2D -> 3lie + 5,4 MeV,
- 2D + 2D —>- 3He + neutron 4- 3,3 MeV,
- 2D + 2D —> T + H + 4,o MeV,
- 2D + 3T —>- 4He + neutron + 17,6 MeV.
- Fig. 2. — Observation d'une catalyse mésique.
- Un méson entre dans une chambre à bulles remplie d’hydrogène liquide en A et y laisse une trace AB. Il est stoppé en B et, capturé par un atome d’hydrogène, forme une molécule mésique neutre [i.HD dont un électron est remplacé par un méson. Cette molécule ne laisse aucune trace pendant qu’elle effectue le parcours BC. Mais en G il y a réaction entre les noyaux d’hydrogène et de deutérium ; le méson g. est éjecté suivant la trajectoire CD. En D il se décompose à son tour en donnant un électron qui •décrit la trajectoire DE. La chambre à bulles est placée dans un champ magnétique qui dévie les particules chargées. L’étude du rayon de courbure de leurs trajectoires permet de déduire à chaque instant leur vitesse.
- Le méson par sa présence rapproche les noyaux d’hydrogène pendant des temps « relativement longs » et par suite favorise la réaction nucléaire de synthèse. On dit qu’il a produit une catalyse nucléaire (fig. 2).
- Parfois le méson peut être éjecté des atomes produits dans la réaction, provoquer la formation d’une autre molécule mésique, et recommencer le cycle. On avait formé l’espoir que le méson pourrait catalyser ainsi un assez grand nombre de réactions avant de se décomposer et qu’on pourrait trouver là une source d’énergie. Malheureusement, il ne semble pas que dans les conditions les plus favorables un méson puisse catalyser beaucoup plus d’une dizaine de réactions, et l’énergie nécessaire pour créer un méson est très supérieure à celle qu’on peut retirer de réactions nucléaires en aussi petit nombre.
- La spectroscopie des atomes mésiques. — Lorsqu’une particule orbitale qui circule autour du noyau saute d’une orbite à une autre, il y a en général émission d’un photon. Ce photon emporte l’énergie qui a été perdue par l’atome dans la transition.
- p.11 - vue 15/558
-
-
-
- 12
- Lorsque les électrons extérieurs des atomes ordinaires changent d’orbite, il y a émission de photons qui transportent souvent. une lumière visible. L’étude de la répartition spectrale de ces lumières est une branche très importante de la physique : la spectroscopie. En effet, de la répartition des photons entre les différentes énergies, on peut déduire les niveaux d’énergie de l’atome et de là sa structure. Des phénomènes très importants peuvent se traduire par de très faibles modifications des niveaux d’énergie des atomes et par suite des énergies des photons émis. Heureusement la détermination de ces énergies peut être effectuée avec une très grande précision dans le cas de lumières intenses. Dans le cas de lumières peu intenses, elle est impossible.
- Les atomes mésiques émettent, par chance, des pilotons X dont on peut mesurer l’énergie avec Une précision honorable, même si l’on dispose de peu de photons. Les renseignements ne sont pas, et de loin, aussi précis que ceux que l’on peut tirer des spectres optiques de lumières intenses; mais dans les atomes mésiques, certains phénomènes, qui ne modifiaient que très peu les niveaux d’énergie des atomes ordinaires, prennent une importance énorme à cause des faibles dimensions des orbites mésiques.
- La polarisation du, vide et Veffet Lamb qui en est la conséquence présentent un gros intérêt théorique. On peut les présenter très schématiquement de la façon suivante. On admet généralement qu’autour d’une charge ponctuelle s’exerce un champ électrique inversement proportionnel au carré de la distance. Cette loi, appelée loi de Coulomb, est une des lois fondamentales de la physique. Dans le voisinage immédiat d’une charge, il règne donc un champ électrique considérable et rapidement variable qui possède la propriété de créer virtuellement des paires électron positif-électron négatif qui sont orientées par le champ électrique. Ces paires virtuelles modifient le champ électrique dans le voisinage immédiat de la charge, de sorte que le champ n’y est pas proportionnel à l’inverse du carré de la distance. Ce phénomène est appelé la polarisabilité du vide ; il entraîne un léger décalage des niveaux d’énergie des atomes, d’autant plus important que la particule qui gravite autour du noyau passe plus près de celui-ci. Ce décalage, appelé effet Lamb, est donc beaucoup plus grand pour les atomes mésiques que pour les atomes ordinaires. Soupçonné pour la première fois à la suite de mesures spectroscopiques de haute précision, le décalage de Lamb devait d’après les théories modifier d’environ i pour ioo l’énergie des photons X émis par les atomes mésiques. Les expériences ont confirmé ces précisions.
- Nous avons vu qu’une particule orbitale présente une probabilité non négligeable de se trouver à l’intérieur du noyau, probabilité d’autant plus grande que le rayon de l’orbite est plus petit et le rayon du noyau plus grand. Dans les théories élémentaires, on admet que la charge électrique du noyau est toute entière concentrée en son centre. Mais, de toute évidence, la charge du noyau est répartie dans sa masse, avec peut-être même une tendance à se répartir préférentiellement à sa surface. Si la charge du noyau avait été concentrée en son centre, le champ électrique varierait comme l’inverse.du carré de la distance au centre du noyau en négligeant l’etfet Lamb. Du fait de la répartition de la charge dans la masse du noyau, le champ est modifié à l’intérieur du noyau. Pour autant que la particule orbitale pénètre dans le noyau, les niveaux d’énergie de l’atome seront différents de ceux que l’on peut calculer par une théorie élémentaire.
- Les différences sont faibles pour des atomes ordinaires, mais elles deviennent très grandes pour des atomes mésiques. En effet, en raison de la masse de la particule orbitale, le méson a une probabilité très importante d’être à l’intérieur du noyau (plus de 1/2 pour un atome mésique de plomb). Dans l’étude des atomes mésiques p., on peut négliger les interactions entre
- méson et nucléons, autres que la force d’attraction électrostatique des protons pour les mésons p.. Le problème est donc relativement simple. En formulant des hypothèses sur la répartition des charges dans le noyau, on peut calculer les longueurs d’ondes des rayons X émis par les atomes mu-mésiques, pour diverses valeurs des rayons nucléaires. En comparant les valeurs ainsi trouvées aux longueurs d’ondes obtenues par l’expérience, on a obtenu une des meilleures déterminations des rayons des noyaux. On trouve pour le rayon R d’un noyau contenant A nucléons :
- jR = i,3 x y/d x io-13 cm.
- Une détermination théorique des longueurs d’onde des rayons X émis par les atomes pi-mésiques qui néglige les interactions non électriques entre mésons et nucléons donne des résultats très différents de l’expérience. On a vu que ces interactions étaient beaucoup plus importantes que pour les atomes mu-mésiques. Ce fait est donc normal, mais une étude quantitative de ces différences peut apporter des éléments nouveaux à la connaissance des interactions entre méson tc et nucléons.
- Les hypérons dans la matière. — Dans les atomes mésiques, un électron orbital est remplacé par un méson. On peut concevoir des atomes où l’un des nucléons du noyau soit remplacé par un hypéron, particule plus lourde qu’un nucléon (tableau I). Les « hyperatomes » sont évidemment instables puisque l’une des particules qui les constituent est
- Fig. 3. — Groupes de traces de particules dans des émulsions nucléaires, permettant de mettre en évidence des « hyper fragment s » (fragments de noyau contenant un hypéron).
- a : un méson K- est capturé en A par un noyau de l’émulsion. Il se produit une réaction nucléaire et il y a explosion du noyau. L’un des fragments qui résultent de l’explosion est un noyau d’hélium comportant
- un hypéron il décrit le trajet AB et se décompose en B, en
- donnant :
- .^Ile ^ + “H.
- b : même phénomène, mais l’hypéron est contenu dans un noyau JH, qui se décompose en donnant :
- iV4II —»H + 3H + •*-.
- p.12 - vue 16/558
-
-
-
- 13
- instable. C’est même cette instabilité qui a permis de les découvrir.
- Les propriétés spectrales des hyperatomes ne diffèrent pas sensiblement de celles des atomes ordinaires, puisque seule la masse du noyau est légèrement modifiée. Il faudrait un spec-Irographe de haute précision pour mettre en évidence de si faibles différences et un tel spectrographe exige beaucoup de lumière. Mais la présence d’un hypéron instable dans un noyau entraîne en de brefs délais l’éclatement, de ce noyau en plusieurs éléments. Ces éléments produisent dans une. émulsion photographique nucléaire des traces caractéristiques qui prouvent l’existence de l’hyperalome (lig. 3). On a pu mettre ainsi en évidence divers noyaux où un hypéron A neutre est ajouté à un noyau de tritium, de lithium, etc.
- L’observation d’une trace permet de déterminer la masse de l’élément correspondant et son énergie au moment de l’éclatement de l’hyperatome. L’étude du bilan masse-énergie dans la réaction a permis de mesurer l’énergie de liaison des hypérons dans les « hypernoyaux ».
- L’élude des hypernoyaux n’est encore qu’à ses débuts mais elle promet des résultats importants pour la connaissance des interactions entre particules.
- Conclusion. — Il était, a priori, du plus haut intérêt, pour la connaissance de la matière ordinaire elle-même, de
- connaître les modifications qu’apporteraient à ses propriétés la substitution systématique d’autres particules à ses constituants normaux. Les premiers résultats ont déjà fourni des renseignements précieux malgré la faible quantité de « matière extraordinaire ». Nous en avons esquissé une description partielle. Des précisions sur les interactions entre particules, une mesure des rayons nucléaires semblent actuellement être les points les plus intéressants.
- Le développement des accélérateurs de particules permettra sans doute d’amplifier les résultats obtenus dans deux voies. On pourra multiplier et préciser les expériences sur les types d’atomes déjà connus, atomes mésiques t. et p., noyaux comportant des hypérons A. D’autre part, on peut espérer produire d’autres types d’atomes extraordinaires. Ainsi on a déjà trouvé, dans des émulsions nucléaires, des traces en étoile qu’on pense dues à des hypernoyaux contenant un hypéron 2+. Récemment on a pu étudier des atomes K-mésiques où un électron orbital est remplacé par uri méson K~.
- Les résultats pratiques de telles recherches semblent encore bien lointains, mais qui aurait pu prédire, il y a 25 ans, l’uli-lisalion industrielle de l’énergie nucléaire?
- Pierre Vernier,
- Maître de conférences à la Faculté des sciences de Dijon.
- Nouveaux décrets concernant la recherche scientifique
- Un décret du 28 novembre 1958 créait un Comité interministériel de la Recherche scientifique et technique dont les délibérations devaient être préparées par un Comité consultatif où étaient appelés à siéger douze personnalités choisies parmi des « chercheurs. » 'éprouvés. Il était créé en même temps un secrétariat permanent, dirigé par un délégué général à la recherche scientifique, M. Pierre Piganiol. Les premiers travaux de ces comités ont eu pour suite une nouvelle série de décrets parus au Journal officiel du 13 décembre 1939.
- Les « douze sages » du Comité consultatif s’étaient mis. d’accord pour faire au gouvernement quatre propositions fondamentales, dont deux seulement ont été acceptées.
- La première proposition concernait le statut du personnel et les moyens à mettre à la disposition des organismes existants : facultés, grandes écoles, établissements scientifiques, C.N.R.S., etc. Cette demande a reçu partiellement satisfaction. Les crédits de fonctionnement pour la recherche ont été augmentés dans l’ensemble de 33 pour 109 : de 17,8 milliards en 1939, ils seront de 23,3 milliards en 19(10 (233 millions de nouveaux francs). Le statut des chercheurs du C.N.R.S. est d’autre pari amélioré ; les directeurs et certains maîtres de recherches pourront devenir fonctionnaires sur leur demande. Mais les agents techniques ne reçoivent que bien peu. Ils posent un problème très préoccupant et leur situation devra certainement être' réexaminée.
- Deux propositions, concernant la qualification universitaire du C.N.R.S. (tendant à légaliser une situation de fait) et la fondation de nouveaux instituts de recherche, n’ont pas été entérinées. La mission du C.N.R.S. est au contraire nouvellement étendue. Il lui est demandé « de développer, orienter et coordonner les
- recherches scientifiques de tous ordres et d’analyser pour le gouvernement d’une manière permanente la conjoncture scientifique » ; ses commissions, qui comprendront des personnalités d’autres milieux que ceux de l’Éducation nationale, recenseront les laboratoires de chaque spécialité, les sujets traités, les résultats acquis, les projets et moyens envisagés, de façon à déceler les lacunes, les doubles emplois, cl h établir des. plans à long terme. Les chercheurs eux-mêmes participeront plus largement au choix des membres des commissions.
- La quatrième proposition, concernant la création d’un Fonds national pour le développement de la recherche, a été acceptée. Le Fonds national aura pour mission d’intervenir dans1 les occasions particulières où s’impose une action urgente, d’orienter et de coordonner la recherche publique ou privée, par passation de contrats dont l’objet serait nettement défini. Tout laboratoire compétent sera habilité à proposer sa collaboration aux seules conditions d’accepter le but fixé et de rendre compte des résultats. Le Fonds national reçoit un crédit de démarrage de 8 millions de nouveaux francs.
- Sollicité de définir quelques grandes options de recherche, le Comité consultatif a proposé : conversion des énergies ; problèmes de nutrition ; biologie moléculaire ; cancer et leucémie ; neuro-physiologie et psychopharmacologie ; génétique ; exploration et exploitation des océans. ; théorie économique du développement ; calcul effectif ; analyse démographique, économique et sociale ; documentation. Chacun de ces thèmes sera soumis à un comité d’étude spécial qui devra remettre son rapport avant le 1er avril IfifiO. Il existait déjà un Comité d’étude pour la recherche spatiale, dont le rapport a été fourni.
- Verres à bas point de fusion
- Les Bell Téléphoné Laboratories (New York) annoncent la fabrication d’un nouveau groupe de compositions vitreuses contenant diverses proportions de soufre ou sélénium et les métaux lourds arsenic et thallium. Le point de fusion de ces verres se situe entre 123 et 330° C, domaine de température où leur viscosité approche celle de l’huile de ricin à la température ambiante ; leur durabilité est à peu près la même que celle des verres en général ; ils sont insolubles dans l’eau, les alcalis dilués, les acides et les solvants organiques, mais «ont attaqués par les alcalis concentrés. Peu perméables à l’eau et à l’hélium, ils possèdent également de bonnes caractéristiques de liaison à la plupart des
- métaux ; les' compositions contenant, du sélénium adhèrent particulièrement bien aux verres silicalés et aux céramiques ; leur dilatabilité thermique s’échelonne de 20 à 30 x 10_ie par degré C et leurs propriétés électriques vont des semi-conducteurs (10* D.cm) aux isolateurs (-1014 D .cm). Ces verres à bas point de fusion conviennent pour effectuer des revêtements par le procédé simple de l’immersion et ils peuvent en outre être évaporés et condensés en couches minces. La mise au point de ces verres ouvre de nouvelles possibilités pour l’enrobement des semi-conducteurs, condensateurs, résistances et des circuits imprimés.
- H. M.
- p.13 - vue 17/558
-
-
-
- LA RUPTURE DU BARRAGE DE MALPASSET et la recherche de ses causes
- La terrible catastrophe causée par la rupture du barrage de Malpasset près de Fréjus le 2 décembre 1959 a donné lieu à de très nombreux commentaires, émanant le plus souvent de personnes qui ignorent la complexité que revêt la construction d’un tel ouvrage. Des ingénieurs qualifiés ont cependant émis certaines hypothèses sur les causes de la catastrophe, se gardant toutefois de formuler une opinion définitive. Cette opinion ne pourra être fondée que sur les examens faits sur place et en laboratoire par la commission d’enquête désignée par le gouvernement. C’est donc le rapport de cette commission que l’on doit attendis avant de mettre en relief les fautes qui vraisemblablement ont été commises. On peut mesurer par avance la prudence avec laquelle les membres de la commission (parmi lesquels figurent des personnalités d’une compétence incontestée) analyseront le problème avant de déposer leurs conclusions.
- Ces dernières ne nous étant pas encore connues, au moment de mettre ce numéro sous presse, nous devons procéder en deux temps :
- i° Rappeler (ci-dessous) les faits connus en les accompagnant d’observations qui ne sont pas destinées à autre chose qu’à mieux poser les données du problème;
- 20 Résumer, dans un prochain numéro, les faits relevés par la commission et faire connaître les conclusions qui ont pu en être tirées.
- Le site. — L’ouvrage de Malpasset barre la vallée du Reyran en profitant d’un étranglement de cette vallée, dont les dimensions horizontales sont : à la base 3o m, au sommet' 180 m. La hauteur dépasse légèrement 100 m. L’étude préalable du site, par un professeur de la Faculté des Sciences de Marseille, a conclu à une bonne étanchéité de la cuvette, située en amont, et à une solidité satisfaisante des roches (gneiss) qui encadrent le site.
- Le régime et les cotes du barrage. — Destiné par le Génie Rural du Yar à irriguer 5 000 ha de terres et à alimenter plusieurs localités de la côte en eau potable, le barrage de Malpasset devait pouvoir fournir 1,2 m3 par seconde pour les besoins agricoles et o,4 m3/s d’eau potable pendant la période estivale où la population se trouve accrue par l’afflux des touristes. Ensemble, ces deux débits exigés représentaient une réserve minimale de 22 4oo 000 m3.
- Les nécessités de la distribution obligeaient à situer la prise d’eau à une cote nettement plus élevée que l’altitude à laquelle coule le Reyran (42,5 m au-dessus du niveau de la mer). En conséquence, la tranche inférieure de l’eau, entre 42,5 et 85 m, ne représentait qu’un remplissage, évalué à 22 000 000 m3, qui n’intervenait pas dans le régime utile de la réserve. Elle permettait seulement de « stocker » les apports solides du torrent.
- La tranche utile de la réserve se trouvait entre les cotes 85 et 98,5 m. Elle pei’mettait d’accumuler environ 25 000 000 m3, en excès d’environ 2 5oo 000 m3 sur les besoins. Il s’y est ajouté une masse d’eau de 4 5oo 000 m3, le déversoir se trouvant à la cote 100,4 m. La hauteur de l’ouvrage s’est donc trouvée portée à environ 60 m, en comprenant le remplissage de la saignée de base.
- L’alimentation de la réserve était assurée par le Reyran (dont le débit, accumulé en année sèche, peut ne pas dépasser i5 000 000 m3) et par le Biançon qui fournissait l’appoint.
- (Les conditions géographiques et le souci de calculer largement la réserve ont conduit à augmenter à la fois le volume du stockage et les dimensions de l’ouvrage).
- La conception du barrage. — Calculé par le Bureau d’études Coyne et Bellier, qui jouit d’une réputation mondiale, le barrage était en voûte mince (6,91 m à la base, i,5 m au couronnement). Il ne comportait pas d’armatures. Le rapport 1 pour 1 000 entre le volume du béton mis en oeuvre et celui de la réserve représentait un record mondial de hardiesse. Notons que la prise d’eau de 0,9 m de diamètre était située à la cote 79,5 m.
- (Les calculs théoriques de la voûte, à ses différents niveaux horizontaux, sont exclusivement fondés sur les efforts de compression que doit supporter le matériau. L’absence d’efforts de traction ou de flexion justifie en ^principe l’absence des armatures. Quant aux efforts de compression, ils se trouvent normalement reportés sur les appuis latéraux. Ajoutons que la marge de sécurité appliquée aux calculs a été de multiplier les chiffres par trois, ceci étant conforme à l’usage).
- Les appuis latéraux. — Rive droite, l’appui fourni par la masse de gneiss a été jugé satisfaisant. Rive gauche, il a été jugé nécessaire d’établir une culée de béton, fondée sur la roche que des injections de ciment avaient au préalable consolidée.
- (On a vivement insisté sur la culée rive gauche, considérée comme le point faible de l’ouvrage. Il a été dit qu’après la catastrophe cette culée avait été déplacée de 2 à 3 m vers l’aval. Cette appréciation et cette information ne peuvent qu’être notées en attendant confirmation).
- Les agrégats. — Le béton, dosé à 000 kg de ciment par mètre cube, comportait des agrégats de porphyre, issus d’une carrière voisine.
- (Le dosage de 300 kg de ciment au mètre cube est loin d’être le plus élevé qui soit prévu dans les travaux publics. Quant, aux agrégats, il a été dit qu’en cours de construction les travaux ont été suspendus pour « réviser le mélange ». Information peu précise et qui, en fait, n’apprend rien. Des essais de résistance du béton aux différents niveaux seront vraisemblablement effectués).
- L'évacuation des eaux. — Outre le déversoir, signalé plus haut, la décharge des eaux était assurée par un tuyau de i,5 m de diamètre, placé à la base du barrage et que fermaient deux vannes. L’ouverture de ces vannes permettait d’évacuer un débit de 4o m3/s.
- (La catastrophe a été attribuée par certains à une onde de choc, survenue au moment où les vannes ont été ouvertes. On a observé par ailleurs que le débit de 40 m3/s était faible et ne permettait pas, en cas de circonstances exceptionnelles, de soulager rapidement l’ouvrage).
- La conduite des travaux. — On a signalé la lenteur des travaux, conduits au rythme de 3oo m3 de béton par jour, ainsi que le temps anormalement long passé avant que l’ouvrage soit mis en charge.
- (Une voûte, normalement, se déforme sous sa charge. En l’absence de cette dernière, elle conserve un profil provisoire et le matériau, pendant la période d’attente, est affranchi des contraintes en vue desquelles les sections et les courbures ont été calculées. Il sera difficile de juger si cette circonstance a pu compromettre la résistance du béton).
- Les contrôles. — La partie la plus délicate, dans l’exécution d’un barrage, consiste en une gamme assez large de contrôles qui s’exercent périodiquement sur l’ouvrage lui-même, aussi bien pendant sa construction que pendant les premiers temps
- p.14 - vue 18/558
-
-
-
- 15
- Fig. 1 et 2. — Les restes du barrage de Malpasset après la catastrophe.
- A gauche, vue aérienne prise le 3 décembre en aval du barrage ; on voit les blocs de béton qui ont été entraînés dans la vallée du Reyran.
- A droite, vue prise de la rive gauche, sous le barrage (Photos Associated Pbess).
- de son exploitation. L'Électricité de France a constitué à cet effet des équipes spéciales qui surveillent l’ouvrage lui-même, en utilisant des procédés électriques et sonores. D’autres équipes ont pour mission de mesurer avec la plus grande minutie les mouvements du terrain, permanents ou transitoires, qui peuvent naître du fait de glissements, de déformations tectoniques ou de secousses sismiques. Le contrôle le plus important est celui qui s’exerce sur l’hydrologie de la région et des alentours immédiats du barrage.
- L’enquête permettra sans doute de vérifier si celte surveillance a été menée avec le même soin par les services du Génie Rural, maître de l’œuvre à Malpasset.
- (Nous devons faire état de Vhypothèse émise par un ingénieur spécialisé dans la construction des barrages et selon laquelle Vouvrage de Malpasset aurait pu subir des contraintes
- anormales, dues à des nappes ou des veines d'eau souterraines. La présence de ces masses liquides a pu favoriser la transmission de pressions s'exerçant de bas en haut et qui auraient compromis la stabilité de l'ouvrage. Il serait regrettable en ce cas que, malgré les explorations géologiques qui ont été effectuées, la détection des eaux souterraines se soit révélée incomplète).
- Circonstances accessoires. — On ne peut que noter, parmi les éléments de l’enquête, les nombreux tirs de mines dans la mine voisine de spath-fluor et sur le chantier de l’autoroute. Les secousses auraient pu ébranler le barrage. Il a été fait également allusion à une action chimique de l’eau sur le béton. Deux hypothèses qui ne peuvent être totalement écartées tant que l’enquête est en cours. Y. M.
- Centres de la douleur et du plaisir dans le cerveau des rats
- Deux chercheurs de l'Université du Michigan, l’assistant à la recherche R. P. Travis et le professeur de psychologie Jame Olds, viennent de se livrer à une série d’expériences sur l’aetion des tranquillisants. Ils ont implanté dans le cerveau de rats de petites électrodes orientées tout d’abord vers les centres cérébraux où se localisent les sensations de douleur. Us ont ensuite fait passer un courant électrique dans les électrodes. Les rats ont bientôt appris à appuyer sur un levier pour faire cesser la sensation désagréable. Puis les expérimentateurs ont dirigé les électrodes vers les régions du cerveau où ils soupçonnaient l’existence de « centres du
- plaisir ». Le même courant provoquait alors chez les rats une sensation visiblement agréable, puisqu’ils ne tardaient pas- à appuyer de leur plein gré sur le levier qui déclenchait le courant. Une dose de chlorpromazine, qui est le tranquillisant-type, fut alors administrée aux rats. Aussitôt ils renoncèrent à appuyer sur le levier qui leur apportait la sensation agréable. Les savants américains ont conclu que les « centres du plaisir » occupent une surface au moins cinq fois plus grande que les « centres de la douleur », et que les tranquillisants exercent une action puissante sur les uns comme sur les autres (Information U.S.I.S.)-.
- p.15 - vue 19/558
-
-
-
- 16
- Vénus serait en rotation semi-rapide et trop chaude pour des êtres vivants
- Un article récent de La Nature (novembre 1956, p. 448) a exposé quelques-uns des problèmes soulevés par l’étude de la planète Vénus : durée de rotation, température de la surface, composition chimique de la basse atmosphère. Aucun résultat spectaculaire n’est venu depuis lors apporter une réponse définitive à l’une quelconque de ces questions, mais divers travaux d’origine américaine, hollandaise et soviétique ont permis néanmoins de préciser certains détails. Nous allons donner un résumé succinct de ces travaux.
- Effet Doppler-Fizeau, émissions radio et rotation de Vénus. — Les astrophysiciens américains, partisans de la rotation semi-rapide du globe de Vénus sur lui-même, semblent, pour le moment, marquer des points et la France reste l’un des seuls pays où les spécialistes continuent d’admettre que la planète tourne sur elle-même en 225 jours, présentant ainsi toujours la même face au Soleil. Les arguments en faveur de cette dernière thèse ont été développés dans l’article déjà cité : la rotation en 225 jours serait prouvée par les observations visuelles des taches (peu contrastées) de Vénus si l’on admet, ce qui est discutable, que les éclaircies nuageuses de l’atmosphère vénusienne laissent parfois entrevoir le sol de la planète; en outre, les mesures du déplacement des raies spectrales par effet Doppler-Fizeau sur le pourtour du disque fie Vénus seraient incompatibles avec une rotation en moins d’un mois.
- À cela, les tenants de la rotation semi-rapide objectent l’existence sur l’astre de bandes nuageuses parallèles visibles sur les clichés en lumière violette ou ultraviolette (si ces bandes sont réelles, elles sont parallèles à l’équateur de Vénus et témoignent que la planète tourne sur elle-même en moins de quelques semaines); .ils invoquent également l’égalité des températures de la haute atmosphère mesurées sur l’hémisphère obscur et l’hémisphère éclairé de l’astre, difficile à expliquer si Vénus présente toujours la même face au Soleil, quelle que soit la force des courants aériens.
- Mais les partisans de la rotation en 225 jours rétorquent : i° que l’existence de ces bandes est douteuse (x) ; 20 que la température de la haute atmosphère terrestre est à peu près la même au-dessus de l’équateur et des pôles, bien que l’ensoleillement y soit fort différent. Ce dernier argument est de quelque poids; quant au premier, il est plus discutable : il est remarquable en effet que les mesures de l’inclinaison des bandes nuageuses sur Vénus aient conduit à des résultats cohérents quant à l’orientation dans l’espace de l’axe (supposé) de rotation de la planète. Kuiper a trouvé ainsi que l’équateur vénusien serait incliné de 32° sur le plan de l’orbite, tandis que Richardson a estimé cet angle à i4°. La différence entre les deux estimations est compatible avec les erreurs de mesure, en raison du manque de netteté des bandes; la valeur moyenne de l’inclinaison ainsi déterminée (23°) est extrêmement proche de celles de la Terre et de Mars.
- Quelles sont maintenant les données nouvelles ayant apporté des arguments supplémentaires aux partisans de la ratalion semi-rapide ?
- 11 y a d’aboi'd des mesures récentes et précises de Veffet Doppler-Fizeau. Au vrai, les mesures anciennes de Saint-John et Nicholson, à l’Observatoire du Mont Wilson (1924), étaient déjà compatibles, quoi qu’on en ait dit (Astronomie populaire Flammarion, p. 280), avec une rotation semi-rapide de la planète dans le sens rétrograde, mais l’erreur probable sur cette rotation était du même ordre que la rotation elle-même. L’Américain Richardson a entrepris en 1956 au Mont Wilson
- 1. Je transcris ici les arguments développés par M. Audouin Dollftis au cours d’un échange de vues oral sur ces questions.
- de nouvelles mesures plus précises, au moyen de speclro-graphes à haute dispersion. La moyenne de 102 pointés a donné comme résultat une rotation rétrograde s'effectuant en lh fours,. ce qui, compte tenu de la dispersion des mesures, peut également s’interpréter de la façon suivante : il y a une chance sur deux pour que la période de rotation, dans le sens rétrograde,, soit comprise entre 8 et 46 jours; il y a 16 chances sur 17 pour qu’elle soit plus longue que i4 jours, si la rotation est directe, et plus longue que 5 jours, si elle est rétrograde. Ces observations sont donc parfaitement compatibles avec une rotation de Vénus en quelques semaines au plus, très inférieure à 225 jours.
- 11 y a ensuite les observations radio de Vénus. Dans le même temps que Richardson mesurait l’effet Doppler-Fizeau, le radio-astronome américain Krauss, de l’Université de l’État d’Ohio, enregistrait des signaux radio sous forme d’impulsions en provenance de Vénus, sur la longueur d’onde de 11 m, au moyen d’un petit radio-télescope du type interféro-mètre. Ces signaux radio, ressemblant à ceux produits par les orages de Jupiter, revenaient avec un maximum d’intensité tous les i3 jours. Krauss n’atlacha pas, semble-t-il, une grande signification à ce phénomène cl orienta plutôt ses recherches sur le fait que, chaque jour, les émissions semblaient se reproduire suivant le même cycle (P), avec une avance de 1,60 à i,85 h sur le jour précédent. Dans l’hypothèse (vérifiée pour Jupiter) que les signaux sont reçus avec le maximum d’intensité lorsque le méridien de la source planétaire émeltrice est orienté vers la Terre, Krauss en déduisit que la période de i3 jours n’est pas la vraie période de rotation de Vénus, mais que l’astre tourne sur lui-même en 22 h 17 nui. Une rotation aussi rapide est tout à fait exclue; elle est incompatible avec les observations visuelles des taches de Vénus, avec les observations spectroscopiques du décalage Doppler-Fizeau et avec la rotondité du globe de Vénus, qui ne montre aucun aplatissement lorsqu’il se projette devant le Soleil comme un disque noir au moment des passages de la planète. Aussi Richardson a-t-il émis l’hypothèse que le retour périodique des grands maximums d'émission, tous les 13 jours, correspond à la véritable période de rotation du globe sur lui-même, le petit décalage observé chaque jour pouvant s’interpréter par la multiplicité des centres orageux et les déplacements de ces centres dans l’atmosphère de Vénus.
- En conclusion, la rotation de Vénus est certainement assez lente. Très probablement, elle est inférieure à 22a jours et même à un mois. 11 est possible qu’elle s’effectue en i3 jours environ, et que le sens en soit rétrograde.
- Température de la surface de Vénus. — Jusqu’à ces dernières années, les seules mesures de température qui aient été publiées sont celles de la haute atmosphère, au niveau de la couche supérieure nuageuse d’où provient, le rayonnement infrarouge de Vénus. Ce rayonnement a été mesuré au moyen de minuscules couples thermo-électriques (Petlit et Nicholson, 192.4-1927) ou d’un récepteur Golay (Sinlon et Strong, ig56). Les températures radiométriques que l’on en a déduites sont voisines de — 4o° C et semblent décroître lorsqu’on s’éloigne du centre du disque vers la périphérie, indice que la température vraie diminue lorsqu’on s’élève dans l’atmosphère vénusienne.
- Selon Opik cependant, la température réelle de la haute atmosphère serait nettement plus élevée que ces résultats ne l’indiquent. En effet, les températures radiométriques sont calculées en supposant que la planète rayonne comme un corps noir dans l’intervalle spectral utilisé; or, c’est là certainement
- p.16 - vue 20/558
-
-
-
- /
- une approximation très inexacte dans le cas de Vénus, par suite du grand pouvoir diffusant de la couche de nuages. Si l’atmosphère nuageuse de Vénus se comporte comme une surface émettrice « grise », ce qui est sans doute plus exact, la température que l’on peut déduire des mesures n’est plus égale à — 4o° C, mais à + 44° G !
- Un tel écart justifie que l’on ait recherché d’autres méthodes pour déterminer la température dans l’atmosphère vénusienne. Ces méthodes sont au nombre de deux.
- La première permet d’accéder à la température dans les couches •atmosphériques responsables de la formation des bandes d’absorption du C02 dans le spectre de Vénus (ces couches sont probablement situées à la même altitude, ou à une altitude un peu plus basse, en moyenne, que celle des couches auxquelles se réfèrent les mesures radiométriques). En effet, la « température de rotation » des molécules de C02, qui dépend de la population des niveaux de vibration et de rotation dans les bandes d’absorption de ce gaz, est mesurable d’après l’intensité spectrale de ces bandes. Les résultats déjà anciens d’Adel (1937), et ceux plus récents d’Adams et Dunham (ig55) et de Kuiper et Chamberlain (1956) donnent des valeurs comprises entre + 47° C (Adel) et + 120 C (Kuiper). Ces résultats semblent plus sûrs que ceux qui sont tirés des mesures au moyen du couple thermo-électrique et elles paraissent confirmer les calculs d’Opik.
- La deuxième méthode, tout récemment employée, permet d’accéder à la température des couches profondes atmosphériques ou du sol lui-même, qui sont inaccessibles à l’observation en lumière visible ou infrarouge. Elle consiste à mesurer, au moyen d’un radio-télescope, l’émission thermique de Vénus sur une radiation de quelques centimètres de longueur d’onde, et à déterminer la température du corps noir qui correspond à cette émission. D’après les premières mesures de Mayer, McCullogh et Sloanaker (Laboratoires de Recherches navales U. S., 1958), cette température oscillerait entre + 207° C et + 3i7° C, et la périodicité de la variation, si elle était confirmée, pourrait fournir une indication sur la période de rotation du globe vénusien. Cependant, ici encore, on ignore si l’émission mesurée est purement thermique. Une partie de cette émission provient certainement de la surface de l’astre, mais une autre partie a peut-être sa source dans l’ionosphère de la planète.
- Quoi qu’il en soit, ces résultats, pour incertains qu’ils apparaissent encore, et à moins que de nouvelles mesures ne les infirment complètement, semblent prouver que la surface solide
- de Vénus est fort chaude, dépassant de beaucoup xoo° C, ce qui éliminerait toute possibilité que l'astre soit recouvert d’océans aqueux (selon l’hypothèse de Menzel et Whipple) et qu’une vie organique ait pu s’v développer.
- Champ magnétique et émission du ciel nocturne de Vénus. — La présence d’un fort champ magnétique sur Vénus a été mise en évidence récemment par l’astronome hollandais j. Houtgast, d’Ulrecht, qui a analysé l’ensemble des données accumulées entre 1884 et ig53 sur le rayonnement corpusculaire solaire reçu par la Terre, et a trouvé une corrélation entre les 44 conjonctions inférieures de Vénus durant cette période et les minimums de ce rayonnement. Houtgast en a déduit que Vénus possède un champ magnétique capable de capturer en grand nombre les particules électrisées émises par le' Soleil. L’intensité de ce champ serait 5 fois celle du champ magnétique terrestre, mais c’est là une estimation assez imprécise.
- Un rayonnement corpusculaire abondant atteint donc la haute atmosphère de Vénus, et doit y produire une forte émission du ciel nocturne, ainsi que des orages magnétiques. Cette émission a été décelée récemment au spectrographe par l’astrophysicien soviétique N. A. Kosyrev, à l’Observatoire de Crimée, qui a découvert une cinquantaine de raies d’émission sur l’hémisphère non éclairé de Vénus, dont la plupart ont pu être identifiées et sont dues à l’azote. Il est intéressant de remarquer que la raie de l’oxygène à 0 077 A est absente, ce qui est en bon accord avec les résultats négatifs, quant à la présence d’oxygène, tirés de l’étude du spèctre d’absorption de l’hémisphère éclairé. L’Américain Gordon Newkirk Jr., à Boulder (Colorado), a confirmé les résultats de Kosyrev en ig58. D’après ces auteurs, la lumière du ciel nocturne sur Vénus serait 5o à 80 fois plus intense que sur la Terre. Cette émission est cependant 5. fois trop faible encore pour qu’il soit possible de distinguer à l’oculaire l’hémisphère non éclairé au contact du croissant éblouissant.
- Mais il n’est pas interdit de penser qu’au moment des maximums de l’activité solaire, la lumière du ciel nocturne de Vénus puisse dépasser le seuil de perception visuelle, ce qui expliquerait .peut-être d’anciennes observations de la feoi-disant « lumière cendrée » de l’astre, attribuées jusqu’ici au spectre secondaire des objectifs astronomiques.
- Pierre Guérin,
- Chargé de recherches au C.N.R.S.
- Le comportement du hareng
- Le comportement dés harengs et les évolutions de leurs bancs ont été récemment étudiés, dans l’Atlantique du Nord, par le sous-marin soviétique Sévérianka, nous dit la revue Priroda de Moscou. La présence de bancs de harengs a été détectée et observée tant à l’aide de l’écho-sondeur que par l’observation visuelle. L’écho-sondeur enregistrait, avec un relief suffisant, des bancs importants aux profondeurs comprises entre 100 et 180 m.
- Le comportement des harengs, tel qu’il a pu être observé au cours de cette expédition, présente un grand intérêt. L’une des constatations les plus caractéristiques est la faible activité du hareng durant une grande partie de la journée. Pendant la saison d’hiver, cette baisse d’activité relève vraisemblablement de l’instinct d’adaptation : le hareng dépense très peu d’énergie tout en étant porté, par les courants, vers le lieu du frai. Certains individus se tiennent absolument immobiles, et cela dans les positions les plus diverses. Dans la plupart des
- cas, cette position est normale, c’est-à-dire horizontale et abdomen en bas. Mais, parfois, le hareng flotte abdomen en haut, et, même, dans des positions inclinées ou verticales, la tête orientée soit vers le haut, soit vers le bas. Ce n’est que dans des bancs de faible étendue que se manifeste une activité assez considérable. Il a été constaté, d’autre part, que l’activité du hareng croît, pendant l’obscurité, à mesure que la nuit s’écoule et que le matin approche. Ainsi son comportement est affecté par un projecteur sous-marin d’une manière beaucoup plus nette vers la fin de la nuit que durant les premières heures d’obscurité. Ce n’est que dans la deuxième partie de la nuit, en effet, que les harengs tentent de quitter la zone éclairée, et cela de plus en plus activement à mesure que l’aube approche. Il est intéressant de noter, à ce propos, que les projecteurs électriques sous-marins attirent le plancton; à l’aube, la concentration du plancton aux faibles profondeurs diminue très nettement. C. M.
- p.17 - vue 21/558
-
-
-
- 18
- L’influence de la composition du sol sur la santé
- Il y a deux ans, M. André Voisin, chargé de cours à l’École nationale vétérinaire et membre de l’Académie d’Agricul-ture, publiait un livre intitulé La productivité de l'herbe dans lequel il étudiait l’influence de la constitution des herbages sur la santé et la productivité des animaux de ferme. Élargissant et approfondissant ce sujet, le même auteur vient de publier un nouveau livre, Sol, herbe, cancer, dans lequel il examine l’influence qu’exercent les constituants minéraux du sol, à travers les plantes, sur les animaux et sur l’homme lui-même (x).
- Deux processus de la technique agricole jouent en faveur d’une altération des plantes cultivées en principes utiles : la culture intensive et la sélection des variétés, du moins telle qu’elle se pratique généralement.
- En premier lieu la culture intensive a pour effet d’appauvrir le sol en deux catégories de substances minérales : les éléments qu’on peut appeler de constitution, comme l’azote, la potasse, l’acide phosphorique; et les oligo-éléments, c’est-à-dire les corps qui, comme le cuivre, le bore, le cobalt et quelques autres, n’interviennent qu’en quantités infimes dans la constitution de certaines molécules organiques, par exemple dans les enzymes, mais n’en sont pas moins indispensables. A la disparition des éléments de constitution, on remédie par la fumure et les engrais, car leur absence supprimerait les récoltes ou amènerait la dégradation des pâturages. On. remédie aussi quelquefois à la carence en oligo-éléments mais on ne le fait que quand', pour ainsi dire, on y est contraint et forcé. Ainsi les éleveurs sud-africains ont dû introduire du cobalt dans leurs terres quand on eut constaté que sans cobalt les moutons dépérissaient. Mais bien souvent la carence en oligoéléments est moins spectaculaire. Et surtout ses effets sont moins faciles à mesurer quand, à travers la plante et l’animal, ils n’atteignent que l’homme. Comme le fait observer M. Voisin, nous consommons aujourd’hui des produits animaux et végétaux qui viennent de loin et de provenances très diverses et les effets de ces carences sont quelquefois très longs à se manifester, de sorte que leur déterminisme n’est même pas reconnu.
- Un deuxième processus réside dans les procédés de sélection des plantes fourragères ou alimentaires. Cette sélection est faite dans l’intention immédiate d’augmenter la valeur marchande des produits; elle augmente donc leur taille, leur poids, leur beauté; mais on ne se soucie pas en général de la teneur de ces produits en vitamines et autres substances indispensables à la santé.
- De tout cela M. André Voisin donne de nombreux exemples qu’il analyse pertinemment. Il montre par exemple que l’on se préoccupe de doser la matière azotée dans la luzerne, ce qui fournit en effet la teneur en protéine brute dans cette plante,
- 1. Soi, herbe, cancer, par A.ndré Voisin. Préface de C. Bressou, membre de l’Institut, directeur honoraire de l’École nationale vétérinaire d’Alfort. 1 vol. 16,5 x 25, 316 p., 17 fig., 39 tableaux. La Maison Rustique, Paris, 1959. Prix : 3 000 F.
- mais non la teneur en méthionine qui conditionne sa valeur alimentaire pour le bétail. Or, la teneur en méthionine est sous l’influence du soufre que contient le sol. La carence en soufre peut donc entraîner un abaissement de la valeur nutritive que les analyses courantes sont incapables de mettre en évidence.
- Un autre exemple montre l’importance de l’engrais complet. Des tomates et carottes cultivées sur un sol qui n’a reçu que du fumier peuvent être très déficientes en carotène, o’est-à-dire en provitamine A. L’apport d’engrais complet, contenant azote, acide phosphorique et potasse, en plus de l’engrais organique, entraîne l’abondance du carotène.
- D’autre part, on a montré que l’apport de phosphate au sol, sans modifier la teneur d’une céréale en phosphate, peut augmenter considérablement sa teneur en thiamine (vitamine B1). Cette action est renforcée par le chlorure de potasse alors que le sulfate de potasse, qui agit également sur le rendement de la céréale, n'influence pas sa teneur en thiamine. On sait d’autre part que, tandis que le lait de vache a une teneur à peu près constante en thiamine, le lait de femme en contient selon la quantité que la nourrice reçoit elle-même dans son alimentation.
- Une série d’autres exemples concernent les effets de la carence du sol en oligo-éléments. Le cuivre a une importance primordiale. Sa carence dans le sol et par suite dans les herbages entraîne des déficiences et des maladies très diverses selon les espèces et selon les autres conditions : stérilité, fragilité des os, diminution du poids et de la production du lait dans l’espèce bovine, maladie ataxique des agneaux. Le molybdène agirait comme un antagoniste du cuivre et un excès de molybdène dans le sol amènerait la stérilité des vaches en même temps que d’autres troubles.
- La carence en magnésium est responsable d’accidents tétaniques chez le bétail et l’apport d’engrais potassique, en déséquilibrant le rapport potassium-magnésium, peut équivaloir à une carence en magnésium. Le zinc jouerait un rôle essentiel dans la régulation de la teneur en sucre du sang et donc dans la protection contre le diabète.
- M. André Voisin s’est surtout étendu sur le rôle que le cuivre et le magnésium joueraient dans la protection de l’organisme contre beaucoup de maladies infectieuses et d’autre part contre le cancer, par l’intermédiaire de la catalase qui serait un grand régulateur de la vie cellulaire. Ces vues, en grande partie hypothétiques, ne seront pas facilement acceptées. Cependant, il est incontestable que le cancer est partiellement sous l’influence de l’alimentation.
- De toute façon l’attention des hygiénistes est utilement attirée par ce livre clair et vigoureux sur l’importance que le traitement du sol peut avoir pour la santé humaine, par l’intermédiaire des produits végétaux et animaux. La question appelle encore de nombreux travaux mais la thèse générale de M. Voisin est certainement juste. Notre santé dépend étroitement du sol. J. G.
- Cinq millions de kilomètres à l'heure
- üne information du Centre culturel américain a fait savoir que le docteur Y. C. Lee, savant américain d’origine chinoise, aurait mis au point un projet de propulseur qui pourrait imprimer aux véhicules spatiaux une vitesse de près de 5 000 000 km/h (plus de 1 350 km/s). Le dispositif, appelé système de propulsion colloïdal, fonctionnerait en éjectant par une tuyère de minuscules particules chargées électriquement. C’est la méthode utilisée dans les fusées à ions actuellement en cours de développement. Mais dans le système de M. Lee, l’énergie électrique nécessaire pour charger les particules avant leur éjection serait fournie par de petits
- réacteurs nucléaires. Utilisé à bord des navires spatiaux, le propulseur ne commencerait à fonctionner que lorsque le véhicule aurait été porté à très haute altitude par des propulseurs à fusées qu’alimenteraient des propergols liquides ou solides de type classique.
- La vitesse du véhicule spatial s’accroîtrait progressivement pour atteindre au bout d’un mois l’allure de 4 800 000 km/h. M. Lee estime que son appareil doit être normalement réalisable dans trois ou quatre ans sans que de nouvelles découvertes scientifiques aient à intervenir
- p.18 - vue 22/558
-
-
-
- 19
- Coke sidérurgique et carbochimie dans le nouvel essor des Houillères de Lorraine
- Les Houillères du Bassin de Lorraine (les mineurs ont coutume de les désigner par les trois initiales LI.B.L.) sont considérées à bon droit comme la plus belle réussite de l’industrie charbonnière nationalisée. On sait en effet qu’en règle générale la croissance d’un bassin houiller est fort lente et qu’en dépit des besoins énergétiques qui se manifestent dans le pays on parvient difficilement à réaliser en peu de temps les équipements nécessaires pour, d’une année sur l’autre, augmenter sensiblement la production.
- Quelques chiffres en apportent la preuve : malgré un effort exceptionnel poursuivi pendant les années d’après-guerre, les pays de l’O.E.C.E. n’ont pu, en 8 ans (19/1.8-1955), enregistrer une hausse de plus de 20 pour 100 par rapport à l’extraction de 1948. Plus récemment, la Communauté Charbon-Acier n’a pu progresser que de 4 pour 100, dans la période 1952-1958.
- Or, pendant les deux dernières années, les Houillères de Lorraine ont connu un accroissement de 12 pour 100. Elles ont dépassé en 1958 un chiffre global de i5 000 000 t, contre 7000000 en 1939 et 800000 en 19/18. Le bassin se classe désormais à la deuxième place, après celui du Nord-Pas-de-Calais, et fournit environ le quart de la production métropolitaine.
- Il convient d’ailleurs d’observer que les réserves du sous-sol se montent à environ 5 000 000 000 t (la moitié des réserves globales du pays), ce qui assure quatre siècles d’exploitation, selon une courbe où le maximum se situerait vers une extraction annuelle de 20 000 000 t.
- Une autre caractéristique remarquable réside dans la haute productivité des H.B.L. En 1967, le rendement du fond a atteint 2 310 kg par homme et par jour (record européen) devant la Ruhr (1 614 kg), la Sarre (1 800 kg), le Nord-Pas-de-Calais (1 484 kg), le Royaume-Uni (1 610 kg).
- La réussite est donc indéniable, mais les chiffres n’en rendent compte évidemment que d’une manière superficielle. Certaines particularités du bassin lorrain et de l’effort qui s’y poursuit permettront de la mettre plus justement en relief.
- Situation géographique et implantation des sièges. —
- On doit tout d’abord observer qu’il n’y a pas de solution de continuité entre le bassin lorrain et le bassin sarrois. Le gisement houiller se prolonge de part et d’autre de la frontière, selon un axe NE-SO et c’est seulement en raison des sinuosités de la frontière que la concession des H.B.L. présente une forme littéralement « biscornue » (fîg. 1).
- On observera également que les quatre principales localités de la région, Sarrebruck (en Sarre), Forbach, Merlebach et Saint-Àvold (en Moselle), s’alignent plus ou moins sur l’axe minier. Troisième remarque : le bassin est concentré sur une superficie réduite (35 km sur la plus grande longueur, 20 km sur la plus grande largeur, moins de 5 km à P « étranglement » de Merlebach). La densité du gisement est considérée comme un facteur favorable pour l’exploitation; elle représente par contre une difficulté pour le recrutement et surtout le logement du personnel.
- SARREBRUCK
- _ ^Merlebach V Faulquemon£^^^ /
- .^Sarrebourg © ET ^ 4
- NANCY
- BAS
- ^ y R H IN
- "•v f
- MO SELLE
- Fig. 1. — Carte générale du bassin /touiller de Lorraine.
- p.19 - vue 23/558
-
-
-
- 20
- Pour compléter ce rapide tableau géographique, il convient de signaler que les H.B.L. sont divisées en trois groupes qui sont, par ordre d’importance, le groupe Sarre et Moselle (5o pour ioo de la production), le groupe Petite-Rosselle (38 pour ioo) et Faulquemont-Folschwiller, de création plus récente, qui ne contribue à la production que pour 12 pour 100.
- Les principaux sièges d’exploitation, comprenant puits d’extraction., puits de service et d’aération, sont situés à Merlebach (prolongé par Sainte-Fontaine et Cuvelette), à La Houve, à Petite-Rosselle, à Forbach (puits Simon), à Faulquemont et à Folschwiller.
- Historique du bassin. — On a l’habitude de dire que le bassin de Lorraine est « jeune », ce qui est à la fois faux et vrai. En fait, le premier charbon extrait du sous-sol dans la région de Petite-Rosselle date de i856, ce qui a permis aux H.B.L. de commémorer, il y a trois ans, le centenaire du bassin, en rappelant les réjouissances populaires qui avaient accompagné la promenade à travers la province d’un premier bloc de houille, longtemps espéré et recherché. Au bout d’une campagne méthodique de sondages, le même résultat était enregistré à Garling. Plusieurs groupes industriels s’intéressèrent au charbon lorrain qui, dès cette époque, paraissait promis à un brillant avenir.
- Ce sont les guerres successives qui ont entravé cet essor. Api’ès 1870, les sociétés françaises et franco-belges qui s’étaient lancées dans cette exploitation ne furent pas obligées de l’abandonner, sans toutefois la pousser très activement. Les Allemands, de leur côté, concentraient leurs efforts sur la Sarre et n’obtenaient en Lorraine que des résultats négligeables.
- La véritable mise en valeur n’a débuté qu’après la guerre de 1914-1918, mais dans des conditions qui devinrent progressivement plus précaires : les puits se trouvaient placés pour la plupart entre la ligne Maginot et la ligne Siegfried. En 1939, ils durent être abandonnés : les pompes ayant cessé de fonctionner, les galeries furent noyées. Puis, pendant l’occupation,, le travail reprit pour une exploitation intensive qui désorganisa les mines. C’est ainsi que les Houillères de Lorraine, bien que centenaires, peuvent être considérées comme jeunes, en raison des crises successives qui ont troublé leur croissance.
- Facteurs géologiques. — Des sondages anciens avaient révélé l’existence, dans la zone de Merlebach, de veines redressées jusqu’à la verticale. Différentes hypothèses tectoniques furent émises, mais c’est seulement en 1920 que l’interprétation défi-
- nitive fut donnée : on se trouvait en présence d’un anticlinal du Carbonifère dont le flanc ouest a une pente d’environ 3o°, tandis que le flanc est est renversé jusqu’à présenter une inclinaison (inverse) de 8o°. Cette inclinaison s’atténue progressivement à mesuie que l’on descend à de plus grandes profondeurs (fig. 2).
- La violence du plissement n’a pas altéré la régularité des couches, réparties en trois groupes (flambants supérieurs, flambants inférieurs et gras). Certaines veines ont des puissances de l’ordre de 12 m et même de 20 m. Elles sont limitées, à l’est, par un conglomérat du Muschelkalk qui marque le début latéral des terrains stériles.
- Au-dessus de cette zone violemment plissée, on rencontre une couche imperméable et relativement mince de terrains permiens auxquels se superposent des grès bigarrés du Trias, fortement aquifères. Il se trouve (nous le verrons plus loin) que la conjonction entre les veines verticales et les grès aquifères a fait la fortune de ce gisement. Certains ingénieurs ont même déclaré que cette stratification était « providentielle ».
- N’empêche qu’au premier abord l’eau semblait être un facteur défavorable, les infdtrations pouvant, pour certains sièges, dépasser le rythme de 3o m3 par minute. Par ailleurs, le gisement lorrain qui est, une fois de plus, considéré comme jeune (mais sous l’angle géologique) présente le grave inconvénient d’être très grisouteux : le dégagement de méthane peut atteindre 10 m3 par tonne de charbon. Cela caractérise en général les couches où le processus de « houillification » est à un stade peu avancé, contrairement aux gisements maigres ou antlira-citeux qui sont géologiquement vieux. Outre le dégagement de grisou, la nature du charbon, riche en matières volatiles, entraîne des échauffements spontanés (feux) qui représentent un grand danger si les mesures adéquates ne sont pas prises.
- Ces quelques facteurs ont orienté la technique minière vers certaines dispositions qu’il nous faut à présent décrire.
- Le remblayage hydraulique. — La première question que l’on peut se poser, alors qu’on se trouve en présence d’une veine verticale de charbon, est la suivante : comment déplacer les chantiers d’extraction vers le haut (ou vers le bas), en conservant une hauteur normale de galerie et en évitant la création d’un vide considérable qui entraînerait des risques d’éboulement ? Ce problème était d’autant moins simple que les veines redressées devaient être exploitées sur des centaines de mètres de hauteur.
- La solution a été de commencer les tailles par le bas et de
- ANTICLJNA'L DE MERLEBACH ANTICLINAL SIMON
- Flambants sup.Flambants inf Gras Muschelkalk Grès vosgien Permien
- Fig. 2. — Coupe ouest-est de l’anticlinal de Merlebach.
- On remarque, à l’est de l’axe de l’anticlinal, le redressement accentué des plis qui tendent à se déverser vers l’extérieur et auxquels on a donné
- le nom de « dressants ».
- p.20 - vue 24/558
-
-
-
- Fig. 3. — Chevalements et bâtiments du puits Wendel au groupe de Petite-Rosselle.
- les poursuivre en remblayant successivement les « étages » vidés de leur charbon, c’est-à-dire en créant un sol artificiel pour chaque nouvel étage. C’est ici que le grès vosgien a joué un rôle déterminant, en se mêlant à l’eau qu’il recèle en abondance. Deux carrières ont été aménagées aux environs de Merle-bach : le grès qui en est extrait subit plusieurs opérations de concassage, broyage et criblage qui le transforment en un sable d’une granulométrie adéquate. La préparation du remblai se termine par le mélange (à doses bien déterminées) du sable et de l’eau. On le verse ensuite par des entonnoirs dans les canalisations en acier, particulièrement résistantes à l’abrasion, qui l’acheminent vers les chantiers à remblayer. En ag55, la longueur totale de ces canalisations dépassait 60 km.
- Parvenant dans le chantier, le sable liquide s’étale de lui-même, mais un dispositif doit être prévu pour qu’il puisse s’essorer. Ce rôle est dévolu à un organe appelé tubbing, sans lequel d’ailleurs le remblayage hydraulique serait irréalisable. Il faut en effet maintenir la communication avec les niveaux inférieurs, ce que l’on faisait précédemment par des cheminées verticales, coffrées en bois : à présent on utilise un tube étanche en acier, fait de viroles superposées et dont le diamètre intérieur est de 1,7 m. Le tube est divisé en deux par une cloison médiane : d’un côté se trouvent les échelles empruntées par le personnel, les câbles électriques, les tuyauteries d’air comprimé et d’eau; l’autre section du tubbing sert à l’écoulement du charbon et au passage du gros matériel (figure de la couverture de ce numéro).
- Avant d’exécuter le remblayage, une nouvelle virole est fixée sur le tubbing en place et toutes dispositions sont prises pour que l’excès d’eau se déverse dans la double cheminée, le niveau supérieur d’un côté, l’eau résiduelle de l’autre. Un homme, couvert de vêtements imperméables se trouve dans la virole supérieure pour surveiller et diriger l’opération. Le sable est essoré et le sol reconstitué en l’espace de quelques heures. Le remblayage hydraulique se termine par le refoulement au jour (sur des hauteurs de l’ordre de 5oo m) de l’eau qui s’est écoulée vers les galeries inférieures.
- Accessoirement, bien que ceci ait son importance, le réseau
- — — —...................-..................— 21 — —-
- de remblayage hydraulique peut être employé pour noyer les feux qui se déclarent dans les galeries.
- Aération et dégazage. — Sans entrer dans le détail du labyrinthe des galeries horizontales et des « montants » verticaux, on doit souligner l’impératif auquel toute mine est soumise : assurer la circulation d’air frais, en évacuant les émanations de grisou ainsi que les gaz que dégagent les tirs de cartouches.
- Mais cette conception élémentaire de l’aération demande à être révisée, car elle ne tient pas compte d’un élément important qui est la valeur énergétique du gaz de mine. Le grisou des mines lorraines est du méthane presque pur et l’on a évalué sa production quotidienne à Coo 000 m3. Si l’on y ajoutait les 1 200 000 m3 du bassin sarrois, on obtiendrait un volume suffisant pour satisfaire la moitié des besoins en gaz de l’agglomération parisienne.
- Les techniques nouvelles du dégazage permettent de capter une partie de cet Le richesse jusqu’ici inemployée. Elles consistent en des sondages préalables et la mise en place d’un réseau de canalisations à travers la masse des charbons grisouteux : plusieurs puits des H.B.L., ainsi dégazés, fournissent un débit de méthane variant entre 5o 000 et 100 000 m3 par jour.
- Ce gaz peut être employé dans les chaudières des centrales ou pour le chauffage des fours de carbonisation.
- Les bas-produits. — Les chiffres cités au début de cet article sont, avons-nous dit, entachés sinon d’erreur, du moins d’une certaine « abstraction ». Observation qui n’est d’ailleurs pas particulière aux Houillères de Lorraine, car le charbon extrait de la mine n’est jamais en totalité du combustible commercialisable. Le charbon lorrain ne fait pas exception à cette règle et sur une tonne remontée au jour, on trouve en moyenne : 65o kg de produits marchands (depuis les fines jusqu’aux gailletins) ; a5 kg de pulvérulents (charbons en poudre fine) ; 45 kg de mixtes (charbons mélangés au schiste) ; 70 kg de schlamms (mélange humide de charbon et d’argile); 210 kg de stériles (pierres ou schistes).
- Nous n’insisterons pas sur la technique moderne, et cependant déjà classique, du lavage qui permet de trier automatiquement les différents éléments. Le principal problème auquel les H.B.L. ont dû faire face (ainsi d’ailleurs que les houillères situées en d’autres régions) est la récupération et l’utilisation des bas-produits, pulvérulents, mixtes et schlamms.
- Ces produits invendables et dont le transport serait onéreux sont normalement employés sur place et, au fur et à mesure que les H.B.L. s’équipaient, des centrales électriques ont été construites pour les brûler. Depuis la Libération, un regroupement s’est opéré : deux grandes centrales absorbent désormais la majeure partie des bas-produits, « Emile Huchet » pour le groupe Sarre et Moselle et Faulquemont, « Grosblie-derslroff » pour le groupe de Petite-Rosselle.
- La première de ces centrales est située à Carling, c’est-à-dire à une dizaine de kilomètres du grand lavoir de Freyming (fig. 4) où les bas-produits sont séparés. Elle a été une des premières dans le monde à être approvisionnée par un pipeline (fig. 5) où les pulvérulents et les schlamms sont entraînés dans un courant d’eau. Cela oblige évidemment à décanter ce mélange, à l’essorer et à le sécher avant qu’il aborde les chaudières de charbon pulvérisé de la centrale. Celle-ci, disposant de relativement peu d’eau, s’accompagne de tours hyperboliques de réfrigération, hautes de 80 m.-
- « Grosbliederstroff » reçoit son charbon par un téléphérique horizontal, capable de transporter 2Ôo t par heure. Cette centrale étant installée au bord de la Sarre, la réfrigération ne pose aucun problème.
- L’électricité produite est répartie par un réseau intérieur d’interconnexion entre les différents sièges, chacun d’eux étant
- p.21 - vue 25/558
-
-
-
- 99
- gros consommateur de courant, mais ce réseau est raccordé à Saint-Avold au réseau général de l’Électricité de France qui en absorbe une part importante. Le chiffre de la puissance installée, pour l’ensemble du bassin, est actuellement de 470 000 kW, auxquels vont s’ajouter deux nouveaux groupes qui doubleront la production de la centrale Émile Huchet.
- Les ingénieurs des H.B.L. se plaisent à faire remarquer que les bas-produits. du bassin permettent une production électrique équivalente à celles, réunies, de deux grandes centrales hydrauliques du Rhône : G.énissiat et Donzère-Mondragon.
- « Vocation chimique » du charbon. — Paradoxalement, ce sont les bas-produits, transformés sur place en énergie électrique, dont l’écoulement pose désormais peu de problèmes. Il n’en est pas de même pour les différentes sortes de charbons marchands, caractérisés, avons-nous dit, par leurs teneurs particulièrement hautes en matières volatiles. Cela tend à en orienter l’utilisation vers l’industrie chimique, pour laquelle ils sont spécialement qualifiés, en délaissant progressivement le rôle énergétique pur (*) auquel sont mieux adaptés les anthracites d’une part et les produits pétroliers, le gaz naturel d’autre part.
- C’est autour de ce problème essentiel que sont centrés les efforts des H.B.L. pour fixer leur équilibre économique. Il est en grande partie résolu par les nombreuses transformations que nous évoquerons plus loin, ce qui n’empêche que les deux tiers du tonnage extrait sont vendus « au naturel » à une clientèle variée (S.N.C.F., Électricité et Gaz de France, sidérurgie, industries diverses, foyers domestiques).
- L’assortiment offert par les H.B.L. se compose de trois qualités :
- Teneur Pourcentage
- en dans
- matières volatiles la production totale
- Gras B 34-40 20
- Flambants gras. .3342 52
- Flambants secs. 3:-44 28
- Cette classification est dans une certaine mesure schématique et souvent, en exploitant une même veine, on voit les caractéristiques du charbon se modifier. Néanmoins, une distinction doit être faite entre les deux premières sortes, d’utilisation plus facile et qui se prêtent aux procédés lorrains de cokéfaction, et les flambants secs, charbons généralement peu estimés : à nombre égal de calories, ils occupent un plus grand volume, laissent un important dépôt de goudron sur les conduits de fumée et demandent des poêles spéciaux pour être brûlés par la clientèle privée. Tout cela est compensé par un prix assez bas qui a attiré les usagers locaux et les habitants de plusieurs départements de l’Ouest de la France.
- Il est malgré tout évident que les flambants secs devront tôt ou tard obéir à la vocation chimique du bassin : des recherches en cours (voir ci-après) laissent espérer qu’il en sera ainsi.
- La carbonisation. — Il est fort rare jusqu’à nouvel ordre que le charbon, même lorsqu’il est fort riche en hydrocarbures, puisse être pris dans sa totalité comme matière première de l’industrie chimique. Celle-ci utilise surtout ses produits de distillation et cette dernière opération n’est entreprise que si le produit essentiel, à savoir le coke, peut trouver un marché suffisant.
- Cette condition préalable se trouve à présent réalisée, à la suite de nombreuses vicissitudes. En principe et dès l’origine du bassin, les consommateurs de coke se trouvaient presque à pied d’œuvre : il s’agissait des usines sidérurgiques, distantes seulement de quelques dizaines de kilomètres et contraintes de s’approvisionner en coke ou en fines à- coke à des bassins
- 1. Les utilisations chimiques ne vont jamais sans récupération de sous-produits énergétiques.
- plus lointains, tels que le Nord-Pas-de-Calais et la Ruhr. On pouvait espérer que les fines lorraines pourraient s’ajouter à ces fournitures et, dans une certaine mesure, les remplacer, en réalisant de sensibles économies de transport. Malheureusement, on s’est rapidement rendu compte que le coke, fabriqué dans le bassin selon les méthodes habituelles de carbonisation, ne répondait en aucune façon aux exigences du haut fourneau, tel qu’il est construit et exploité dans les régions de Longwy, Briey et Thionville. Étant donné les grandes dimensions du haut fourneau, le coke doit offrir une grande résistance à l’écrasement, qui est elle-même fonction de l’homogénéité du matériau.
- Or, tandis que les fines de la Ruhr (par exemple) ont un point de fusion relativement bas qui leur permet de s’agglomérer, en cours de cuisson, pour former une masse compacte et résistante, celles qui sont extraites des différents sièges des H.B.L. conservent une structure granuleuse et, après cuisson, livrent un coke friable, mal adapté à la fonction de « coke sidérurgique . .
- Pour tourner cette difficulté, on â cherché tout d’abord à procéder par mélanges de charbons différents : un premier essai, assez timide, qui date de 1940, permettait d’obtenir un coke analogue à celui de la Ruhr en utilisant environ 10 pour 100 de gras B lorrain contre 20 pour 100 de gras A sarrois et 70 pour 100 de charbons étrangers au bassin. En ig54, les proportions s’étaient améliorées : gras B 2.0, gras A 25 et charbons étrangers 5o pour 100, ceci en employant les fours classiques qui se chargent par gravité à travers une ouverture du plafond. La principale production du bassin lorrain, c’est-à-dire les flambants, l’estaient exclus du mélange. C’est vers cette même époque qu’une technique nouvelle fut mise au point à Carling : les fines, après avoir été mélangées, furent soumises à un pilonnage préalable qui rapprochait les grains et leur permettait de se souder les uns aux autres. Le charbon se trouvait ainsi aggloméré en une masse compacte qu’un mécanisme ingénieux poussait horizontalement à travers une porte, pratiquée latéralement dans le four (fig. 11).
- Cette méthode a largement fait ses preuves : elle est employée à présent dans d’imposantes batteries de fours, non seulement à Carling, mais à Marienau (fig. 12 et i3), où d’autres essais avaient fourni des résultats moins heureux. Le mélange le plus couramment enfourné comporte 00 pour 100 de flambants gras, 02 pour 100 de gras B et 3o pour 100 d’ « appoint bitumineux », constitué par des charbons étrangers : on y ajoute, à titre d’ « amaigrissant », 8 pour 100 de poussier de coke, généralement fourni par le bassin. Le charbon lorrain est, en quelque sorte, devenu cokéfiable à 70 pour xoo. La production totale de coke a été, en ig58, de 1 757 000 t, chiffre dix fois supérieur à celui de 19 48.
- La méthode de Carling a donc été déterminante pour l’utilisation des fines des H.B.L. qui contribuent désormais, dans une assez large mesure, à alimenter la sidérurgie, tout en permettant un essor important des industries carbochimiques. Cependant, l’autonomie du bassin n’est pas totalement assurée et l’une des catégories de charbon, les flambants secs, n’est toujours pas admise dans les mélanges.
- Poussier de coke par iluidisation. — Il se trouve que cette lacune est en voie d’être comblée, grâce à un procédé, étudié à la station expérimentale de Marienau, sous les auspices du Cerchar et de 1 ’Irsid, qui sont respectivement les organismes de recherche des Charbonnages de France et de l’Industrie sidérurgique (2). L’objectif n’est plus de produire du coke sous sa forme habituelle, mais du poussier de coke, dont nous
- 2. 'Voir : Le laboratoire de Verneuil (Oise) du Centre d’études et de recherches des Charbonnages de France, par M. Ducas, La Nature, septembre 1952, p. 282 ; L’Institut de recherches de la Sidérurgie, par Fernand Lot, La Nature, septembre 1954, p. 343.
- p.22 - vue 26/558
-
-
-
- Fig. 4 et 5. — A gauche : Le charbon extrait à Merlebach est acheminé par bandes transporteuses jusqu’au lavoir de Freyming où les charbons marchands sont séparés des bas-produits. — A droite : Au premier plan, départ du pipe-line qui transporte dans un courant d’eau les schlamms et les pulvérulents vers Carling ; la galerie 'qui aboutit en haut et à droite abrite les bandes transporteuses de
- la figure 4.
- devons d’abord préciser l’utililé. On vient de voir, en premier lieu, que ce matériau intervient comme amaigrissant dans le mélange de la méthode Carling : il est prévu qu’en i960 les besoins des batteries de four en poussier se chiffreront à 100000 t par an. Ce n’est là cependant qu’un point secondaire : les besoins en poussier de coke se manifestent surtout au sein de l’industrie sidérurgique, où de plus en plus on s’efforce de réaliser des agglomérés qui unissent intimement le minerai de fer et le coke. Cette nouvelle tendance s’est affirmée à tel point qu’en 1960 les besoins en poussier de coke pourront atteindre environ 600 000 t par an.
- Mais le point de vue économique doit s’effacer devant l’originalité technique du procédé que met au point la station de Marienau. Il s’agit en effet de l’une des applications de la méthode de fluidisation qui se répand actuellement dans plusieurs domaines industriels. Dans le cas particulier qui nous, occupe, le charbon pulvérulent est soumis à l’action d’une soufflerie qui s’exerce de bas en haut, de manière continue, ce qui annule en partie l’effet de la pesanteur, tout en dispersant le matériau dans une masse d’air d’un volume déterminé. Le milieu ainsi créé, ni solide ni gazeux, peut à bon droit être qualifié de fluide. Il reste à l’élever à la température adéquate pour que les grains se cokéfient (« individuellement », pourrait-on dire) en cédant la plus grande part de leurs matières volatiles.
- Dès lors, les facultés d’agglutination du charbon seraient plus nuisibles qu’utiles et c’est pourquoi le flambant sec l’emporte enfin sur les qualités rivales. On ne manquera pas de remarquer l’intérêt économique que présente de ce fait, pour les H.B.L., la carbonisation par fluidisation.
- Quelques précisions permettront de mieux comprendre le schéma de cette opération. L’appareil utilisé, le flàidiseur (fig. 6), reçoit d’une part de l’air chaud à sa partie inférieure garnie d’une grille de forme spéciale, et du charbon, également préchauffé, qui, amené par une vis d’alimentation, vient de manière continue enrichir le « lit fluidisé » qui, par ailleurs, étracue au même rythme le poussier de coke vers un refroi-
- disseur. La chaleur est maintenue grâce à une combustion partielle du charbon. On se rend compte que l’équilibre de l’opération ne peut être réalisé que grâce à un minutieux réglage du débit de charbon et du débit d’air. Les expériences successives, à l’échelle semi-industrielle et industrielle, ont démontré qu’en maintenant la température aux environs de 5oo° on obtenait du semi-coke à i4 pour 100 de matières volatiles; à 8oo°, l’appareil fournit un coke intégral à 2 pour 100 de matières volatiles.
- Les matières volatiles, sous forme de gaz et de goudron (ou
- Fig. 6.
- Schéma du fluidiseur-carboniseur.
- Un circuit continu s’établit entre l’alimentation en charbon, le séjour plus ou moins prolongé de ce charbon dans le lit fluidisé et la sortie du coke (ou. semi-cokë). La teneur en matières volatiles dépend de la température à laquelle le charbon est soumis. Les deux cyclones du sommet ont pour rôle le dépoussiérage des gaz : les particules de poussière sont constamment renvoyées vers le lit fluidisé.
- Sortie des gaz
- Vis d'alimentation/ en charbon chaud
- Grille de distribution de l'air
- m,rMTifi
- Cyclones
- intérieurs
- Retour des poussières
- Air chaud
- Sortie du coke chaud vers le refroidisseur
- p.23 - vue 27/558
-
-
-
- Fig-. 7 à 10. — Le travail au fond dans les houillères de Lorraine.
- En haut à gauche : Mineurs soriant de la cage de l'ascenseur pour rejoindre une des galeries du fond. — En haut à droite : Un mineur prépare un tir de mine. — En bas à gauche : Un mineur met en action l'appareil d’extraction appelé « couloir pelleteur ». — En bas à droite : On achève ie boisage d’une galerie percée à travers un « dressant » (voir fig. 2) ; cette galerie, une fois exploitée, sera remblayée hydrauliquement et l'exploitation reprendra dans ce qui paraît être
- le toit de la galerie (Photos aimablement comrnuniquées par les Houillères du Bassin de Lorraine).
- p.24 - vue 28/558
-
-
-
- Fig* 11 à 14. — La carbonisation selon la méthode de Carling.
- En haut à gauche : Chargement d’un four selon la méthode de Carling : la masse du charbon pilonné est poussée à travers la porte ouverte du four. — En haut à droite : Une des batteries de fours de carbonisation à la cokerie de Marienau ; on remarque l’alignement des fours, divisions rectangulaires, toutes en hauteur. — En bas à gauche : La môme batterie de fours en cours de déchargement. — En bas à droite : Le coke, après avoir été criblé, est chargé sur les wagons qui le transporteront jusqu’aux usines sidérurgiques (Photos aimablement communiquées par les Houillères du Bassin de Lorraine).
- p.25 - vue 29/558
-
-
-
- 26
- de gaz seul lorsque la température est suffisante pour produire le craquage du goudron) sont dépoussiérées, grâce à un jeu de cyclones, et recueillies dans une série d’appareils, annexes.
- Ce schéma simplifié ne rend pas compte de tous les détails de ce mode de carbonisation qui exige une installation assez complexe, réalisée à Marienau sous trois formes différentes. Celle qui sera vraisemblablement adoptée, comme répondant le mieux aux besoins français, est une unité de carbonisation avec post-combustion qui produit du coke intégral et du gaz. Elle comporte trois étages superposés : les fines humides sont d’abord admises à l’étage supérieur où elles sont séchées et préchauffées à la température de 3oo°, par le moyen des gaz parvenant de l’étage inférieur qui est celui de la carbonisation (à 8oo°), après avoir traversé une zone où la température atteint 95o° et dans laquelle ils subissent une combustion partielle. Le circuit des fines est donc dirigé vers le bas, alors que celui des gaz est dirigé vers le haut. La superposition permet de loger l’essentiel des opérations dans une colonne unique.
- Une fois bien réglée, cette unité fonctionne de manière presque automatique. Son débit, à la station expérimentale, est de i t de coke à l’heure.
- Prolongements carbochimiques. — On ne saurait affirmer que la carbochimie est l’élément essentiel sur lequel est axée la production du bassin lorrain. Les applications énergétiques du charbon, même s’il s’agit de qualités contenant relativement peu de calories au kilogramme, restent prédominantes et le resteront sans doute encore pendant de longues années. Il est manifeste cependant que, surtout dans le cas particulier des H.B.L., les matières premières extraites du charbon gagnent de jour en jour du terrain et que leurs applications tendent à se multiplier à un rythme très significatif.
- En cela, les sous-produits actuels des fours de carbonisation et ceux à venir des fluidiseurs-carboniseurs sont appelés à jouer un rôle de premier plan.
- Il ne peut être question ici de décrire dans ses détails le prolongement carbocbimique des Houillères de Lorraine : cela impliquerait un exposé systématique de toute la grande industrie chimique organique, prise dans son ensemble, où les très nombreux produits extraits de la houille se combinent fréquemment avec ceux, non moins nombreux, que l’on extrait du pétrole.
- L’extrême variété des transformations subies par les matières premières issues du charbon se reflète tout d’abord dans les relations qui existent entre les houillères nationalisées et l’industrie chimique proprement dite, partagée entre diverses sociétés privées. Trois cas doivent être soulignés : dans le premier, les houillères mènent les opérations jusqu’au bout et commercialisent elles-mêmes le produit fini; dans un second cas, elles se bornent à livrer à l’industrie chimique une certaine gamme de matières premières; dans le troisième cas enfin, elles ont constitué, en participation avec des sociétés privées, des filiales dont les usines exécutent la finition des matières produites dans les installations annexées aux différents sièges.
- On se trouve là en présence d’une structure industrielle assez complexe, imposée d’ailleurs par les nombreuses spécialisations qui entrent en jeu dans un domaine exceptionnellement vaste et qui tend à s’agrandir en fonction de la création incessante de produits nouveaux et d’applications nouvelles. Cette structure se fonde cependant sur une série d’installations de base qui sont nécessairement greffées sur la carbonisation du charbon. Elles se répartissent, aux H.B.L., en trois grandes divisions correspondant aux produits recueillis directement à la sortie des fours : le goudron, le benzol, le gaz.
- La Division goudron. — Elle fait appel à un procédé classique, celui de la distillation fractionnée. C’est à Marienau que cette distillation est pratiquée sur les goudrons de haute tem-
- pérature recueillis dans l’ensemble du bassin. L’usine est en outre équipée pour le traitement des goudrons de basse température, provenant de fours à semi-coke qui fonctionnent dans d’autres bassins, celui notamment de la Sarre. La production journalière qui est d’environ 4oo t se répartit de la manière suivante : 90 pour 100 concernent les goudrons de haute température, 10 pour 100 les goudrons de basse température.
- Les principaux produits primaires de haute température consistent en une série d’huiles où dominent l’huile phéno-naphta-lénique (traitée secondairement pour donner naissance à la naphtaline, le coumarone et l’indène), l’huile anthracénique utilisée dans la fabrication des colorants et des goudrons routiers, l’huile de chrysène servant (entre autres) à la préparation du carbon black. En queue de distillation, sc trouve le brai (54 pour 100 de la production) qui est employé dans l’agglomération des charbons, dans la fabrication des électrodes et de divers produits d’étanchéité.
- En basse température, l’accent doit être mis sur l’huile phénolique traitée secondairement pour obtenir l’acide phénique, l’ortho-crésol, les acides crésyliques. Les autres huiles servent à la fabrication de désinfectants, d’insecticides, de solvants, etc..
- La Division benzol. — Située à Carling, l’installation de traitement du benzol brut est la plus puissante qui existe actuellement en France. iSa capacité est de 72 000 t par an. Ses approvisionnements lui sont fournis à la fois par les cokeries du bassin et par celles des aciéries lorraines. Elle utilise le procédé de l’hydrogénation sous pression qui a avantageusement remplacé celui du traitement à l’acide sulfurique. L’hydrogène est prélevé sur la production de l’usine de synthèse, située également à Carling et dont il sera question plus loin.
- Trois produits primaires sont obtenus dans la division benzoL Ce sont le benzène, le toluène et le xylèné : ils interviennent dans de nombreuses fabrications, parmi lesquelles on peut citer les matières colorantes, les produits pharmaceutiques, les matières plastiques et fibres synthétiques de diverses familles (phéno-plastes, polystyrènes, polyesters, superpolyamides, fibres Tergal), les parfums, les explosifs, etc.
- Le gaz. — Après les opérations préliminaires de dégoudronnage et le débenzolage (fîg. i5), on recueille un produit gazeux, désigné sous le nom de gaz de four et qui n’est autre que le gaz d’éclairage consommé dans les centres urbains. Il se partage, aux H.B.L. en trois tranches : sur une production totale qui dépasse 2 5oo 000 m3 par jour, la moitié environ est employée pour le chauffage des fours; 5oo 000 m3 sont acheminés vers le réseau du Gaz de France et notamment vers le feeder qui se termine dans la région parisienne, après avoir desservi plusieurs villes de l’Est de la France; le reste, c’est-à-dire moins ^e 1 000000 m3, pénètre dans les circuits de la carbochimie.
- Deux fractions importantes interviennent dans la composition du gaz : ce sont l’hydrogène (52 pour 100) et le méthane (24 pour 100). C’est l’hydrogène qui sert de matière première dans une des principales installations lorraines, l’usine de synthèse située à Carling. Cette usine effectue une série d’opérations qui aboutissent à la fabrication de produits directement commercialisables : en premier lieu, l’hydrogène est isolé par les techniques du froid pour être ensuite combiné avec l’azote de l’air. Cette opération est réalisée dans les tubes dits de synthèse où les deux gaz, mis en présence d’un catalyseur, s’unissent pour former de l’ammoniac, produit à raison de i5o t par jour. Une partie de l’ammoniac est transformé (également par catalyse) en acide nitrique. Cet acide, à son tour, est utilisé pour la fabrication de nitrate d’ammoniac et d’am-monitrates qui peuvent être directement employés comme engrais. Mais l’usine de Carling, utilisant des matières fournies par l’extérieur, livre également du nitrate de chaux, du sulfate d’ammoniac et une gamme variée d’engrais complexes, parmi
- p.26 - vue 30/558
-
-
-
- Fig. 15 et 16. — A gauche : Colonnes d’épuration du gaz de houille à Marienau. — A droite : Une des installations carbochimiques de
- Carling, la division du dichloréthane (capacité annuelle, 6 000 t).
- lesquels ligure un produit contenant à proportions égales l’azole, l’acide phosphorique et la potasse.
- Le méthane repris dans l’usine de synthèse reçoit deux destinations. Il est acheminé d’une part vers une installation en voie d’achèvement où il est transformé, par craquage, en acétylène. Par ailleurs ce gaz, accompagné d’une partie de l’ammoniac produit dans l’usine est dirigé vers une usine, située à Saint-Avold et qui appartient à la Société Ugilor, une des filiales des Houillères.
- Cette usine, à laquelle participe la Société Uginîe, produit de l’acide cyanhydrique qui est employé dans la fabrication des résines polyméthacryliques (parmi lesquelles le plexiglas) et de la fibre synthétique crvlor.
- Il existe enfin une fraction chimiquement importante du gaz de four, l’éthylène (2,3 pour 100 du volume total) qui, après avoir été isolée, est transmise à une installation de Carling pour être mise en présence de benzène, fourni par la division benzol : le produit obtenu est le styrène qui est destiné à l’usine de la Société Lorraine-Kuhlmann (à Dieuze) où il est tranformé en polystyrène.
- L’éthylène trouve encore une autre utilisation : mis en présence du chlore, il fournit le dichloréthane, produit couramment employé dans Tindustrie chimique pour la préparation de solvants, d’insecticides et de résines synthétiques. L’atelier de Carling (fig. 16) est géré par une association entre les Houillères et la Société Progil.
- Tel est le tableau très résumé des opérations carbochimiques qui se greffent sur la carbonisation des charbons lorrains.
- Interférences politiques et énergétiques. — De tout ce qui précède, on pourrait conclure que les Houillères de Lorraine, ajustant leur production à une vaste gamme de besoins anciens et nouveaux, devraient, grâce à leur haute productivité, connaître une expansion continue. C’est d’ailleurs ce qui avait été prévu, les objectifs du Plan étant fixés à 16000000 t pour 1962 et 17000000 t pour 1965. Mais.il n’est pas certain que ce programme soit maintenu, cela pour différentes raisons d’ordre politique et économique :
- — Les H.B.L. se trouvent intégrées à la Communauté européenne charbon-acier qui a traversé, ces derniei’S temps, une
- crise de surproduction. Des mesures restrictives ont été en conséquence envisagées, les sacrifices devant être répartis, selon des quota à déterminer, entre les différents membres de la Communauté.
- — Il se trouve que deux des puits lorrains ont poussé leurs galeries sous le Warndt qui appartient au territoire sarrois, à présent rattaché à l’Allemagne fédérale. En vertu du traité du 27 octobre xg56, l’exploitation de ces galeries doit être progressivement abandonnée, retranchant de la production lorraine un contingent de 4 800 000 t qu’il faudra éventuellement retrouver sur d’autres sièges, moyennant 00 milliards de francs d’investissements supplémentaires.
- — Il est possible que cet effort ne soit accompli que partiellement, en raison de la conjoncture défavorable qui pèse sur le charbon en général, en raison également des engagements pris par la France d’absorber le tiers de la production sarroise, c’est-à-dire de qualités analogues à celles du bassin lorrain.
- — On note enfin une tendance accrue à faire parvenir jusque dans les secteurs houillers les produits pétroliers ou les gaz naturels, issus de Lacq, du Sahara ou éventuellement des bassins du Moyen-Orient et autres. Cette tendance se traduit actuellement par le projet d’une importante raffinei’ie de pétrole qui serait installée aux environs de Strasboux’g. On a fait remarquer que les produits lourds ('fuels de différentes catégories) î-isquent de feirmer certains débouchés du charbon, de même d’ailleurs que le gaz naturel.
- Il est difficile de mesurer si ces causes de perturbations sont ou non momentanées. Le fait général, mis fréquemment en lumière, est que les ressources énergétiques métropolitaines de la France ne couvrent ses besoins que jusqu’à concurrence de 60 pour xoo. On incline à penser que la sécurité du pays impose tout au moins de maintenir ce taux, ce qui sera sans doute possible en instaurant une politique de coordination de l’énei'gie.
- Yves Mériel.
- Les photographies qui illustrent cet article nous ont été obligeamment communiquées par les Houillères du Bassin de Lorraine.
- p.27 - vue 31/558
-
-
-
- 28
- Un problème non résolu : L’élimination des résidus radioactifs
- Le problème de l’élimination des résidus radioactifs vient de faire l’objet d’une conférence internationale, réunie du 16 au 21 novembre 1959 au Musée océanographique de Monaco, sous l’égide de l’Agence internationale pour l’Énergie atomique et de l’Unesco. Trois cents spécialistes de tous les pays y ont examiné comment il serait possible de se défaire de ces dangereux résidus produits par les installations nucléaires.
- A l’heure actuelle, cette élimination ne pose pas de problèmes très difficiles, les installations nucléaires n’étant pas encore très nombreuses. Mais il y a tout lieu de s’attendre que, dans les années à venir, elles se multiplieront. Toutes les installations, il est vrai, ne produisent pas de résidus de haute activité; seuls posent des problèmes les déchets « fabriqués » par les laboratoires d’étude et par les usines de plutonium. Les eaux utilisées au refroidissement des réacteurs de puissance ne sont pas en effet radioactives ou, si elles le sont, c’est dans des proportions si faibles qu’il n’y a aucun inconvénient à les rejeter après contrôle. Les usines de séparation isotopique ne produisent pas, de leur côté, de déchets importants. Maïs il n’en est pas de même pour les centimes de traitement de l’uranium irradié par un séjour dans une pile. Les méthodes d’extraction du plutonium reposent sur l’élimination successive d’un certain nombre de substances fortement actives. On a beau les soumettre à diverses interventions dans les stations de traitement des effluents et les stocker afin de laisser décroître leur radioactivité (dans nombre de cas, ces substances ont une « période » relativement courte), un moment vient où l’on doit se demander ce qu’il faut en faire...
- Trois solutions viennent immédiatement à l’esprit. D’abord, on peut prévoir, à proximité des installations nucléaires, des réservoirs parfaitement étanches ou l’on puisse stocker les produits jugés dangereux. C’est à cette méthode que recourent notamment les techniciens du Commissariat à l’Énergie atomique. Ils se refusent en effet à abandonner sans contrôle une matière radioactive. Cette méthode est sans doute pratiquée dans nombre de pays.
- En second lieu, on peut songer à se défaire de ces résidus soit en les jetant à la mer, soit en les enfouissant à grande profondeur dans le sol. De nombreuses questions se posent aux spécialistes quand de telles éventualités sont envisagées. C’est justement pour les étudier qu’a été réunie la Conférence de Monaco. Il s’agissait, plus précisément, de savoir quels étaient les procédés à mettre en oeuvre pour que la radioactivité « induite » ne dépasse pas les normes de sécurité admises par la Commission internationale de protection radiologique.
- La tâche était loin d’être aisée. Aussi rares ont été les participants qui se sont étonnés en constatant que les orateurs énuméraient plutôt les problèmes à résoudre qu’ils ne proposaient de solutions... Fallait-il donc croire qu’aucun progrès n’avait été enregistré depuis la seconde conférence de Genève sur les applications pacifiques de l’énergie atomique ? En fait, si bien des points d’interrogation demeurent, plusieurs voies semblent se dessiner : à Genève, les experts semblaient tâtonner et, à Monaco, ils ont donné l’impression tantôt d’avoir ébauché des études, tantôt de s’être fait au moins une idée précise des travaux à entreprendre. C’est dire que dans l’intervalle et bien qu’aucun résultat vraiment positif n’ait encore été enregistré, ils ne sont pas restés inactifs.
- Du plancton au poisson et du poisson à l'homme. —
- L’élimination des déchets radioactifs par immersion dans l’Océan pose des problèmes de deux ordres : les premiers relèvent de l’océanographie, les seconds de la biologie.
- Impossible, en effet, d’immerger des déchets sans savoir
- ce qu’il va en advenir ! Peut-on croire que des résidus dirigés vers les fosses océaniques y demeureront à jamais enfouis ? A l’inverse, faut-il admettre que les eaux profondes remontent, au bout d’un certain laps de temps, à la surface et, si oui, quelle est la période de ce renouvellement ? A cette question, les océanographes ne peuvent encore apporter de réponse précise. Et pourtant il est essentiel de savoir au bout de combien de temps des produits immergés à grande profondeur pourraient être décelés en surface : si ce temps est sensiblement supérieur à la « période » des substances dont on veut se défaire, une « remontée » des eaux profondes sera moins lourde de conséquences puisque dans l’intervalle la radioactivité des produits aura eu le temps de décroître dans des proportions importantes. Malheureusement, les chiffres avancés par les spécialistes sont singulièrement discordants : alors que certains Américains s’estimaient en mesure d’affirmer que cette remontée demandait au moins 1 5oo ans, les experts russes avançaient qu’elle pouvait se produire en 45 ans et ils déclaraient en conséquence que, pour le moment, toute immersion de produits dangereux devrait être formellement prohibée.
- Qui croire ? Peut-être les méthodes utilisées par les uns et par les autres sont-elles sensiblement différentes. Mais peut-être aussi (c’était du moins l’opinion d’un éminent spécialiste français) les Russes sont-ils parvenus à une connaissance plus élaborée de certains phénomènes océanographiques : leurs océanographes disposent de moyens bien supérieurs à ceux dont sont munis leurs collègues occidentaux.
- Mais ce problème n’est pas le seul dont aient à connaître les océanographes. Il leur faudrait aussi parvenir à une parfaite connaissance du mécanisme des courants et notamment des courants côtiers. En effet, il peut arriver qu’un courant longe plusieurs pays : si on immerge des produits radioactifs au large des côtes et si les conditions semblent alors telles que ces substances ne pourront pas être dangereuses, il n’est pas impossible que, véhiculées par les eaux, elles aillent contaminer un littoral voisin. Vu sous cet angle, le problème des eaux territoriales cesse d’être national pour devenir international...
- Mais il ne suffirait même pas de tenir compte dans les prévisions de tous les facteurs qui dans une région donnée du globe caractérisent les mouvements de la mer : les substances radioactives diffusent dans l’eau mais l’eau n’est pas leur seul véhicule. Ces substances peuvent contaminer le plancton, qui constitue l’essentiel de la nourriture de nombre de poissons. Ces derniers peuvent donc très bien devenir radioactifs. Irradiés en un endroit, ils risquent d’être pêchés à des centaines de kilomètres de là et de contaminer à leur tour ceux qui se nourriront de leur chair. A ce titre, une initiative d’un pays qui immergerait par exemple des substances radioactives à proximité de ses côtes ne peut pas laisser les autres états indifférents, s’ils pensent que dans ces contrées les mœurs migratoires des poissons sont telles que l’irradiation risque d’être transportée au loin.
- L’étude de l’introduction des produits radioactifs dans la « chaîne alimentaire » par l’intermédiaire du poisson relève de la biologie. Sur ce point particulier, la conférence de Monaco a été particulièrement décevante, les orateurs s’étant en règle générale contentés d’attirer l’attention de l’assistance sur cette question. Comme l’a dit un congressiste français, « il a plu des vérités premières ». Cette déception a été d’autant plus ressentie par les spécialistes qu’il leur faut, au premier chef, étudier une question aussi importante que délicate : le phénomène de concentration. Le processus métabolique fait que les organismes vivants, comme le plancton et les poissons, concentrent les substances radioactives. Le degré de cette con-
- p.28 - vue 32/558
-
-
-
- 29
- centration varie avec les substances radioactives et avec les organismes. 11 est donc nécessaii’e, non seulement d’étudier comment se déplacent le plancton et les poissons, mais surtout d’examiner quelles sont leurs habitudes alimentaires et quelle est la concentration qu’ils opèrent. Dans certains cas le taux peut être très élevé et l’absorption par un organisme marin des substances radioactives diffusées dans la mer aboutit à intensifier considérablement la source d’irradiation.
- Quelque importance que revête cette introduction de substances radioactives dans la chaîne alimentaire (certains ont affirmé au cours de la Conférence que la mer est le meilleur véhicule des substances contaminantes), il faut également songer que la diffusion de déchets radioactifs dans les eaux peut avoir pour conséquence de déséquilibrer la communauté aquatique. Rien, en effet, n’interdit de penser que l’irradiation pourra mettre certaines espèces en état d’inférioi'ilé par rapport à d’autres. Personne à Monaco n’a affirmé que cette éventualité était vraisemblable mais personne non plus n’a été en mesure de la rejeter formellement. La raison en est qu’on est très mal renseigné sur les effets que peuvent avoir les faibles doses d’irradiation.
- Le problème auquel se heurtent ici les biologistes est le même que celui que posent les retombées radioactives dues aux explosions nucléaires expérimentales : même les analyses statistiques les plus fines ne permettront pas dans un avenir prévisible de déterminer si les suppositions faites actuellement sur l’influence de l’absorption de radiations à très faible dose correspondent à la réalité.
- Aussi serait-il injuste de rendre les océanographes responsables du manque de connaissances auquel se heurtent ceux qui ont pour tâche de débarrasser les centres nucléaires de leurs résidus : les phénomènes envisagés sont très complexes et les études qui ont été entreprises jusqu’à ce jour n’ont pas porté sur les phénomènes de radioactivité. Personne ne s’est donc étonné d’entendre un délégué français demander que l’on se préoccupe de déterminer le temps durant lequel des particules radioactives demeurent en suspension dans les eaux de mer et que l’on entreprenne des mesures in situ, sur les effets de l’immersion de récipients remplis de résidus, compte tenu de l’influence que peut avoir la nature du fond marin; ce qui revenait à dire qu’il fallait tout entreprendre depuis le début.
- Bien des années seront donc nécessaires avant qu’on entrevoie des solutions donnant toute assurance et on peut se demander s’il n’est pas plus raisonnable de se tourner vers d’autres procédés. Trois facteurs s’opposent à une telle orientation des travaux.
- D’abord, on procède déjà à des immersions de substances radioactives. Les Anglais en effet évacuent dans la Mer d’Irlande une partie des résidus produits par l’usine de plutonium de Windscale. Les quantités immergées sont relativement peu importantes : ioo ooo curies par mois. Encore s’agit-il de produits dont la « période » est courte. Aussi le chiffre vraiment significatif est celui qui est relatif au strontium 90 : on en évacue 1 000 curies par an, ce qui est peu, relativement aux 200 000 curies de strontium 90^ qui chaque année retomberaient dans l’Océan Atlantique, et encore moins si on effectue le rapprochement avec les 100 000 mégacuries qui résulteraient de la radioactivité naturelle du potassium 4o. Ces chiffres, fournis à Monaco par un délégué anglais, ne doivent pas toutefois faire illusion : il est difficile de comparer la radioactivité « induite » dans la Mer d’Irlande et celle relative à l’ensemble de l’Océan Atlantique. Mais le niveau atteint par les Britanniques ne semble pas actuellement excessif. Il ne le deviendrait que si d’autres pays suivaient leur exemple et seulement d’ici une vingtaine d’années.
- La seconde raison réside dans une constatation faite par un Américain : il est vraisemblable que, de toute façon, des déchets seront immergés. La généralistaion de, la propulsion nucléaire,
- par exemple, s’accompagnera nécessairement du recours à une semblable méthode, parce que l’on ne peut facilement en envisager une autre.
- Enfin, troisième circonstance défavorable, les études sur l’autre procédé, l’enfouissement dans le sol, ne sont pas sensiblement plus avancées.
- Boues activées ou résidus vitrifiés ? — Les spécialistes disposent cependant d’une certaine expérience : il est de pratique courante dans l’industrie pétrolière d’injecter de l’eau salée dans les couches productrices pour accroître la pression à laquelle sont soumis les hydrocarbures. Aussi l’idée est-elle déjà venue à certains, comme l’a expliqué un représentant américain, d’utiliser ces structures : on y dirigerait des boues « activées » et on surveillerait à l’aide d’installations appropriées le comportement des résidus. Il faudrait notamment prendre garde que le grès ne soit pas fissuré et que la structure soit bien homogène.
- Deux conditions générales se dégagent de cet exposé. La nature des déchets, en premier lieu, doit être, compatible au point de vue physico-chimique et biologique avec celle de la roche. Par exemple, il convient d’éviter que les déchets n’obstruent les pores de la roche et des études sur les possibilités d’échange d’ions semblent également nécessaires. Mais il faut aussi, en second lieu, que la structure où les déchets seront emmagasinés ne soit pas telle que des entraînements de substances radioactives puissent se produire. Notamment aucune communication ne doit être possible avec la nappe phréatique. C’est pourquoi certains spécialistes ont exprimé l’avis que, de toute façon, les déchets devraient être mis sous une forme qui rendrait impossible tout « lessivage » par les eaux circulantes.
- Une solution consisterait à vitrifier les résidus. Des études ont été réalisées à ce propos par les Canadiens. Les Français et les Russes ont fait également savoir qu’ils s’intéressaient à la question. Mais personne n’a affirmé avoir abouti à une solution vraiment satisfaisante. Naturellement, la technique à mettre en oeuvre pour disposer dans le sol des résidus placés sous cette forme serait assez différente de celle que requiert la simple injection de boues traitées. Mais les deux méthodes ont ceci de commun qu’elles supposent une étude approfondie du sol. Utiliser ce qu’offre la nature semble devoir constituer ici un impératif catégorique et divers spécialistes ont émis l’idée qu’il serait intéressant d’utiliser les structures salines. Il peut naturellement en être de même pour toutes les formations qui sont écartées du cycle hydrologique.
- Une autre idée qu’ont exprimée la plupart des délégués est que seuls pourraient être éliminés par ce procédé les produits de moyenne et de faible activité. Cette méthode, en d’autres termes, ne sourait constituer une panacée et nombreux sont les spécialistes qui semblent admettre que pendant un certain temps le stockage contrôlé sous forme condensée des produits de haute ou moyenne activité constituera la seule solution raisonnable. Elle présente d’ailleurs cet avantage d’autoriser une récupération de ces substances. Elle n’ont pas d’emploi en général pour le moment mais rien n’interdit de supposer qu’on pourra leur en trouver dans l’avenir.
- *
- * #
- Plusieurs voies sont donc simultanément explorées. On peut espérer que dans un avenir relativement proche certaines solutions seront trouvées. Sans résoudre d’un seul coup l’ensemble du problème posé par l’élimination des résidus radioactifs, elles permettront sans doute, par approches successives, d’utiliser l’énergie atomique sans avoir en contrepartie à affronter des risques déraisonnables.
- Nicolas Vichney.
- p.29 - vue 33/558
-
-
-
- La glande androgène des Crustacés
- Greffée sur des femelles, elle leur fait acquérir des caractères mâles
- Le prix Pelman de Biologie 1969 a été récemment décerné à Mme Hélène Charniaux-Cotton pour ses travaux de physiologie sexuelle chez les Invertébrés. Une des études les plus remarquables a mis en évidence, chez les crustacés mâles, une glande dite androgène qui, greffée sur une femelle, lui fait acquérir des caractères de mâle et un comportement corrélatif, allant jusqu’à des tentatives d’accouplement.
- Pour bien comprendre l’intérêt de cette question, rappelons d’abord ce qu’on connaît des caractères sexuels chez les Vertébrés. D’une façon générale, on admet l’existence de trois catégories de caractères : les caractères primitifs qui sont* les gonades; les caractères primaires, organes très précocement différenciés du tractus génital (épididyme et canal déférent des mâles; oviducte, trompes et utérus des femelles); enfin, les caractères secondaires consistant en des particularités somatiques liées au sexe et des particularités de comportement. Chez les Vertébrés, le déterminisme de ces caractères sexuels secondaires est parfaitement élucidé. Tous les auteurs ont reconnu que leur développement dépend des gonades, car l’ablation des testicules ou des ovaires, pratiquée avant la maturité sexuelle, empêche leur apparition. On est d’accord aussi pour reconnaître que l’action des glandes sexuelles n’est pas imputable aux cellules sexuelles elles-mêmes (celles qui produisent les œufs et les spermatozoïdes) mais à des cellules qui forment, entre les tubes séminifères, un tissu interstitiel de glandes à sécrétion interne, déversant des hormones dans la circulation. Tout le monde sait que l’ablation des testicules provoque, chez les castrats, l’apparition de certains caractères féminins tels que la faiblesse de la pilosité et un embonpoint marqué, et empêche la mue de la voix. On sait aussi que des femelles dont les ovaires ont été enlevés, ou ont cessé de fonctionner par l’âge, prennent plus ou moins nettement des caractères de mâles. Ceci est particulièrement visible chez les oiseaux, dont le plumage, souvent très différent dans les deux sexes, constitue un caractère sexuel secondaire typique. Pour les biologistes la faisane de Chantecler, parée de la superbe collerette dorée du faisan, n’était qu’une vieille poule stérile.
- On ne constate jamais de faits comparables chez les Invertébrés. Il existe bien chez eux des caractères sexuels secondaires, souvent même très accentués. Dans de nombreux groupes, les mâles sont bien plus petits que les femelles et, souvent aussi, montrent des caractères somatiques particuliers. Chez les insectes, ce sont des couleurs plus voyantes, des protubérances ou cornes parfois extraordinairement développées sur la tête et le thorax; chez les crustacés, les pattes de la première paire sont modifiées en forme de pince souvent énorme, etc. Mais, contrairement à ce qu’on observe chez les Vertébrés, l’ablation des gonades, même pratiquée de très bonne heure, n’empêche pas l’apparition de ' ces caractères. Même la greffe d’un ovaire chez une chenille mâle, dont on a supprimé les testicules, n’empêche pas le développement normal et n’apporte aucun changement dans l’apparition des caractères masculins du papillon produit. Chez les crustacés, les différences sexuelles portent surtout sur la forme des appen-
- T. Sp. ' V.s.
- Fig. 1. — Individu mâle d’Orchestia gammarella.
- On voit en particulier le grand développement du propodite (métatarse) du 2" gnathopode, qui forme pince. Grossissement : x 7.
- dices, résultant de variations de morphologie et de croissance d’organes communs aux deux sexes, que Ghampy a appelées variants sexuels.
- L’espèce spécialement étudiée par Mme Charniaux-Cotton est un petit Amphipode, de 12 mm de long, Orchestia gamma-rella, commun sur les plages et dans la terre humide, souvent loin de la mer. Chez cette espèce, la croissance des variants sexuels devient différente dans les deux sexes à partir de la 5e ou 6e mue. Le résultat est particulièrement intéressant en ce qui concerne le 2e gnathopode (pattes des deux premiers segments du mésosome) et le 7e péréiopode (pattes des cinq derniers segments du mésosome) (fig. 1). Le premier est terminé par une pince, formée par le propodite et le dactylo-podite, qui reste indifférenciée et grêle chez la femelle, mais devient puissante chez le mâle, servant à maintenir sa compagne pendant l’accouplement. Après l’acquisition de cette pince, le méropodite et le carpopodite (fémur et tibia) du 7e péréiopode subissent un élargissement important, toujours chez le mâle. Chez les femelles des expansions de la face interne des coxopodites (hanches) forment des oostégites qui sont le plancher d’une chambre incubatrice ou marsupium.
- L’origine des recherches sur la sexualité des crustacés peut être ramenée à l’observation de ce qu’on a appelé, peut-être à tort, la castration parasitaire. Depuis longtemps, on a observé chez les insectes (Hyménoptères parasités par Stylops) et chez les crustacés, particulièrement les Décapodes mâles porteurs de sacculines, que ces individus parasités prennent les caractères du sexe opposé au leur. Mais, les gonades ne sont en général pas détruites, elles sont parfois seulement plus ou moins atrophiées, et leur atteinte ne semble pas en rapport avec la masculinisation ou la féminisation du sujet. Ces faits ont depuis longtemps fait supposer, par Courrier en particulier, que les caractères secondaires sont sous l’influence d’une hormone, provenant probablement d’un organe physiologique-
- / mm.
- Fig. 2. — Schéma de l’organe génital mâle d’Orchestia gammarella, avec la glande androgène.
- T., testicule ; Sp., spermatozoïdes ; V.s., vésicule séminale ; C.d., canal déférent ; G.a., glande androgène ; A.g., apophyse génitale.
- (Dessin aimablement communiqué par Mn" H. Charniaux-Cotton)
- p.30 - vue 34/558
-
-
-
- 3L
- Fig. 3. — Deuxième gnathopode ef’Orchestia gammarella.
- A, chez un individu indifférencié. B, chez une femelle ; il porte un oostégite bordé de soies ovigères. G, chez un mâle adulte.
- (Dessin aimablement communiqué par Mme H. Charniaux-Cotton).
- ment, et peut-être anatomiquement, indépendant de la glande sexuelle elle-même.
- Partant de ces données, Mme Charniaux-Cotton a effectué une série d’expériences très délicates car les crustacés supportent très difficilement l’ablation des gonades et le travail était réalisé sur un petit animal mesurant à peine plus d’un centimètre. Elle a découvert qu’il existe chez le mâle d’Orchesfia gammarella un organe pair, qu’elle a appelé « glande androgène » en considération de son activité physiologique. Cet organe n’est pas situé près du testicule, mais accolé au canal déférent près de son extrémité (fig. 2). Sa taille est de 0,26 mm; son aspect externe est lobuleux et il est constitué de petites cellules de 10 p. environ, dont les limites sont assez bien marquées.
- La glande androgène a été reconnue chez un certain nombre de Décapodes où elle atteint des dimensions bien plus considérables; ainsi chez l’araignée de mer (Maia squinado), dont la longueur peut dépasser 20 cm, cette glande arrive à mesurer 3 cm. Mais les Décapodes ont fourni un exemple très intéressant avec la crevette Lysmata seticauda dont l’hermaphrodisme protérandrique est bien connu ; les jeunes individus de cette crevette fonctionnent d’abord comme mâles puis passent graduellement à une phase femelle. La glande androgène existe bien chez cette espèce, du moins chez les jeunes mâles, mais elle disparaît lorsque ceux-ci entrent dans la phase femelle. Il semble donc que,, dans ce cas, l’inversion sexuelle soit en rapport avec cette disparition, qui peut s’expliquer parce qu’il s’agit d’une glande holocrine, dont les cellules se perdent dans la sécrétion et sont constamment renouvelées ; à partir d’un certain moment où la demande en hormone mâle s’accroît, leur destruction est plus rapide que la régénération.
- Pour comprendre le rôle de la glande androgène, il est bon
- de rappeler que les gonades sont indifférenciées au début; chez la femelle, l’ébauche évolue spontanément en ovaire, lequel devient une glande endocrine qui induit l’apparition des caractères féminins externes et des caractères spéciaux qui apparaissent à la période d’incubation des œufs; chez le mâle, la sécrétion de la glande androgène inhibe la différenciation ovarienne et contrôle l’apparition des caractères masculins, mais les testicules ne jouent aucun rôle comme glandes endocrines.
- Le rôle physiologique de la glande androgène a été démontré par une série d’expériences d’ablation et d’implantation chez Orchestia gammarella qui prouvent l’habileté vraiment admirable de l’auteur. Tout d’abord, Mme Charniaux-Cotton constate que l’implantation d’un testicule dans une femelle, l’im-planlat étant placé dans la cavité péricardiale, n’entraîne aucune modification de la morphologie ni du comportement de cette femelle. Il en est de même de l’implantation de la vésicule séminale ou de la portion du canal déférent qui ne porte pas la petite glande androgène. Les conséquences sont toutes différentes si l’on pratique l’implantation de cette glande. On constate alors que les ovaires se transforment plus ou moins vite en testicules et les variants sexuels se masculinisent progressivement, au cours des mues successives subies par l’hôte. A la 5e mue, la pince a acquis la forme mâle et, à partir de la Ge, les articles de la base du 7e péréiopode sont élargis comme chez les mâles adultes. Les ovaires eux-mêmes présentent une évolution rapide vers lai structure testiculaire; après trois mues, les gonades de certaines femelles contiennent déjà des spermatozoïdes. Toutefois cet appareil génital transformé ne peut être fonctionnel car si un canal déférent se développe, il reste sans lumière et sans communication directe avec la gonade.
- La greffe de la glande androgène a été également réussie chez des individus de la crevette Lysmata seticauda ayant atteint le stade femelle, avec des résultats analogues. En une douzaine de jours, les caractères sexuels mâles, portant sur la première paire de pléopodes, réapparaissent. Le greffon se trouve en parfaite survie deux mois après l’implantation, ce qui prouve qu’il n’existe aucun facteur inhibiteur de la sécrétion de la glande androgène dans le sang.
- Le comportement des femelles d'Orchestia masculinisées montre aussi des changements caractéristiques qui prouvent que
- A gauche, deuxième gnathopode d’une femelle pourvue d’une glande androgène : tous les articles ont acquis une forme mâle ; seule la présence de l’oostégite indique le sexe initial. A droite, deuxième gnathopode d’un mâle privé de ses glandes androgènes : après amputation le gnathopode a régénéré avec une forme indifférenciée (ou femelle).
- (Photos H. Charniaux-Cotton).
- p.31 - vue 35/558
-
-
-
- le comportement sexuel des mâles est induit par la glande androgène. Ces femelles se comportent comme des mâles et sont capables de reconnaître avec, les antennes les femelles sur le point de pondre; elles les saisissent avec les gnathopodes, qui ont pris la forme des pinces des mâles, et elles cherchent à s’accoupler. Toutefois, pour les raisons déjà indiquées concernant l’imperfection du canal déférent, aucune fécondation ne peut être effectuée. Aussi, pour tenter une étude de la descendance de ces femelles, l’auteur a cherché à féconder des œufs fraîchement pondus avec des spermatozoïdes prélevés dans les gonades d’une femelle masculinisée par greffe d’une glande androgène. Ces tentatives échouent jusqu’ici dans la proportion de 90 pour 100. L’auteur n’avait obtenu en ig56 que deux descendants, tous deux femelles. Aux dernières nouvelles, sept autres résultats positifs ont été enregistrés : cinq femelles et deux mâles. Ces expériences ont donc permis d’obtenir des
- embryons provenant de deux individus génétiquement du même sexe.
- Pour résumer, on peut dire que la glande endocrine découverte par Mme Charniaux-Cotton sécrète une ou plusieurs hormones qui provoquent la différenciation de tous les caractères sexuels mâles, gonades, tractus et variants sexuels. Il faut ajouter que, chez des mâles dont les glandes androgènes ont été extirpées, les variants sexuels ne poursuivent pas leur différenciation. Un ovaire implanté dans un tel mâle survit sans modification, alors que placé dans un mâle qui possède ses glandes androgènes ou même une portion de celles-ci, il est transformé en testicule. La présence ou l’absence de testicules ne modifie pas ces résultats. Les glandes androgènes sont donc la source exclusive de l’hormone qui commande la différenciation des caractères mâles.
- L. ClIOPARD.
- Le rôle des hormones chez les Insectes
- Depuis 1933, date à laquelle Wigglesworth découvrit l’existence d’hormones chez les Insectes, on a reconnu de plus en plus d’importance à ces substances dans leur biologie, surtout en ce qui concerne les phénomènes de croissance et les métamorphoses (1). On en trouve un nouvel exemple dans les faits que viennent de faire connaître L. I. Gilbert et IL A. Schnei-derman (Nature, 18 juillet 1959, p. 171). Leurs recherches ont porté sur l’hormone juvénile qui a fait l’objet des premières publications de Wigglesworth. Cette hormone sécrétée par de petites glandes situées derrière le cerveau, les corpora allata, est l’agent qui empêche le passage des jeunes insectes à l’état adulte.' Le travail de Gilbert et Schneiderman semble indiquer qu’elle peut aussi agir comme stimulant de la glande protho-racique, autre glande à sécrétion interne dont l’hormone provoque la mue; normalement cette glande agit sous l’influence d’une neurosécrétion provenant du cerveau. Les expériences ont porté sur de grandes espèces de Lépidoptères Attacides, en particulier Samia cynlhia, Antherea polyphemus, Hyalo-phora cecropia. Les auteurs ont employé des chrysalides, soit, en diapause naturelle, soit maintenues à une température de 5-8° C pendant cinq mois au moins, ce qui a pour effet d’activer leur cerveau. Us ont préparé un extrait éthéré d’abdomens de mâles de H. cecropia qui contiennent une grande quantité d’hormone juvénile. Cet extrait, injecté à la dose de 5o mg
- 1. Voir : Hormones et neurosécrétions des Invertébrés, par Lucien Cno-pard, La Nature, juin 1957, p. 218-223.
- au moins dans des chrysalides en diapause de S. cynthia, provoque une mue et la formation d’une seconde chrysalide ou d’individus intermédiaires entre la chrysalide et l’adulte. Chez des chrysalides refroidies, l’injection provoque, en 10 à i3 jours, une mue donnant une seconde chrysalide. Pour être sûrs que l’extrait agit bien sur la glande profhoracique et non sur le cerveau, les auteurs l’ont injecté à des chrysalides en diapause décérébrées, lesquelles sont incapables d’éclore spontanément. Dans ce cas, la mue amenant la formation d’une seconde chrysalide a pu être obtenue avec de fortes doses de 4oo à 600 mg. On avait donc pensé à la possibilité de la présence dans l’extrait d’une hormone prothoracique (eedyson) ; cette hypothèse a pu être éliminée par les résultats négatifs d’injections dans des abdomens de chrysalides isolés.
- D’autre part, il a été constaté que l’extrait est d’autant plus actif que la concentration en hormone juvénile est plus élevée. Tous ces faits semblent donc bien montrer que c’est l’hormone juvénile qui agit comme excitant de la glande prothoracique. Cependant, un travail encore plus récent de Ichikawa et Nishii-sutsuji-Uwo (Biol. Bull., 1959, p. 88) serait en faveur d’une autre interprétation. D’après ces auteurs japonais, une neuro-sécrétion provenant du cerveau et distribuée aux corpora allata par les nervi corporis allati pourrait se trouver stockée dans ces glandes et, par suite, contenue dans l’extrait. On voit que plus les travaux se multiplient, plus le rôle des hormones chez les Insectes apparaît complexe et comparable, en bien des points de vue, à celui des hormones des Vertébrés. L. C.
- Zone glaciaire en Sibérie orientale
- Au cours de l’Année géophysique, une nouvelle zone glaciaire contemporaine a été découverte et étudiée par des chercheurs soviétiques en Sibérie orientale, signale le Bulletin d’information de l’Année géophysique internationale, publié par l’Académie des Sciences de l’U.R.S.S. à Moscou. Par son étendue, cette zone est comparable à la zone glaciaire dans l’Oural. Il s’agit de la chaîne montagneuse de Kodar, dans les districts d’Irkoutsk et de Tchita (latitude nord 56°45' à 57°!5'), dont le sommet le plus élevé actuellement mesuré atteint 2 999,8 m, bien qu’on suppose qu’elle comprend des pics encore plus hauts. La région où se trouve cette chaîne est l’une des régions sibériennes où les froids hivernaux sont particulièrement vifs. La température moyenne de l’air en janvier y est de — 33,9° C, et le nombre de jours par an où la température reste inférieure à — 25° G atteint 94. L’été
- est très court et plutôt humide, la température moyenne, en juillet, étant de 16,2°. Le nombre de jours sans gelée est de 65. En 1958, la dernière neige de printemps y est tombée dans la nuit du 3 au 4 juillet, et la première neige d’automne le 6 août. Le i4 août, après une seule chute de neige, une couche de neige épaisse de 20 cm se forma sur un glacier à environ 2 25o m d’altitude, ce qui n’est d’ailleurs pas une exception, car, par l’abondance de la neige, cette zone se différencie très nettement des autres régions montagneuses de la Sibérie. Jusqu’à présent, on a pu y déceler 3i glaciers, différant par leur volume et leur forme. Dans certains autres cas, on n’a pas pu établir avec certitude s’il s’agissait de glaciers ou de névés. L’accumulation de la neige et la glaciation dans cette région sont favorisées par les vents du nord et du nord-est qui semblent surtout se manifester en été.
- p.32 - vue 36/558
-
-
-
- 33
- L'état actuel du problème cosmologique
- De Newton à Einstein. — Il n’est peut-être pas inutile de rappeler le but que se fixe la cosmologie : étudier, décrire puis expliquer la distribution de la matière et de l’énergie dans tout l’univers visible. Étant donné son objet, la cosmologie est tributaire à l’extrême des notions physiques de matière et d’énergie, d’espace et de temps. Une cosmologie apparaît dans cette perspective comme l’extension à l’univers de la physique de son époque.
- Ainsi, lorsque Newton eut fondé la mécanique puis découvert la loi « universelle » de la gravitation, il crut que cette clé du système solaire était également celle de l’univers tout entier. Newton élabora ainsi le premier modèle scientifique d’univers où, selon l’expression d’Einstein, « le monde des étoiles constitue une île finie dans l’océan infini de l’espace ».
- On sait bien que la naissance de l’électromagnétisme vint plus tard enrichir la physique d’une théorie qui parut vite incompatible avec l’ancienne mécanique et que de leurs contradictions naquit en 1906 la Relativité restreinte. Les lecteurs savent également que cette théorie délmisait, les notions newtoniennes d’espace et de temps distincts l’un de l’autre et absolus, pour les remplacer par l’espace-lemps plus complexe et relatif à chaque observateur : l’espace n’est plus le cadre vide dans lequel de purs esprits évoluent, mais il est tissé de la trame même de toutes nos mesures physiques, il se clive différemment suivant les lieux où nous sommes, l’époque où nous y sommes. U11 événement matériel n’est plus ainsi repéré d’une manière unique dans l’espace et dans le temps, mais d’autant, de façons qu’il a d’observateurs. Le monde n’est pourtant pas une nouvelle tour de Babel, car l’intervalle spatio-temporel de deux événements est une grandeur absolue qui, elle, ne dépend plus des observateurs. Cet intervalle ds caractéristique du couple d’événements est donné par l’expression : ds2 = c2dl2 — dl2, où c est la vitesse de la lumière, dt et di les intervalles de temps et de distance qui les séparent, mesurés par l’un quelconque des observateurs. Cette expression appelée métrique fondamentale ou plus simplement d.s2 caractérise par son mode d’union des longueurs et des durées l’espace-temps où nous sommes tous plongés d’après la Relativité restreinte (011 verra ultérieurement qu’à d’autres conceptions physiques de base correspondent d’autres ds2, donc de nouveaux espace-temps). On ne sera pas surpris de voir apparaître dans ce ds2 la vitesse de la lumière car celle-ci est la « chaîne d’arpenteur » du physicien comme Einstein l’a montré dans ses analyses pénétrantes. Il est inutile ici d’énumérer tous les succès expérimentaux de la théorie de la Relativité restreinte, ni même toutes ses conséquences; que l’on se souvienne simplement de l’équivalence de la masse et de l’énergie et de sa confirmation la plus éclatante : la libération de l’énergie nucléaire.
- Quelle qu’ait été sa fécondité, la Relativité restreinte était cependant insuffisante car la loi de la gravitation lui restait; étrangère. Avec la Relativité générale, Einstein construit entre 1912 et 1915 une synthèse encore plus prodigieuse que la première, base de la cosmologie moderne. L’identité de la masse pesante et de la masse inerte explique localement (c’est-à-dire dans une petite portion de l’espace) la force de gravitation comme l’un des aspects de la matière. Celle-ci se manifeste selon les circonstances comme « poids » ou « inertie », c’est une simple question de point de vue. Ce fait capital se révèle lourd de conséquences : la loi d’équivalence de la masse et de l’énergie nous apprenait que la lumière, étant de l’énergie, possède une certaine masse inerte; nous savons maintenant qu’elle possède aussi une masse pesante et qu’elle subit l’action des champs de gravitation. La trajectoire d’un rayon lumineux est donc courbée par le voisinage, de la matière, ce que l’expérience devait vérifier en 1919. La « chaîne d’arpenteur » qu’est la lumière pour le physicien mesure alors en ses trajectoires
- courbes un espace-temps forgé par la répartition de la matière dans l’espace avoisinant. On voit que cet espace-temps possède une structure physique qui échappait jusqu’ici à la Relativité restreinte. Le nouvel invariant ds2 qui en définit localement les caractères intrinsèques s’exprime au moyen de termes d’espace, de temps, de matière et d’énergie. A cette métrique locale correspondent une série d’équations, les « équations de champ » qui décrivent, toujours localement, la géométrie de l’espace en fonction de son contenu énergétique de matière et de radiation, ainsi que d’une certaine constante X sur laquelle nous reviendrons, appelée constante cosmologique.
- Si nous résumons le chemin parcouru depuis Newton, nous pouvons dire que pour celui-ci les notions d’espace, de temps, de matière et d’énergie étaient entièrement distinctes; la Relativité générale ne reconnaît pour indépendantes que les notions d’espace-temps, de masse-énergie et de gravitation. Ces notions sont à leur tour réunies dans la vaste synthèse de la Relativité générale qui constitue la base actuelle de la plupart des solutions cosmologiques.
- Notons encore qu’en insistant, sur le mot actuelle, nous faisons allusion au fait que les spécialistes reprochent à la Relativité générale certaines faiblesses qui l’empêchent d’être la synthèse ultime de la physique de la matière et du rayonnement. Einstein en tête, les théoriciens ont tenté d’élaborer une « théorie unitaire » qui réaliserait l’unification de tous les champs physiques au sein d’un seul liyperchamp dont la donnée soit équivalente à celle de la structure géométrique de l’univers. La structure géométrique qui nous est actuellement offerte par la Relativité générale apparaîtrait alors comme provisoire. Nous nous en contenterons cependant car la théorie unitaire n’est, pas encore achevée malgré tous les travaux dont elle fait l’objet; nous n’oublierons pas non plus que la Relativité générale a de beaux succès expérimentaux à son actif et qu’on a de bonnes raisons de croire qu’elle est une approximation satisfaisante de la future théorie unitaire.
- Les hypothèses cosmotogiques. — En affirmant que les propriétés locales de l’espace-lemps dépendent directement de la répartition de la matière et de l’énergie dans l’espace avoisinant, on établit en fait que la structure de l’espace en un point dépend à strictement parler de toute la matière et de toute l’énergie contenues dans l’univers. Dans cette perspective l’univers est considéré comme un tout, toutes ses parties exerçant une action sur les autres. Quand on recherche alors, suivant en cela le but de la cosmologie, l’extension des équations de champ à l’univers dans son ensemble pour en déduire sa forme, la solution rigoureuse de ces équations exige que l’on connaisse déjà en détail la répartition de la matière dans cet univers. Il y a là un cercle vicieux dont on ne peut s’échapper qu’en abandonnant la prétention d’une solution rigoureuse pour se contenter d’une approximation.
- La plus importante des hypothèses simplificatrices est alors la suivante. Comme il importe assez peu pour un domaine restreint de l’espace que les actions lointaines qu’il subit soient dues à la matière sous un état condensé (étoiles) ou bien diffus, on simplifie le problème en traitant, d’un univers fictif où la matière n’est présente que sous la forme étalée d’un « brouillard ». L’astronomie nous apprend d’autre part qu’aussi loin que plongent les télescopes, l’aspect, de l’univers est, toujours le même : entendons par là qu’on voit toujours des galaxies comparables réparties dans de grands volumes d’espace avec la même densité. Le postulat d’uniformité qui en découle admet alors que la matière est distribuée dans tout l’univers sous la forme diffuse d’un brouillard de densité uniforme. Notons à ce propos les doutes dont ce postulat a été récemment l’objet, par suite de l’existence possible d’une répartition préférentielle
- p.33 - vue 37/558
-
-
-
- des galaxies au sein d’une « métagalaxie » (voir La Nature. août 1939, p. 3go). Ce point étant cependant loin d’être bien établi, nous négligerons ici cette non-uniformité hypothétique qui n’apparaîtra peut-être d’ailleurs que comme un accident u local » lorsque nos télescopes auront pénétré plus loin dans l’espace.
- D’autres hypothèses (dont certaines ne sont plus utilisées) ont été proposées par les théoriciens pour compléter celle-ci : l’univers est homogène, c’est-à-dire que tous ses points sont équivalents; il est isotrope, c’est-à-dire que toutes ses directions se valent; la densité de la matière et par suite la distance de deux points varie avec le temps (cas des univers en expansion), etc.
- Toutes ces hypothèses permettent enfin d’utiliser les équations de champ et d’en déduire l’architecture de l’univers sous forme d’un « modèle » dont les caractéristiques dépendent étroitement des hypothèses cosmologiques adoptées.
- Modèles d’univers. — Le premier en date des modèles relativistes d’univers a été élaboré par Einstein en 1916. Bien qu’il soit maintenant abandonné, il est à plus d’un titre intéressant de l’étudier un peu. C’est un univers statique fondé sur le postulat d’uniformité, l’homogénéité et l’isotropie de l’espace. La métrique de cet univers fictif est donnée par : ds2 = c2dZ3 — R2du.2. Remarquons la surprenante simplicité de cette relation où c est toujours la vitesse de la lumière, dt l’intervalle de temps, R une longueur que l’on peut assimiler au rayon de l’univers et du une combinaison de 3 paramètres angulaires permettant de repérer avec l’aide de R la distance de deux points. La constante cosmologique X introduite par les équations de champ est liée à R et à la densité p de la matière par les expressions : X = 1 /R2 = 4 Tïp. Cette constante X positive puisque la densité p l’est évidemment, est le support d’une sorte de répulsion cosmique qui tend à écarter la matière et s’oppose à la force d’attraction de la gravitation. En équilibre entre ces deux forces antagonistes, l’univers statique d’Einstein possède un rayon R constant dans le temps. On ne peut cependant pas se le représenter de manière simple (pas plus d’ailleurs qu’aucun autre modèle d’univers) car les 3 paramètres d’espace qui décrivent sa géométrie ne sont pas accessibles à nos sens. Ceux-ci sont formés à la géométrie euclidienne de la vie courante et ne peuvent se plier à la courbure à grande échelle de l’univers. Disons seulement que l’univers d’Einstein est fermé sur lui-même (courbure positive) et fini (rayon de valeur finie) à la manière d’une hyper-sphère. Un rayon lumineux qui voyagerait assez longtemps finirait par repasser par son point de départ.
- En 1917, l’astronome hollandais De Sitter proposa un modèle pseudo-statique qui reste encore d’un grand intérêt car il se présente comme un cas-limite de l’univers réel. De Sitter posa que la densité de matière est nulle dans l’univers. A strictement parler, ceci est évidemment faux, mais non pas absurde quand on songe à la valeur actuellement admise de la densité : 3 x io-31 g/cm3, qui correspond environ à 3o mg de matière dans un volume égal à 100 fois celui de la Terre. Dans le modèle de De Sitter qui approche l’univers réel, la répulsion cosmique à grande échelle l’emporte sur l’attraction newtonienne et cet univers est dans un état proche' de l’évanouissement, cependant fini et fermé sur lui-même comme le modèle statique d’Einstein.
- Dans les années qui suivirent, de nombreux modèles non statiques furent élaborés, en particulier ceux de Friedmann (et Einstein); de Lemaître (1927) et Eddington (1930), etc. L’intérêt de ces modèles est d’introduire les notions d’expansion ou de contraction de l’univers de manière toute théorique. Mais la faiblesse commune de tous ces modèles, statiques ou non, est de n’être pas suffisamment accessibles à l’expérience, d’être justement trop théoriques.
- La découverte par Hubble et Humason en 1928 de la récession des nébuleuses lointaines (fuite des galaxies) introduisit dans le problème cosmologique un nouvel élément fondamental : la notion expérimentale de l’expansion de l’univers, d’abord fort discutée, mais admise aujourd’hui par la quasitotalité des astronomes.
- La théorie synthétique de Robertson. — L’Américain Robertson élabora en 1906 une théorie cinématique de l’univers, fondée justement sur l’expansion et sur le postulat d’uniformité. Son très grand intérêt réside d’abord dans une certaine opposition aux méthodes de la Relativité générale. Comme nous l’avons déjà largement souligné, la Relativité générale est avant tout une théorie physique de la matière et du rayonnement bâtie sur les résultats obtenus au cours du temps dans de nombreux laboratoires de mieux en mieux outillés. Les univers déduits de la Relativité générale sont le simple prolongement de cette physique terrestre, les hypothèses cosmologiques ayant avant tout pour elles le caractère de conventions simplificatrices. Robertson place au contraire au centre de ses préoccupations l’univers dans son ensemble et non pas la physique locale, et il utilise au maximum les faits qui découlent de l’observation astronomique. Robertson se détache encore de la Relativité générale en ne fournissant à ses « observateurs », disséminés dans l’espace et communiquant entre eux par signaux lumineux, que des horloges et des théodolites, à l’exclusion de rien d’autre, et sans même leur expliquer ce qu’est la lumière ni par quel mécanisme elle se propage. Ce matériel rudimentaire va permettre cependant à Robertson de trouver certaines propriétés de l’univers : la plus surprenante est que cet univers possède un ds2 de la forme même de ceux déduits de la Relativité générale. Cette convergence très remarquable des deux théories est à mettre au crédit de la Relativité générale quand on voudra la remplacer en cosmologie par la théorie uiutaire des champs.
- Un autre résultat très original et fort important est l’introduction d’un temps cosmique permettant de dater les événements dont l’univers est le siège. Ce temps cosmique mesure l’âge de l’univers à dater des débuts de son expansion sans préjuger des événements qui l’ont ou non précédée. Remarquons bien la nouveauté de ce temps à grande échelle au regard de la Relativité où chaque point de l’univers est pourvu de son temps propre sans commune origine avec celui des autres points.
- Plus tard, en 1966, Robertson a utilisé la convergence déjà constatée de sa théorie avec les résultats fournis par la Relativité générale pour créer une synthèse globale, exclusivement cosmologique, de sa théorie et de la Relativité. Il en déduit certaines relations observables devant fournir expérimentalement les caractéristiques de notre univers réel.
- Aux modèles d’univers en expansion un peu trop théoriques, comme ceux de Friedmann-Einstein ou de Lemaître, Robertson a donc substitué une série de relations mi-expérimentales, mi-théoriques permettant de déduire la structure de notre univers, dont son rayon R, de la constante H de la récession (constante expérimentale exprimant la vitesse de fuite des galaxies en fonction de leur distance), de la densité actuelle p de l’univers et de son âge t à dater des débuts de l’expansion.
- La ligure provisoire de notre univers. — La structure de l’univers se déduit de l’étude de la figure x, due à Robertson, et dont voici l’explication :
- Pour la valeur actuellement admise de la constante de la récession, on trace en fonction de la densité p et des âges t de l’expansion deux courbes, deux « séparatrices » qui divisent le plan de la figure en plusieurs régions. La séparatrice en trait plein correspond à tous les univers possibles qui possèdent une courbure nulle, donc un rayon infini qui les fait beaucoup
- p.34 - vue 38/558
-
-
-
- Fig. 1. — Carte des univers, d’après Robertson.
- La croix indique la position présumée de notre univers, dans la région où K et sont simultanément négatifs. Le cercle indique la position de l’univers théorique d’Einstein-De Sitter : 10-29 g/cm3 ; 8,7 x 109 ans. Les flèches indiquent enfin l'évolution probable de ces deux points au cours des années à venir, par révision des paramètres expérimentaux.
- ressembler aux univers infinis que nos sens peuvent imaginer. Au-dessus de cette séparatrice se trouve alors la région des univers à courbure K positive, fermés sur eux-mêmes et finis, semblables, au mouvement près, à l’univers hypersphérique d’Einstein. Au-dessous de cette courbe se placent les univers à courbure K négative, ouverts et infinis, d’allure « hyperbolique ». Sur la séparatrice en pointillé se trouvent tous les univers où la constante cosmologique X est nulle, c’est-à-dire où les particules matérielles n’exercent pas sur elles-mêmes d’autres actions mutuelles que celles de la gravitation newtonienne. Au-dessus de cette séparatrice, la constante X est positive et il existe une répulsion cosmique qui s’oppose à l’attraction newdonienne ; par contre, dans la région où X est négatif, une attraction cosmique vient s’y ajouter. Selon l’emplacement de l’univers sur la figure, on trouve une structure différente.
- Mais nous, dans quelle région de cette figure nous trouvons-nous ? La croix indique notre position fournie par le couple de valeurs p = 3 x io-31 g/cm3, et t = 8 x io9 ans. Nous serions ainsi dans un univers où K et X sont faiblement négatifs, c’est-à-dire dans un univers ouvert et infini, effectuant des oscillations sur lui-même.
- Mais le moment est venu de dire que les valeurs utilisées pour déterminer notre position sont quelque peu incertaines bien qu’elles ne datent que de quelques mois. La constante de la récession H = 75 km/s par mégaparsec possède une valeur très provisoire : nos lecteurs savent qu’elle est fré-
- Les causes de l’expansion d’après les
- Les théories cosmologiques dites évolutives admettent que l’Univers a pris naissance dans une gigantesque explosion dont les débris ne seraient autres que les galaxies en fuite, ou du moins que l’Univers est passé par une phase très condensée, dont l’époque est prise pour origine des temps. Telle est la position le plus généralement adoptée.
- Mais on sait qu’une autre théorie cosmologique considère l’Univers comme présentant un aspect moyen immuable, à
- quemment révisée (voir La Nature, novembre ig58, p. 438), car si les vitesses de fuite des galaxies sont bien déterminées (les plus grandes mesurées à ce jour valant environ la moitié de la vitesse de la lumière), leurs distances sont sans cesse réévaluées. D’autre part, l’ancien schéma très simple d’une récession proportionnelle à la distance s’est compliqué par la découverte des mouvements différentiels des super-amas de galaxies (voir La Nature, août 1969, p. 3go). L’échelle des distances de l’univers visible intervient d’ailleurs aussi pour fixer la densité moyenne p qui dépend également de l’abondance dans l’univers de la matière obscure, non directement visible et très mal connue. Certains spécialistes pensent ainsi que la valeur H — 75 doit être remplacée par 5o km/s/mégaparsec, et que la valeur p = 3.io~31 g/cm3 n’est connue qu’à un facteur 10 près, peut-être même davantage.
- Quant à l’âge de l’univers, il se déduit des faits suivants. L’âge de la Terre et dés météorites qui nous bombardent est de 4,5 milliards d’années d’après leur radioactivité. La physique nucléaire permet de faire remonter l’origine des éléments chimiques lourds à environ 7 ou 8 milliards d’années. L’étude dynamique des amas globulaires d’étoiles fournit également pour âge de ces objets 7 ou 8 milliards d’années, valeur qui serait aussi l’âge du système solaire. Enfin, toujours d’après une étude dynamique, l’âge des galaxies serait d’environ 10 milliards d’années. On voit ainsi pour quelles raisons l’âge de l’univers a été fixé à environ 8 x io9 ans. Notons également à ce propos que l’inverse i/H de la constante de la l’écession vaut i3 milliards d’années et qu’elle fournit un temps qui, pour n’être pas l’âge de l’expansion, lui est cependant lié de manière étroite, et en bon accord avec celui-ci ; sa valeur un peu plus grande que celle de l’âge de l’univers proviendrait de la vitesse variable de l’expansion au cours des temps.
- On a de très fortes raisons de croire que la révision des valeurs de H, te t p s’effectuera dans les sens indiqués sur la figure par des flèches, la première plaçant notre univers dans des régions où t et p sont supérieurs à leurs valeurs actuelles (par découverte d’objets nouveaux d’âges plus anciens et de matériaux obscurs) ; la seconde déplaçant le point de rencontre des séparatrices, entouré d’un petit cercle sur notre figure, et correspondant à un modèle unique d’univers, celui d’Einstein-De Sitter. Il apparaît dans ces conditions fort vraisemblable de penser que notre univers se placera dans la région où A et X sont simultanément positifs : l’univers serait alors fermé sur lui-même et fini comme une hypersphère en état d’expansion.
- Ce n’est cependant pas une certitude et l’on voit que le point représentatif de notre univers est trop proche du point critique d’Einstein-De Sitter (cas d’un univers quasi vide dont l’âge théorique serait de 8,7 x io9 ans) pour que les autres solutions soient à éliminer; K négatif, X positif, univers infini en expansion ; K positif, X négatif, univers fini en cours d’oscillations périodiques ; sans oublier les univers situés sur les séparatrices elles-mcmes... Le pi’oblème cosmologique nous réserve ainsi un « suspense » de taille et de très longue haleine car les spécialistes ne nous annoncent aucun pas décisif avant dix ans !
- Pierre Charvin.
- théoriciens de la « création continue »
- travers un temps et un espace infinis. Et comme rien n’empêche théoriquement un Univers infini de s’accroître sans cesse, son expansion demeure admise. Il est d’ailleurs difficile de la nier puisque les théories actuelles de la lumière ne permettent pas d’interpréter le rougissement des objets lointains autrement que par leur vitesse de fuite. On imagine alors que l’état de l’Univers, à savoir un état de densité moyenne stable des amas de galaxies, se trouve maintenu par la naissance de
- p.35 - vue 39/558
-
-
-
- 36
- matière nouvelle dans les espaces intergalactiques : cette matière se condense peu à peu en jeunes galaxies qui viennent remplir les vides créés par l’expansion. Dans ces conditions, si aucune explosion primordiale n’a fourni l'énergie nécessaire, quelles sont les causes physiques de l’expansion ? Les tenants de la théorie de la création continue viennent d’émettre à ce propos deux hypothèses.
- Les mathématiciens anglais Raymond A. Lyttleton et Hermann Bondi supposent que l’hydrogène intergalactique, celui même qui se crée continuellement, possède une tendance inhérente à l’expansion par simple répulsion électrostatique. On a toujours admis jusqu’ici que les charges opposées de l’atome d’hydrogène, celle du proton et celle de son électron périphérique, se compensaient exactement. Or, d’après Lyttleton, l’hydrogène ne serait pas rigoureusement neutre. Ce savant a calculé qu’il suffirait d’un excès de charge du proton, n’excédant que d’un milliardième de milliardième celui de l’électron, pour rendre compte de l’expansion observée de l’Univers. Les atomes, étant tous légèrement positifs, tendraient à se repousser. Au cours d’un colloque à l’Institut Technologique de Californie, Lytlle-ton a affirmé qu’il serait peut-être bientôt possible de vérifier cet excès de charge du proton.
- Plus récemment, Fred Iloyle et Thomas Gold, toujours dans le cadre de la théorie de la création continue, ont émis l’idée que l’expansion de l’hydrogène intergalactique pouvait provenir non pas de sa charge électrostatique positive mais simplement de sa haute température. La matière nouvelle naîtrait sous, forme de neutrons qui, par suite de leur instabilité naturelle, tendraient à se transformer en protons et en électrons, constituant ainsi de l’hydrogène normal. Mais cette transformation libérerait assez d’énergie pour élever considérablement la « température cinétique » du gaz, au point de lui faire atteindre un milliard de degrés. De ce fait, le gaz intergalactique entrerait de lui-même en expansion.
- Quant aux galaxies, elles se condenseraient à partir d’un certain degré de refroidissement des nuages d’hydrogène, d’ailleurs
- constamment renouvelés dans les régions les plus vides de l’Univers. Ce n’est que localement que la baisse de la température permettrait à la gravitation de prendre le pas sur les énergies cinétiques des atomes qui poussent ceux-ci à s’écarter les uns des autres. L’état de densité relative qu’atteindrait alors la matière, par sa contraction en systèmes d’étoiles, créerait des forces de gravitation suffisantes pour empêcher les galaxies et même les amas de galaxies de manifester une expansion appréciable à l’intérieur de leurs limites.
- Il peut sembler étrange que la matière intergalactique atteigne une température supérieure à celle engendrée par une bombe thermonucléaire. Mais il ne faut pas oublier qu’à raison d’une dizaine d’atomes par mètre cube d’espace, les énergies cinétiques de ces atomes raréfiés, quoique considérables, seraient tout à fait incapables d’élever la température d’un corps solide qui se trouverait à leur contact. D’éventuels astronautes n’auraient pas à craindre d’être vaporisés !
- Sans doute, la théorie de Iloyle et Gold rendrait compte de façon assez satisfaisante de l’expansion. Si celle-ci prend naissance dans les espaces intergalactiques, là où la transformation de neutrons élémentaires en hydrogène crée des températures-élevées, on comprend que les galaxies s’écartent les unes des autres par suite d’un gonflement du milieu gazeux où elles se trouvent plongées. On sait qu’Einstein parlait, déjà, en termes voisins, d’un gonflement de l’espace même (constante 1 positive), ce qui rend bien compte des vitesses très élevées d’objets éloignés qui ne peuvent guère être considérés comme animés de mouvements propres de cet ordre. Mais c’est l’hypothèse fondamentale de la théorie de la création continue qui semble difficile à admettre : la naissance spontanée de nuages de neutrons dans les abîmes quand la densité atomique y descend au-dessous d’un certain taux. Aucune théorie physique ne vient appuyer jusqu’ici la création de matière à partir d’un néant énergétique ou de quelque sous-espace imaginé pour les besoins de la cause...
- Jacques Foucjiet.
- Migrations des Cigognes et hormones
- A la suite de la publication de l'article de M. Pierre Gauroy sur les Cigognes et leurs migrations (La Nature, novembre 1959, p. 5(15), M. L. Genevois, professeur à la Faculté des Sciences de Bordeaux, a bien voulu nous envoyer la note suivante.
- Voici quelques expériences inédites, qui m’ont été contées par le professeur Schoeller, directeur des recherches sur les hormones aux Établissements Schering de 1925 à ig45. On prend des cigognes au moment de leur arrivée en Europe, lorsqu’elles commencent à construire leur nid; on leur greffe sous la peau des tablettes de quelques décigrammes d’hormones thyroïdiennes (thyroxine). Les animaux cessent de construire leur nid et manifestent le désir de repartir vers le sud. D’autre pari, on prend des cigognes au moment où elles se préparent normalement à repartir vers le sud, au mois de septembre ; on greffe sous la peau des animaux des hormones oestrogènes pour les femelles, un ester de testostérone pour les mâles; on observe alors chez les animaux la réapparition de l’instinct de nidification; le départ des animaux pour la migration est retardé de plusieurs semaines.
- D’après ces expériences, l’instinct migrateur des cigognes serait dû à un déséquilibre hormonal, avec prédominance de l’hormone thyroïdienne au moment du départ en migration. Ces expériences, faites en Europe au début de la guerre de ig4o, mériteraient d’être complétées par une expérience analogue dans les régions principales de nidification des cigognes,
- par exemple en Afrique du Nord. Il 11’y a aucune comparaison, en effet, entre l’importance de la population de ces animaux en Afrique où les nids sont sans doute de l’ordre de quelques centaines de mille, et la population de ces animaux en Europe où l’on compte quelques dizaines de milliers de nids au total. La majorité des cigognes du Maroc sont sédentaires; il faudrait les baguer, et les obliger à émigrer sous l’action des hormones, pour compléter cette expérience.
- L. Genevois.
- Cigognes et Aigles en conflit meurtrier. — Dans son article M. Pierre Gauroy notait qu’ « on a pu observer au Proche-Orient que cigognes et grands rapaces s’unissaient quelquefois fortuitement dans leurs migrations ». Il ne faudrait pas en déduire que les cigognes font toujours bon ménage avec ces grandes espèces. Voici en effet ce que nous écrit un de nos lecteurs, d’après une relation de son fils qui séjournait à Stamboul : « Au cours des mois de juillet et août de l’été dernier, une véritable guerre s’est déclarée en Turquie entre 'cigognes et aigles. Les premières ont dû en grand nombre abandonner leurs cigogneaux pour voler au combat et. ceux-ci ont été soignés et élevés par les Turcs. Il y a eu du côté des cigognes de très grosses pertes; les aigles en ont subi également (leurs adversaires, comme toujours, les attaquant aux yeux) mais bien moindres. »
- p.36 - vue 40/558
-
-
-
- De la « biologie quantique » au néo-finalisme
- Après le libre arbitre de l’électron, la conscience de l'atome
- •il
- Avec la Relativité et surtout avec les Quanta, notre siècle a vu se renouveler complètement les bases des sciences physiques. La Biologie, pendant ce temps, a fait d’immemes progrès, mais elle n’a certes pas subi une révolution aussi profonde, et si ses moyens ont été décuplés, précisément par l’apport des instruments nouveaux que lui fournissent la physique et la chimie, elle n’a pas fondamentalement changé ses bases idéologiques. Or, le rêve de la science est l’unité, et celui de la biologie est de se réduire, autant que faire se peut, à la physico-chimie. Cette réduction ne sera sans doute jamais complète, mais on peut dire qu’elle est réalisée déjà en bonne partie. II était donc tout naturel de se demander dans quelle mesure le bouleversement de la physique moderne devait influencer les bases de la biologie. C’est ce qu’ont tenté de faire quelques physiciens de tout premier plan parmi ceux qui ont édifié la nouvelle mécanique des quanta -, notamment M. Niels Bohr. On entendait parler depuis quelques années d’une « biologie quantique » dont M. Pascual Jordan, atomiste allemand des plus réputés, était un des principaux créateurs. On s’est, donc précipité sur le petit livre de M. Jordan dont la traduction française a récemment paru sous le litre La Physique et le secret de la vie organique (1).
- Il y a des pages remarquables dans cet ouvrage, surtout sur la physique elle-même, et aussi quelques remarques intéressantes sur certaines expériences biologiques. Mais la physique moderne nous découvre-t-elle enfin le secret de la vie, comme paraît le promettre un titre trop alléchant ? Nous n’osions y croire, et notre déception s’en est trouvée atténuée. Cependant, en quoi consiste cette fameuse « biologie quantique » ?
- C’est un fait que certains phénomènes biologiques paraissent bien être déclenchés par l’intervention d’un seul corpuscule subalomique, électron ou photon. Il suffit de quelques photons, sinon d’un seul, comme le dit M. Jordan, pour impressionner une cellule sensible de la rétine. Il semble également certain qu’un seul corpuscule ou un seul photon de rayons X peut stériliser une bactérie ou déterminer un changement chimique dans un gène d’un chromosome et par là entraîner une mutation héréditaire dans n’importe quelle espèce vivante. On peut supposer aussi qu’un phénomène microphysique du même ordre est susceptible de déclencher des phénomènes de grande amplitude, et de façon immédiate, dans un grand organisme vivant. C’est une hypothèse hardie, contre laquelle on pourrait développer de bons arguments. Mais admettons que l’être vivant soit bien, comme le veut M. Jordan, un amplificateur comparable à un compteur de Geiger-Müller ou à un multiplicateur d’électrons. M. Jordan en tire celle conclusion que l’être vivant ne saurait donc plus, .comme le rêvaient les naïfs mécanistes, être assimilé à une machine, car il ne fonctionne pas selon les lois de la mécanique macroscopique, de la mécanique classique. Non, en effet, mais il fonctionne alors, à un certain niveau, comme une machine électronique, et c’est une machine tout de même !
- M. Jordan n’est pas le premier à avoir pensé que la nouvelle physique a ruiné le matérialisme du xixe siècle, parce qu’elle a prouvé que le monde des atomes n’est pas soumis au déterminisme étroit qu’on imaginait alors. Admellons-le, bien que de bons esprits en discutent. Mais le matérialisme étroit du déterminisme absolu est alors remplacé par le matérialisme statistique. En quoi ce matérialisme statistique est-il moins matérialiste que l’autre ?
- 1. La Physique et le secret de la vie organique, par Pascual Jordan. Traduit de l’allemand d’après la 6e édition (1948) par André Metz et Maurice Mareschal. Préface d’André George. 1 vol. 12 x 18,5, 248 p. Albin Michel, Paris, 1959. Prix : 900 F.
- A celte objection, il est vrai que les inventeurs de la « biologie quantique » croient sans doute avoir répondu par avance en invoquant la « liberté » de l’électi'on. La mécanique quantique nous a appris que le comportement d’un corpuscule ne peut être rigoureusement déterminé; ce comportement n’obéit qu’à des probabilités. Certains physiciens ont comparé cette indétermination à celle que présente la conduite d’un être vivant et même d’un homme. Ils parlent de liberté, voire de libre arbitre du corpuscule. Si à son tour, comme pense l’établir M. Pascual Jordan, tout phénomène biologique, et en particulier le comportement d’un individu, peut dépendre du mouvement d’un seul corpuscule dans la profondeur de son organisme, alors la liberté de ce corpuscule entraîne celle de l’individu. On définit donc la liberté de l’électron par comparaison avec celle de l’être vivant, et on prouve celle de l’être vivant comme conséquence de celle de l’électron. Pense-t-on vraiment avoir ainsi résolu le vieux problème de la liberté ? En somme, on fait dépendre le comportement de l’individu du mouvement de ses particules atomiques. Peu importe que ce mouvement et ses conséquences soient prévisibles ou non. La théorie apparaît, contrairement au vœu de ses auteurs, comme rigoureusement matérialiste et mécaniciste. Et la prétendue liberté dont on parle n’est que celle du hasard.
- Qu’y a-t-il donc de nouveau dans tout cela ? Que la mécanique des quanta doit être prise en considération dans l’étude du fonctionnement des êtres vivants ? Personne n’en a douté, dans la mesure où la biologie fait appel à la physico-chimie. On ratifiera donc les réserves que M. André George ne manque pas de faire dans sa préface sur le manque de rigueur cle celte décevante « biologie quanlique ».
- *
- * #
- La façon dont M. Pascual Jordan considère les choses nous paraissait un peu simpliste. Un philosophe, M. Raymond Ruyer, nous a apporté une discussion plus substantielle, appuyée sur des connaissances étendues en biologie (2).
- Pour M. Ruyer, comme pour M. Jordan, l’être vivant, et surtout l’être vivant en voie de développement, ne saurait en aucune façon être assimilé à une machine, si complexe qu’on puisse l’imaginer. Une machine fonctionne. L’être vivant, du moins à l’état embryonnaire, ne fonctionne pas, il se forme. El M. Ruyer croit pouvoir démontrer que fonctionnement et formation sont inconciliables. Dans l’être vivant en développement, il y à apparition de structures, et l’apparition de structures ne saurait être ramenée à la mise en marche de structures déjà établies. L’argumentation du philosophe, sur ce point, est trop longue et détaillée pour qu’on prétende la réfuter en quelques mots. Notons seulement que plus d’un biologiste pensera au contraire que ce qui distingue le mieux l’être vivant de la machine, c’est précisément qu’il se forme tout en fonctionnant.
- C’est ensuite toute la génétique et toute l’embryologie modernes qui sont prises à partie. M. Ruyer se fonde sur le fait que les chromosomes et leurs gènes sont distribués équitablement à toutes les cellules pour leur refuser le rôle de diriger la différenciation des tissus et des organes. A la rigueur, il admettrait, par exemple, que les gènes pussent rendre compte de la différence qu’il y a entre une patte de chat et une patte
- 2. La genèse des formes vivantes, par Raymond Ruyer, correspondant de l’Institut, professeur à l’Université de Nancy. 1 vol. 13 x 19, 268 p., 17 fig. Flammarion, Paris, 1958. Prix : 775 F.
- p.37 - vue 41/558
-
-
-
- 38
- de chien, mais non du fait qu’il se forme ici une patte et là une queue ou une tête. Et il n’admet pas davantage que cette différenciation soit déterminée par -des structures particulières du protoplasme. Il condamne toute idée de préformation. Il admet donc l’épigenèse, c’est-à-dire l’idée que les parties de l’être vivant apparaissent indépendamment de structures préformées, mais il pousse cette idée à l’extrême, en soutenant qu’aucune structure dans l’embryon ne peut expliquer la structure qui lui succède par le simple jeu des influences réciproques, bï’ef par des phénomènes purement physico-chimiques. Les embryologistes qui cherchent à retrouver ce déterminisme seraient donc dans l’erreur. On leur oppose en premier lieu tous les phénomènes de régulation.
- Certaines structures de l’embryon s’édifient sous l’influence de substances qui diffusent à partir d’un centre appelé organisateur. Mais cette édification n’a lieu que si le territoire intéressé est prédisposé à cela. C’est ce qu’on appelle sa « compétence ». C’est cette compétence qui paraît primordiale et, quant à l’influence de l’organisateur, M. Ruyer la compare o!u plutôt l’identifie au stimulus-signal qui déclenche un comportement chez un animal. La formation d’un être vivant ou d’une de ses parties est ainsi ramenée à un véritable processus psychologique. Nous disons bien ramenée et non pas seulement comparée. Il faut donc prendre à la lettre l’expression : « L’être vivant se fait » ; et même : « L’aile de l’oiseau se fait ». La formation de l’être est un comportement. Elle se fait selon un thème, dont la réalisation, comme tout comportement, contient une part d’improvisation, et n’est aucunement prédéterminée de façon rigoureuse. Et cela est vrai dans toute l’échelle des êtres, même jusqu’aux plus rudimentaires, jusqu’aux virus, aux molécules et aux atomes eux-mêmes, puisque la mécanique quan-
- lique nous a appris qu’ils ne sont pas soumis à un déterminisme absolu.
- Dès lors, le domaine de la conscience lui-même est étendu à toute cette échelle. Tout comme l’oiseau, le microbe et le virus, l’atome n’est pas fait, mais se fait. A tous ces niveaux, la formation se réalise selon un thème et elle est conscience. Entendons bien qu’il ne suffit pas de dire que la conscience explique la formation de l’être, la morphogenèse. Conscience et morphogenèse ne font qu’un.
- On aboutit ainsi à une conception finaliste, mais d’une finalité interne, inhérente à l’être. El l’on comprend alors pourquoi l’évolution des espèces dans leur ensemble n’est pas conçue comme finalisée par M. Ruyer. Si tout être vivant se développe selon un thème qui lui est propre, il n’en est pas de même
- de l’espèce et, plus généralement, de la chaîne des êtres.
- Comme l’histoire des civilisations, l’évolution des espèces vivantes est contingente, elle dépend des événements, elle n’est guidée que par la façon dont les individus ont répondu aux événements en réalisant le thème qui était le leur et, au besoin, en le modifiant. En effet, si l’on peut dire que la formation
- de l’être est consciente, ou plutôt est conscience, que c’est
- un comportement, il serait difficile d’en dire autant d’une suite de générations.
- M. Ruyer ne convaincra certainement pas les positivistes pour qui le terme de conscience, par exemple, reste d’une signification obscure, surtout si on l’applique à d’autres êtres que les animaux supérieurs. Et d’une façon générale, ils n’admettront pas que la science s’en remette à une métaphysique habile mais vague pour résoudre des problèmes qu’elle se sent plus que jamais en mesure de traiter toute seule.
- P. O.
- Révélations sur la fabrication des diamants industriels
- Nous avons plusieurs fois fait allusion à la synthèse de diamants industriels réalisée depuis octobre 1967 par la General Electric Company aux U.S.A. Jusqu’ici le procédé utilisé était secret, d’ordre du gouvernement américain. Plusieurs renseignements viennent d’être communiqués, notamment sur un fait essentiel, l’emploi de catalyseurs qui permettent de travailler sous des pressions et à des températures bien inférieures à celles qui devraient autrement être employées : 126000 kg/cm2 au lieu de 210000; 1 000 à 2 ooo° au lieu de 4 ooo°.
- On part de graphite, de préférence, mais on peut employer du noir de carbone, du charbon de sucre, etc., et on place le catalyseur aux extrémités de la charge, située dans un appareil spécial : il s’agirait de chrome, fer, manganèse, nickel,
- palladium, ruthénium, osmium, or, iridium, platine. On fait passer le courant tandis qu’on crée la pression : le catalyseur fond, formant un film entre le produit carboné et le diamant qui se forme au contact du film de métal. Il n’y aurait pas besoin d’amorcer avec des germes de diamant. La croissance des cristaux pourrait atteindre 0,1 mm par minute.
- La forme et la couleur des diamants dépendent de la température à laquelle on travaille : à température relativement basse, les cubes prédominent ; aux températures plus élevées, on obtient des dodécaèdres, puis des octaèdres. Les diamants sont noirs à basse température et passent au vert foncé, au gris, au jaune et au blanc lorsque la température de formation s’élève-
- II. G.
- La Fondation Charles Darwin pour les îles Galapagos
- Le synchrotron du C.E.R.N. accélérateur le plus puissant
- Dans la conclusion de l’exposé qu’il nous a donné sur les îles Galapagos (La Nature, juillet et août 1969), M. Jean Dorst, sous-directeur au Muséum de Paris, annonçait le prochain aménagement d’une station biologique internationale destinée à l’étude et à la protection de la flore et de la faune de ces îles, dont l’exceptionnel intérêt avait été déjà reconnu par Darwin. La « Fondation Charles Darwin », créée à cet effet sous les auspices de i’Unesco et de l’Union internationale pour la conservation de la nature, a tenu le 7 décembre dernier une assemblée générale où ont été nommés : M. Julian Huxley, président d’honneur ; M. van Strahlen, président ; M. Luis Enrique Jamarillo, vice-président délégué permanent ; M. Jean Dorst, secrétaire scientifique. M. Raymond Lévêque, expert de I’Unesco, prendra la direction de la station, qui sera installée sur l’île Indefatigable avec l’appui du gouvernement équatorien.
- Avec plusieurs mois d’avance sur les prévisions, le synchrotron édifié à Genève au Centre européen de recherches nucléaires (C.E.R.N.) vient d’atteindre sa pleine puissance. Dès à présent il est à même de communiquer à des protons une énergie de 25 milliards d’électron-volts. Cette réalisation, entreprise sur une initiative de I’Unesco et menée à bien par douze pays européens, laisse loin derrière elle les installations de ce genre qui sont actuellement en service. Le fameux bevatron de Berkeley, en effet, ne dépasse pas 6 milliards d’électron-volts. Quant à l’appareil construit par les Soviétiques à Doubna, il doit atteindre 10 milliards eV mais sa mise au point se montre difficile. Les Américains ont entrepris d’installer à Brookhaven un appareil équivalent à celui du C.E.R.N., mais il est loin d’être achevé. Nousi aurons l’occasion de reparler du synchrotron européen qui ouvre à la recherche nucléaire un champ d’études jusqu’ici inexploré.
- p.38 - vue 42/558
-
-
-
- Le stockage du pétrole saharien à Bougie
- 30
- En novembre 1959 le premier navire pétrolier a quitté le port de Bougie, après avoir chargé de l’huile brute, transportée jusqu’à la côte par le nouvel oléoduc (ou pipe-line) qui a été construit à cet effet entre Hassi Messaoud et la Méditerranée. Cet ouvrage, long de 662 km, avait été achevé en août dernier. Les installations portuaires comportent un parc de stockage où pourront être logés 420 000 m3 de pétrole. On voit ici ce parc en cours de construction : chacun des réservoirs qui le composent mesure 15,5 m de hauteur et 55 m de diamètre. La contenance unitaire est de 35 000 m3. Cinq de ces réservoirs sont déjà en service. C’est avant la fin de 1960 que le parc sera achevé, avec douze réservoirs de mêmes dimensions et de même contenance.
- (Photo du Service cinématographique des Armées).
- LES INSECTES UTILES
- Si les ouvrages qui traitent des insectes nuisibles sont nombreux, il n’en est pas de même en ce qui concerne les insectes utiles et c’est un lait bien méconnu qu’à côté de l’immense cohorte des ravageurs existe une variété presque aussi importante de formes qui présentent pour l’homme quelque utilité. On doit donc être reconnaissant à M. R'. Sellier d’avoir abordé cette importante question (1). Très judicieusement, l’auteur commence son livre par l’exposé de la question des insectes pollinisateurs, dont le rôle important est à peu près ignoré dans le public ; il insiste avec raison sur le fait que non seulement les abeilles! sont indispensables pour assurer la fécondation des arbres fruitiers, mais aussi bon nombre d’autres hyménoptères comme les bourdons et les abeilles solitaires et même bien d’autres insectes qui fréquentent les fleurs. Le deuxième chapitre est consacré aux insectes qu'il nomme assainisseurs, c’est-à-dire aux coprophages et nécrophages ; les remarquables mœurs des bousiers sont étudiées et les soins qu’ils prennent pour assurer le développement de leurs larves ne manqueront pas1 de surprendre bien des lecteurs. Dans le même chapitre, un paragraphe important est accordé aux insectes qui vivent dans le sol, lesquels' sont actuellement l’objet d’études approfondies car ils jouent un rôle non négligeable dans la modification des sols. Les cinq chapitres suivants sont consacrés à la question principale du sujet, les insectes entomophages, prédateurs et parasites. Le premier de ces chapitres envisage les données générales et donne des indications rapides sur les principales formes, leur détermination, les modalités de la ponte et la morphologie larvaire. Le chapitre suivant traite des principaux types de prédateurs qui peuvent être considérés comme auxiliaires de l’agriculture ; rapidement sont envisagés les aphidiphages et cocci-
- 1. Les insectes utiles, par Robert Sellier, chef do travaux de zoologie à l’Institut national agronomique. 1 vol. 14 x 22,5, 288 p., 75 fig. Payot, Paris, 1959. Prix : 1 800 F
- diphages (coccinelles, syrphes, chrysopes et hémérobies), les prédateurs des chenilles et autres larves (carabes et surtout caloso-mes), les ennemis des doryphores. Vient ensuite la question des hyménoptères paralyseurs, si intéressants au point de vue de la biologie générale, et dont quelques-uns ont également une certaine importance comme destructeurs d’insectes nuisibles. Enfin, le chapitre VI traite des innombrables parasites entomophages ; bien que ce chapitre soit un des plus; longs du livre, il est évident que l’auteur a dû traiter cette question très, partiellement, se bornant à citer un certain nombre d’exemples parmi lesi plus classiques. Il a choisi de présenter les parasites suivant les proies attaquées : lépidoptères, diptères, pucerons et cochenilles, criquets, insectes xylophages. Les exemples choisis; sont exposés avec les détails nécessaires pour faire connaître leurs particularités biologiques et leur importance en tant qu’auxiliaires de l’agriculture. Dépendant directement de ce chapitre, le suivant expose les données de la lutte biologique contre les ennemis, des; cultures, actuellement considérée comme devant compléter, parfois; supplanter, la lutte par les insecticidesi ; l’auteur insiste d’ailleurs sur le danger que présente l’emploi aveugle de ces derniers. Les deux derniers; chapitres traitent .enfin des insectes qui sont utiles à l’homme directement par leur production (vers à soie et abeilles) ou qui sont utilisés dans l’alimentation, en thérapeutique et même pour la parure et la décoration.
- On pourrait reprocher à M. Sellier d’avoir vu un peu grand et d’avoir tenté de traiter en moins de 300 pages l’ensemble d’un des sujets; les plus vastes de l’entomologie ; mais il nous avise bien que son but n’est pas d’écrire un traité destiné aux spécialistes de l’entomologie appliquée, mais une œuvre de vulgarisation dans le but de faire connaître au grand public les services que nous rendent de nombreux insectes. On peut dire qu’il y a pleinement réussi.
- L. C.
- p.39 - vue 43/558
-
-
-
- 40
- VActualité
- instrumentale
- POMPES DE LABORATOIRE
- Face à l’extrême variété des pompes industrielles des types les iplus divers destinés à charrier des liquides dont les propriétés peuvent être les plus incompatibles avec le fonctionnement de mécanismes tournant à vitesse élevée, le catalogue des pompes de laboratoire est anormalement pauvre.
- Bien peu nombreux sont en effet les constructeurs qui se sont chargés de transposer aux dimensions plus restreintes les solutions apportées aux problèmes de pompage industriel les plus courants : agressivité des fluides transportés, présence de charges solides, désamorçage des circuits de pompage par exemple. Les problèmes sont cependant identiques qui sont posés au stade de la construction d’usines ou à celui de l’étude des mêmes productions en laboratoire. Par ailleurs, nombre d’ensembles d’appareillage chimique ou physico-chimique gagnent à être munis de dispositifs d’alimentation un peu plus perfectionnés que la classique ampoule à brome dont les performances, en ce qui concerne l’automaticité et la régularité de débit, restent assez médiocres. Enfin, pour être industrielles, certaines productions de matériaux rares en quantités faibles s’effectuent néanmoins dans des installations d’ampleur à peine différente de celle des dispositifs utilisés en laboratoire.
- Il sera possible de préciser une échelle commune à toutes ces réalisations sur la base des débits de fluides auxquels il est raisonnablement possible d’avoir affaire : pour une simple circulation de liquide, telle que celle de liquide réfrigérant ou thermostaté, i m3/h nous semble représenter à peu près la frontière entre utilisations de laboratoire et d’atelier; pour une alimentation à débit constant, les pompes doseuses utilisables au laboratoire devront permettre de réguler efficacement des débits presque toujours inférieurs à une dizaine de litres/heure et quelquefois aussi faibles que quelques millilitres/heure.
- Aux qualités classiques demandées aux pompes industrielles destinées à apporter la solution la moins onéreuse à un problème précis, la pompe de laboratoire doit ajouter celle de l’inertie la plus complète possible à l’égard de tous les liquides qu’elle est susceptible de véhiculer; l’utilisation des matériaux nobles, aciers alliés, téllon ou autres, devrait donc y être quasi générale et peut seule permettre le plein emploi au milieu de la diversité des problèmes de pompage susceptibles d’être posés au cours des différentes activités d’un laboratoire.
- La variété des principes mécaniques mis en œuvre dans la conception des pompes en général s’estompe si l’on choisit de prendre comme paramètre de classement la forme de la variation de débit en fonction de la pression de fonctionnement
- Fig. 1. — Coupe d’une pompe centrifuge industrielle (Wesselinger Gusswerk WKV).
- En noir : matériau résistant à l’attaque par le liquide pompé.
- Fig. 2. — Pompe montée en aspiration avec pot d’amorçage automatique ( Pompes Lumpp).
- IX
- il
- (différence de pression entre les ajutages de sortie et d’entrée de la pompe, compte tenu des pertes de charge dans les tuyauteries).
- A une extrémité de la gamme, les pompes centrifuges voient le débit qu’elles assurent varier d’une façon importante en fonction de la pression ; à l’autre extrémité, les pompes doseuses doivent réaliser la constance du débit, quelles que soient les fluctuations des conditions d’utilisation.
- Quel que soit le type d’une pompe (et quelquefois les défauts ne sont susceptibles d’exister que pour certains d’entre eux), un certain nombre de problèmes classiques, outre celui du débit, peuvent lui être posés; nous citerons au hasard :
- — Le transport de liquides corrosifs;
- — La présence de charges solides abrasives ou volumineuses ;
- — L’amorçage automatique lors de la remise en roule;
- — L’absence totale de suintements des liquides nocifs véhiculés.
- Aucune pompe n’existe qui fournisse à tous la solution; néanmoins nous verrons que des réponses très acceptables sont maintenant à notre disposition et ceci reste partiellement vrai à l’échelle du laboratoire.
- Au cours de l’examen que nous ferons des principaux modèles existants, nous serons cependant amenés à rencontrer des techniques dont l’application n’a pas encore été réalisée pour le laboratoire; pour celles-ci, nous nous sommes permis de déborder le cadre habituel de cette rubrique en citant des modèles dont les débits restent trop importants sans cependant atteindre ceux qui correspondent aux grandes unités chimiques de production.
- Pompes centriiuges. — Nous ne rappellerons que très brièvement le principe des pompes centrifuges : le liquide amené dans l’axe d’un rotor à canaux radiaux est entraîné dans un mouvement de rotation rapide; soumis à la force centrifuge il s’échappe à la périphérie sous une pression plus élevée. La figure i montre en coupe le corps d’un type particulier de pompe centrifuge.
- Nous avons choisi de réunir dans le tableau I un large échan-
- p.40 - vue 44/558
-
-
-
- 41
- Tableau I. — Pompes cekthifuges
- Constructeur Modèle Utilisation et type Matériau Débit (m3/h) Pression (m d’eau) Rotati on (tr/mn)
- Prolabo ..... Salmson ..... Interrupt Chaix Heto Iena Glasswerk . Siemens-Plania . PL io WP îo PR et PF UP 6o UP ioo 8/8 Axe horizontal Axe horizontal Auto-amorçante Immergée Immergée Immergée Axe vertical Axe vertical Axe horizontal Bronze Téflon Tous matériaux Laiton nickelé Chromé Verre Verre Antiacide 0,4 0,2 o,7 0,18 o,36 0,6 o,3 1 0,25 1,5 2 1 6 o,5 o,5 1 1 2 900 2 800 1 5oo 1 5oo 2 760
- B réguet Tous types Tous matériaux > 2
- Essa-Mico M 25ii Auto-amorçante Tous matériaux 2 5 1 425
- Grosclaude .... R 3 Auto-amorçante Acier inox > 2
- Guinard ..... DM A 20 Auto-amorçante Bronze-acier 0,5 23 a85o
- Holstein et Kappert. ZP ioo Axe horizontal Acier inox 5 9
- Lefi LT 25 Horiz. et vertic. Tous matériaux I 2,5 1 45o
- Libbrecht PL R Turbine réversible Inox et tous mat.
- Lumpp. • a5 i4o3 Axe vertical Tous matériaux 5 23 3 000
- Matricon P C 7 Axe horizontal Acier inox 3,6 8 g5o
- Salmson PL 20 D Axe horizontal Tous matériaux I 8 2 900
- PL 20 V Immergée Tous matériaux 7) » »
- CS 32 Monobloc rotor Tous matériaux 2 8 1 45o
- chemisé
- Sihi DA i ioo Auto-amorçante Tous matériaux 1,5 10 2 900
- Wauquier LC 72 Auto-amorçante Fonte et bronze I 10 2 900
- Wesselinger-Gusswerk. 3o/N Axe horizontal Tous métaux 2 10 2 85o
- Worthington. CNG Axe horizontal Worthite ( 18/8 allié) > 2
- tillonnage des pompes du type centrifuge diffusées par de très nombreux constructeurs. Seuls quelques-uns de ceux-ci construisent des pompes qui obéissent à la limitation de débit que nous nous sommes imposée ; pour les autres, une seule pompe, correspondant au débit le plus faible, a été signalée pour chacun parmi une production quelquefois très vaste de pompes de dimensions et de types divers.
- L’ulilisalion d’une pompe prévue par son constructeur n’est évidemment pas toujours limitative; une pompe non auto-amor-çante peut, par exemple, être montée avec pot d’amorçage séparé {fig. a). Cependant l’échantillonnage est si vaste parmi les modèles industriels qu’il est toujours possible de se fournir de celui qui restreigne au maximum les installations annexes nécessaires au montage; nous avons donc indiqué pour chaque pompe citée le type d’utilisation auquel elle est plus spécialement destinée.
- Si presque tous les constructeurs de modèles industriels, à l’exception de ceux plus spécialisés dans le transport de l’eau et des liquides alimentaires, signalent que toutes leurs pompes sont couramment construites à l’aide des matériaux les plus inertes à l’égard des liquides pompés, on sépare très nettement, parmi lès pompes de laboratoire, celles destinées à assurer la circulation d’eau ou de liquides peu corrosifs de celles destinées au pompage chimique proprement dit; les matériaux choisis sont alors : le verre (pompes Iena Glasswerk, voir
- La Nature, août 1969, p. 38i), le téflon (PL 10 Salmson) ou les aciers inoxydables (Siemens-Plania 8/8) (fig. 3).
- Pour chaque pompe citée nous avons donné, à titre purement indicatif de l’ordre de grandeur des performances hydrodynamiques, le débit correspondant à une pression de pompage pour une vitesse de rotation déterminée; les courbes (fig. 4) indiquent pour une pompe centrifuge la forme la plus classique de la relation entre ces trois grandeurs.
- Enfin, quelques détails de conception nous semblent valoir d’être relevés pour les pompes de faibles dimensions.
- Le modèle le plus classique reste évidemment celui à axe horizontal et aspiration axiale. Le couplage de la pompe au moteur est réalisé soit directement (Prolabo (fig. 5), Salmson PL 10), soit par l’intermédiaire d’une boîte à roulements (Salmson WP 10 (fig. 6), Siemens-Plania 8/8 (fig. 3)) destinée à maintenir le porte-à-faux de l’axe sans y faire participer l’axe du moteur, à l’imitation de ce qui est réalisé sur les gros modèles industriels; la pompe reste ainsi autonome et peut être entraînée par exemple par poulie.
- Fig. 3. — Pompe Siemens-Plania Chemische Fabrik Griesheim type 68/ (importation : Peralta).
- 14507m*
- 70 90 ISO 3(
- so 100 m
- DEBIT EN LITRES/HEURE
- Fig. 4. — Diagramme d’utilisation à 1 450 et 2 900 tr/mn ( pompe Salmson WP 10).
- Fig. 5. — Pompe centrifuge Prolabo à axe horizontal... sans presse-étoupe (Photo Henrot).
- p.41 - vue 45/558
-
-
-
- CONTROLE ET MESURE QUANTITATIVE DU
- DANGER BIOLOGIQUE
- DES RADIATIONS lONISANTEJ "X" ET "V" PAR LES NOUVEAUX
- DOSIMETRES
- INDIVIDUELS "P H Y"
- BREVETS FRANÇAIS
- iS.G D G i
- Défense Nationale ^
- Huzàr
- Physiotechnie
- ET BREVETS ÉTRANGERS
- VIENT DE PARAITRE ---------------------
- DICTIONNAIRE ANGLAIS-FRANÇAIS ÉLECTRONIQUE PHYSIQUE NUCLÉAIRE ET SCIENCES CONNEXES
- PAR G. G. KING
- vhi-312 pages 14 x 22. Relié toile souple. 26 KF
- DICTIONNAIRES POLYGLOTTES ELSfVIER
- DICTIONNAIRE DE SCIENCE ET DE TECHNOLOGIE NUCLÉAIRES
- en six langues : anglais-américain, allemand, espagnol, français, italien et hollandais
- PRÉPARÉ ET CLASSÉ D’APRÈS L’ORDRE ALPHABÉTIQUE DES MOTS ANGLAIS
- PAR W. E. CLASON
- 916 pages 16 x 25. Relié toile sous jaquette, l. 85 NF
- Cet ouvrage ne peut être fourni en Allemagne, Autriche, Italie, Espagne, Amérique du Sud, Grande-Bretagne et Commonwealth, États-Unis, Canada.
- En vente dans toutes les bonnes librairies et chez JLlUNOD Éditeur. 92, rue Bonaparte, Paris-6”, DAN 99-15.
- POMPE DE CIRCULATION
- Puissance :
- 40 watts
- Débit : 3 l/mn
- •
- LÉGÈRE
- ROBUSTE
- PEU
- ENCOMBRANTE
- •
- Pour 120 ou 220 alternatif
- Livrable immédiatement
- Notice sur demande à :
- INTERRUPT
- 23, rue des Cendriers, 23 - PARIS 20e
- Tél. : PYR 85-14
- AZOTE 15
- ISOTOPE STABLE
- POUR LES PROBLEMES DEMARQUAGE, DANS LA RECHERCHE ET
- DANS t'INDUSTRIE
- FORMES STANDARD
- ACIDE NITRIQUE NITRATES
- PHTALIMIDE POTASSIQUE
- SIÈGE â RA. R I S 30,avenue Hoche WAGram 29-14
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955]
- 84, rue de Grenelle, Paris-7e
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d’État Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- p.42 - vue 46/558
-
-
-
- 43
- © ® ®(4
- S) @® ®
- © ® ®
- j5) ch
- Pompe à amorçage automatique Salmson WP 10, licence Dickow.
- 1, corps de refoulement ; 2, contre-bride ; 3, joint sous contre-bride ; 4, joints entre corps et disques ; 5, garniture rotative ; 6, contre-anneau ; 7, couvercle ; 8, roulement à gorge profonde ; 9, graisseur ; 10, arbre ; 11 et 12, circlips ; 13, palier-support ; 14, corps d’aspiration ; 15, disque d’aspiration ; 16, roue ; 17, disque de refoulement.
- Fig. 7. — Pompe de laboratoire Heto PR verticale immergée ( importation ; Équipements Industriels).
- Quelques modèles, destinés à assurer des circulations de fluides thermostatiques, sont conçus pour un fonctionnement vertical, pompe immergée (fig. 7). Sur les pompes non immergées, le problème de l’étanchéité de l’axe porteur du rotor a reçu des solutions très différentes. "
- —• Boîte à étoupe ou garniture mécanique rotative (Salmson PL 10 : étoupe téflon; WP 10 : joint pressé par ressort; Siemens-Plania : joint torique) ;
- — Frottement de deux plans perpendiculaires à l’axe (Prolabo) ;
- — Glissement de deux paliers cylindriques usinés au micron près (Iena GlasSwerk) avec report, en apaont des fuites légères.
- Enfin, la pompe WP 10 Salmson, auto-amorçante, peut être remise en route, après un premier fonctionnement, sans amorçage préalable grâce à l’adjonction d’un volume d’amorçage constituant réserve de liquide (fig. 6).,
- A notre connaissance, quelques séries de pompes connues en séries industrielles n’ont pas été étendues aux utilisations de laboratoire.
- Il en est ainsi des pompes à turbines multiples en série pour pompage sous forte contre-pression (Sihi, Lefi, Bréguet, Essa-Mico, Guinard, etc.) ; ainsi que des groupes étanches monobloc pompe-moteur à rotor chemisé. Dans cette dernière technique (fig. 8), aucun joint d’étanchéité n’existe entre pompe et moteur, mais l’équipement rotatif de ce dernier ainsi que la face en regard du stator baignent dans le liquide pompé et sont chemisés de métal à haute résistance chimique. Enfin, alors que les pompes centrifuges permettent en général le transport de liquides souillés de charges solides de petites dimensions, il ne faut pas s'étonner qu’aucune pompe de laboratoire ne soit munie de turbine à canaux de forte section permettant le passage des corps solides ou des boues qu’il est fré-
- Électro-pompe CM Bréguet sans presse-étoupe, à moteur chemisé.
- 1, tubulure de refoulement ; 2, turbine ; 3, palier de guidage ; 4, chemise de guidage ; 5, 6, enroulement stator et rotor ; 7, 8, chemises stator et rotor ; 9, tubulure de circulation du liquide pompé pour lubrification ; 10, arbre ; 11, palier de guidage ; 12, chemise de guidage ; 13, butée de déplacement axial ; 14, couvercle de palier.
- quemment nécessaire de pomper industriellement, pour les forages pétroliers par exemple.
- Pompes volumétriques. — Alors que dans les pompes centrifuges une force, qui reste du même ordre de grandeur quelles que soient les conditions de fonctionnement, est appliquée par la pompe au liquide et se répartit entre la contre-pression à vaincre et les pertes de charge, dans les pompes volumétriques un volume de liquide est transféré entre l’admission et la sortie en usant de la puissance du moteur par le jeu de cloisons séparatrices. Le débit de liquide, si l’on ne tient pas compte des fuites entre les enceintes à pressions différentes dans la pompe elle-même, reste donc indépendant de la pression à vaincre pour autant que la vitesse de rotation du moteur d’entraînement soit indépendante de la puissance qui lui est demandée.
- Cette constance du débit n’est qu’approchée dans les pompes simplement destinées à fonctionner sous charge très variable (cii'cuits de filtration, par exemple), mais elle est réalisée avec toute la précision possible dans les pompes dites doseuses dont la fonction est d’assurer, dans une unité de production, un apport à débit constant d’un des réactifs qui entrent en jeu.
- Les pompes volumétriques autres que les pompes doseuses restent destinées à assurer la circulation de liquides et non leur apport dosé; nous ne retiendrons donc pour elles qu’une limitation de débit, pour les modèles utilisables au laboratoire, de l’ordre de grandeur de celle que nous avons adoptée pour les pompes centrifuges.
- Plusieurs modèles font appel au déplacement de cloisons déformables réalisées en un élastomère chimiquement inerte, néoprène par exemple. C’est ainsi que les pompes Jabsco Guinard utilisent le jeu des aubes d’un rotor en néoprène (fig. 9) déformées au moment de leur passage près des orifices d’aspi-
- p.43 - vue 47/558
-
-
-
- Fig. 9. — Principe de fonctionnement des pompes Jabsco-Guinard.
- (Schéma Goinard).
- a : En quittant la plaque de compression, l’aube du rotor se détend, créant un vide qui amorce instantanément la pompe.
- b : Par la rotation du rotor, chaque aube transporte un peu de liquide depuis l’aspiration jusqu’au refoulement, c : Quand l’aube rencontre à nouveau la plaque de compression, elle fléchit et chasse le liquide dans l’orifice de refoulement.
- ration et de refoulement, orifices d’ailleurs interchangeables par inversion du sens de rotation.
- Les pompes Moineau font appel à la déformation d’une matrice
- élastique par un rotor de forme hélicoïdale. Les pompes Delasco jouent sur l’écrasement, par une roue à galets, d’un tube déformable dans lequel circule le liquide pompé (fîg. io) ; la simplicité du principe utilisé résolvant tous les problèmes d’action des liquides transportés sur les surfaces en contact et la garniture rotative puisque cette dernière n’existe pas.
- Un cloisonnement réalisé en matériau indéformable est utilisé sur les pompes Mouvex à rotor excentré (fig. n) : un cylindre propulseur A bilangent à un corps de pompe annulaire B reçoit, à l’aide d’un excentrique C, un mouvement d’oscillation
- qui provoque les variations de dimensions des cavités d’aspiration et de refoulement. Le liquide pompé est ainsi transporté entre les orifices d’aspiration (D) et de refoulement (E) découpés en forme de triangles curvilignes sur la base du corps de pompe.
- Tableau IL — Pompes volumétbiques
- Constructeur Modèle Matériau Débit (m3/h) Pression (m d’eau i Vitesse (tr/mn)
- Jabsco-Guinard . AL Bronze o,3o o, i5 3 12 q5o
- 3/8 Bronze, inox ou plastique o,5o 3 95°
- Moineau B 2 O O 0>' O 0 3o i 4oo
- Delasco .... AM 6 0,08 0 160
- fonctionne jusqu’à i4 m d’eau
- ?>
- Fig. 11. — Principe de fonctionnement d’une pompe Mouvex.
- Explications dans le texte.
- Le tableau II résume les caractéristiques de quelques-unes parmi les plus petites de ces pompes et offre un échantillonnage des pompes volumétriques utilisables au laboratoire. Afin de juger de l’influence de la pression de pompage, pour plusieurs deux débits différents ont été indiqués.
- R. Buvet.
- Proposition d’unification du pouce et du millimètre
- Dans la revue Técnica, 1959. n° 290, p. 401, M. J. da Costa Gomes, directeur du Bureau dès Poids et Mesures du Portugal, rappelle la solution qu’il a proposée dès 1956 pour unifier, dans le domaine technologique et de la construction mécanique, les mesures exprimées en pouces et en millimètres. Sur la base de la valeur normalisée 1 inch (pouce) = 25,4 mm exactement, récemment adoptée par les principaux laboratoires métrologiques aiiglo-saxons (La Nature, mai 1959, p. 214), l’auteur note que la fraction 1/254 du pouce est égale à 0,1 mm et il suggère en conséquence d’adopter, pour les dimensions exprimées en mesures métriques, le « dixième de millimètre », et pour celles exprimées en mesures anglo-saxonnes une nouvelle unité, la fraction 1/254 du pouce, qu’il appelle te fraction métrique du pouce (f.m.p.) ». Les relations proposées par M. da Costa Gomes (1 pouce = 2o4 dixièmes de millimètre = 254 f.m.p ; 4 millimètre = 10 f.m.p.) permettraient ainsi d’exprimer les dimensions en pouces par un multiple entier d’une unité métrique, et celles en millimètres par un multiple décimal d’une fraction du pouce.
- Cette proposition d’unification n’apporte toutefois une solution que pour les mesures exprimées' en pouces, mais non pour les autres unités anglo-saxonnes (pied, yard, etc.). Quel que soit l’accueil qui pourrait être réservé à cette proposition dans les milieux intéressés, la seule unification souhaitable reste en définitive celle de l’utilisation des unités métriques par tons les pays.
- p.44 - vue 48/558
-
-
-
- LE CIEL EN FEVRIER I960
- 45
- . SOLEIL : du l°r fév rier au 1er mars (à 0h) sa déclinaison croît de —Ï7°26' à —7°40' et la durée du jour de 9ll21111 à 10hoom ; diamètre apparent le 1er = 32'31",1, le 29 = 32'19",8. — LUNE : Phases : P. G. le 4 à I4h27m, P. L. le 12 à 17»24m, D. Q. le 19 à 231)48m, N. L. le 20 à 18h24m ; apogée le 7 à 6», diamètre apparent 29'30" ; périgée le 23 à 3h, diamètre apparent 32'31". Principales conjonctions : avec Uranus le 12 à 12», à 3°54' S. ; avec Neptune le 18 à 10h, à 1°S6' N. ; avec Jupiter le 22 à 0», à 4°4S' N. ; avec Saturne le 23 à 4h, à 4°26' N. ; avec Mars le 24 à 7h, à 5°14' N. ; avec Vénus le 24 à 13h, à 4°lo' N. ; avec Mercure le 28 à 0h, à 2°32' S. Principales occultations : le 2, de OS Poissons (mag. 5,1) immersion à 20h0m,7 ; le 6, d’Aldébaran (mag. 1,1) immersion à 14h17m,8 et émersion à 15h9m,8 ; le 18, de OS Vierge (mag. 4,3) immersion à 0»47m,3 et émersion à -l»13m,9. — PLANÈTES : Mercure, est étoile du soir dans la seconde moilié du mois, se couche le 18 à ISMO111, soit l»33m après le Soleil ; Vénus, belle étoile du matin visible encore près de 2 heures, se rapproche du Soleil; Mars, pâle étoile du matin, près de Vénus le 17 ; Jupiter, dans le Sagittaire, est étoile du matin, se lève le 18 à 3H5311 ; Saturne, dans le Sagittaire s’observe un peu le matin, près de Vénus le 7 ; Uranus, dans le Lion est observable toute la nuit, en opposition avec le Soleil le S è 19h, le 15 : position : 9»26in et + To035', diamètre app. 4",0 ; Neptune, dans la Balance se lève vers minuit, le 13, position : 14h29m et —12°ol', diamètre app. 2",4. — ÉTOILES VARIA-
- BLES : minima observables d‘Algol (2m,2-3m,3) le 9 à 2»,0, le 11 à 22»,8, le 14 à 19»,7, le 29 à 3»,7 ; minima de p Lyre (3m,4-4m,3) le 9 à 23»,3, le 22 à 21»,6 ; minima de S Balance (4m,8-om,9) le 3 à 6»,0, le 10 à 5h,i6, le 17 à 5»,2, le 24 à 4»,8 ; maximum de R Andromède (5m,0-13m,4) le 14. — TEMPS SIDÉRAL : au méridien de Paris, à 0» (T. U.) : le 1er : 8hoOm13s, le 11 : 9h29m38s, le 21 : 10»9m4s, le 2 mars : 10h48m29s.
- Phénomènes intéressants. — Surveiller l’apparition de taches et de facules à la surface du Soleil. — Du 28 au 4 mars, lumière cendrée de la Lune, le soir. — Observer le 6 en plein jour à la lunette l’occultation d’Aldébaran par la Lune aux heures indiquées. — La planète Uranus dans le Lion est encore à rechercher à la lunette à la position indiquée. — Les planètes Vénus, Mars, Jupiter, Saturne groupées sont observables avant le lever du jour. — On recherchera Mercure à l’œil nu dans le crépuscule après le 15. — Observer et reconnaître les belles constellations d’hiver : le Taureau avec Aldébaran et les Pléiades, Orion avec Bételgeuse, Rigel et la grande nébuleuse, le Cocher avec Capella, les Gémeaux avec Castor et Pollux, le Petit Chien avec Procyon, le Grand Chien avec Sirius.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur. L. Tartois.
- La grippe en 1959
- Le Bulletin de septembre 1959 de l’Institut national de la statistique mentionnait, pour le deuxième trimestre de l’année 1939, un chiffre global de 128 362 décès, en augmentation très sensible sur celui de la période correspondante de 1958, où seulement 118 637 décès avaient été enregistrés. En pourcentage l’augmentation est d’environ 8,2 pour 100.
- 11 est intéressant, bien entendu, de rechercher les causes de décès qui ont prévalu pendant ce trimestre et la constatation qui saute aux yeux est que la grippe a fait 3 620 victimes contre 346 en 1958. Ce décuplement des décès (les chiffres de la morbidité ne nous sont pas connus) suffirait à démontrer l’existence d’une épidémie de grippe : si légère qu’elle soit, cette épidémie a joué un rôle évident dans l’état sanitaire général.
- Ainsi qu’il a été signalé à plusieurs reprises, la recrudescence
- de la grippe s’est accompagnée d’un accroissement très net du nombre des décès survenus pour d’autres causes 35 compartiments sont en augmentation (grippe non comprise) ; 10 compartiments seulement sont en diminution.
- On peut également constater que, géographiquement, les incidences de la grippe sur la mortalité se sont étendues à presque tout le territoire métropolitain. Sur 87 départements, aussi bien à prédominance rurale qu’urbaine, les chiffres de décès excèdent ceux de 1958. Trois départements seulement font exception : l’Aisne, le Haut-Rhin et le territoire de Belfort.
- Les hygiénistes ne manqueront pas de noter, une fois de plus, le rôle relatif de plus en plus important joué par la grippe parmi les maladies infectieuses, ces dernières étant en général en régression continue. G. C.
- LES LIVRES NOUVEAUX
- Le fil d'Ariane ou Variations sur deux thèmes : la fonction linéaire, la fonction exponentielle, par A. Huisman. 1 vol. 15 x 22,5, 212 p., 89 fig., 6 photos hors texte. Wesmael-Charlier, Paris, ISamur, 1959. Prix : 19,50 NF.
- Les mathématiques sont rebutantes pour beaucoup d’esprits parce qu’elles leur paraissent arbitraires et coupées du réel. L’auteur s’est proposé d’en moderniser l’enseignement en l’orientant dés le début vers des applications concrètes. Il part des notions les plus immédiates comme le nombre entier et, après avoir établi les bases essentielles de l’algèbre et de l'analyse, il expose des notions sur les théories les plus modernes : programmes linéaires, recherche opéralionnelle, méthode de libération pour la résolution des systèmes d’équations linéaires, les équations différentielles et aux dérivées partielles, loi de probabilité de Poisson. Le premier prix V (André Yéra) a été décerné à cet ouvrage, accessible aux élèves du niveau de la 2* partie du baccalauréat.
- Cours élémentaire de mathématiques supérieures. Tome III. Calcul intégral et premières applications, par J. Quinet. 2e édition. 1 vol. 16 x 25, 260 p., 176 fig. Dunod, Paris, 1959. Prix : 9,60 NF.
- Premier de trois tomes consacrés au calcul intégral, cet ouvrage traite des procédés classiques d’intégration ainsi que des premières applications du calcul intégral, y compris l’étude et l’utilisation des lignes trigonométriques hyperboliques. Comme dans les tomes précédents, l’auteur a continué selon ses propres termes à a apprendre, expliquer, faire comprendre et montrer les applicalions. » La manière dont
- M. Quinet enseigne les mathématiques est quelque peu différente des manuels classiques mais, à notre avis, la portée didactique de son cours est digne de tous les éloges. 450 exercices et problèmes dont certains sont résolus.
- Analyse de variance et plans d’expérience,
- par Daniel Dugué et Maurice Girault. 1 vol.
- Î4 x 22, 84 p. Dunod, Paris, 1959. Prix :
- 8 NF.
- Après avoir posé le problème général de l’expérimentation scientifique et résumé les résultats utiles du calcul des probabilités, on expose la technique dite d’ « analyse de variance » successivement dans le cas de un, deux et trois facteurs. Ces essais de généralisation conduisent à une question beaucoup plus vaste, celle des plans d’expérience dont les principaux résultats font l’objet d’une étude succincte, mais d’une grande portée. Ces méthodes, qui conduisent à une efficacité plus grande par la planification préalable des expériences, intéressent les domaines les plus variés, de l’agriculture à la psychologie et, par suite, cet ouvrage mérite une large diffusion. Cependant des exemples concrets plus nombreux auraient été bien accueillis ; certains développements gagneraient à être plus détaillés, les lecteurs intéressés par l’analyse de variance appartenant à des branches diverses et n’ayant pas forcément des connaissances mathématiques très approfondies.
- The many body problem (Le problème à
- N corps). Deux tomes réunis en un seul vol.
- 21 x27, 358 et 352 p., nombr. fig. Dunod,
- Paris, 1959. Prix, relié toile sous jaquette :
- 69 NF ; séparément, chaque vol, broché :
- 32 NF.
- Cet ouvrage est le cours, rédigé en anglais, de l’École d’été de Physique théorique des Bouches de l’année 1958. Ce cours, donné par d’éminents physiciens, est consacré au traitement quantique des systèmes comprenant un grand nombre de particules identiques: Il résume de nombreux articles originaux dispersés et, par là, est une précieuse source de références sur ce domaine nouveau de la Physique théorique qui intéresse aussi bien les physiciens du solide que les physiciens nucléaires.
- Aide-Mémoire Dunod : Métrologie appliquée, par M. Denis-Papin et J. Vallot, avec la collaboration de A. Fouillé. 3” édition revue et corrigée. 1 vol. 10 x 15, 404 p., 236 fig. Dunod, Paris, 1959. Prix, relié : 5,80 NF.
- Ce petit ouvrage comporte trois parties consacrées respectivement aux caractères généraux de l’expérimentation, c’est-à-dire aux erreurs, aux approximations et à la sensibilité des appareils, puis aux mesures classiques : longueurs, temps, angles, mesures mécaniques, électriques, magnétiques, thermiques, et à la métrologie électronique moderne. Les annexes renferment de nombreux tableaux très utiles. De nombreux schémas complètent heureusement un texte forcément condensé au maximum.
- Instruments électroniques de mesure, par E. IL W. Banner. Traduit de l’anglais par M. Bouvier et A. Maître. 1 vol. 16 x 25, 494 p., 240 fig. Dunod, Paris, 1959. Prix : relié toile : 54 NF.
- L’auteur a voulu dégager une philosophie d’emploi de l’instrument électronique de mesure et ceci dans les domaines les plus variés de la médecine à la science nucléaire. La lr’ partie
- p.45 - vue 49/558
-
-
-
- 46
- fournit les notions de base : instrument indicateur, appareil détecteur, amplificateur. On rappelle ensuite les caractéristiques des tubes électroniques, des transistors et on analyse quelques circuits de base que Ton retrouve partout comme éléments de construction des instruments électroniques. La 2e partie étudie les instruments eux-mêmes dans leurs domaines respectifs : mesure des grandeurs purement électriques, mesures photoélectriques, mesure des rayonnements, etc. Des exemples d’appareils sont donnés ; la plupart sont fabriqués dans les pays anglo-saxons, ce qui est parfois gênant pour le lecteur français. On regrette aussi que l’auteur n’ait pas fait plus souvent preuve d’esprit critique ; s’il est un domaine qui permet des remarques pertinentes, c’est pourtant bien celui des instruments de mesure. Tel qu’il est cependant l’ouvrage peut rendre des services à tous ceux qui font appel à l’électronique pour leurs mesures.
- La spectrographie infrarouge et les grandeurs moléculaires. Réunions d’études et de mises au point tenues sous la présidence de Louis de Brogue, membre de l’Académie française, Prix Nobel. 1 vol. 16 x 24, 128 p., 28 fig. Éditions de la Revue d’Optiquei Paris,
- 1958. Prix . 12 NF.
- Rédigée par des spécialistes français, cette plaquette rassemble un certain nombre d’études sur une méthode d’investigation de la structure des molécules dont le développement est véritablement exponentiel si l’on pense que d’une trentaine en 1919 dans le monde entier le nombre des spectrographes infrarouges est passé à plus de 3 000. La plupart des exposés ont un caractère théorique. Deux études sont cependant consacrées à l’obtention des spectres infrarouges au delà de 20 microns par l’utilisation de spectrographes à prismes utilisant des matériaux spéciaux et de spectrographes à réseaux. Le niveau général de l’ouvrage est élevé et demande des connaissances mathématiques approfondies.
- Les spectres électroniques en chimie théorique, par G. Sandorfy. Préface de Louis de Brogue. 1 vol. 13,5 x 21,5, 230 p.,
- 121 fig. Éditions de la Revue d'Optiquc, Paris,
- 1959. Prix : 20 NF.
- Les spectres visibles et ultraviolets sont d’un grand intérêt pour le chimiste, théoricien ou expérimentateur. Ils le renseignent sur l’interaction de la lumière et des électrons « chimiques » qui occupent la périphérie des atomes et assurent la liaison des atomes dans la molécule. Mais les calculs qu’ils entraînent paraissent souvent très difficiles et rebutent bien des chercheurs. L'auteur a essayé de faciliter la tâche à ceux qui désirent s’initier à ces calculs. Après quelques généralités, la plus grande partie de l'ouvrage traite de l’évaluation des spectres et développe des problèmes particuliers typiques qui ont été traités par différents auteurs au moyen des méthodes de la mésomérie, des orbitales moléculaires et de l’électron libre. Plusieurs exemples numériques sont donnés afin d’habituer le lecteur avec des calculs dont la difficulté est souvent surfaite. La 3e partie est consacrée aux relations entre les spectres et les propriétés chimiques : théories modernes sur les colorants, réactivité chimique, etc. Excellente initiation aux problèmes de la chimie théorique.
- Caractéristiques des corps chimiques purs et techniques. Dunod, Paris, 1959.
- Les Acides, 42 fiches, 21 x 27, assemblées sous jaquette. Prix : 18 NF.
- Les Phénols, 45 fiches, 21 x 27, assemblées sous jaquette. Prix : 19,60 NF.
- On a rassemblé dans ces faècicules parus dans une série désignée « Caractéristiques des corps chimiques purs et~ techniques », l’ensemble des renseignements concernant les propriétés -physiques et chimiques, leurs origines naturelles ou industrielles, leurs débouchés actuels et leurs applications futures, en les groupant par familles. L’un est consacré aux acides organiques, composés importants, présents dans la nature à l’état d’esters ou d’amides, et qui préparés en général facilement sont à la base de nombreuses synthèses. L'autre se préoccupe des phénols, qui constituent eux aussi des produits intermédiaires très importants.
- Cahiers de synthèse organique. Volume V ;
- Dégradations, par Jean Mathieu et André i Allais, avec la collaboration de J. Valls et P. Poirier. 1 vol. 15,7 x 22,5, 394 p., nom-
- breux tableaux. Masson, Paris, 1959. Prix, broché : 78 NF ; cartonné toile ; 85 NF.
- Le 5° volume de cette série, publiée sous la direction du professeur L. Velluz, est consacré aux dégradations. Deux parties : perte d’un carbone fonctionnel et clivage des chaînes carbonées. Comme dans les précédents volumes, traitant de l’élaboration des structures, un plan rigoureux est respecté, divisant l'exposé en principes, mécanismes électroniques et applications. Contrairement à l’usage les dégradations ne sont pas envisagées comme des méthodes d’étude des structures mais comme de véritables méthodes de synthèse. Une large place a été faite à certaines réactions comme les décarboxylations d’acides du type malonique ou acylacétique, mais bien d’autres dégradations sont analysées : réactions d’Hoffmann, de Curtius, d’Hunsdie-cker, etc. La 2e partie est consacrée aux différents types de scissions : basiques, acides, oxydantes, par transposition et par thermolyse. Bien que les réactions citées soient fort nombreuses et surtout assez différentes, l’unité de l’ouvrage est certaine en rendant l’utilisation aisée et la lecture attrayante.
- Constantes sélectionnées. Pouvoir rotatoire naturel. III. Amino-acides (Tables de constantes et données numériques n° 10), par J.-P. Mathieu, P. Desnuelle et J. RocnE.
- 1 vol. 21 x 27, 62 p. Pergamon Press, Paris, Londres, 1959. Prix : 28 NF.
- Publié sous les auspices de l’Union Internationale de Chimie Pure et Appliquée (U.I.C.P.A.) et du C.N.R.S., cet ouvrage appartient à une série destinée à réunir les pouvoirs rotatoires des composés naturels et dérivés. Les deux premiers volumes de la série ont été consacrés, rappelons-le aux stéroïdes et aux triterpénoïdes. Celui-ci est limité aux acides aminés naturels et tout particulièrement à ceux que l’on rencontre le plus fréquemment au sein des protéines et des peptides. Les pouvoirs rotatoires sont présentés d’après la formule brute par nombre d’atomes de carbone croissant. La formule est suivie du nom conforme aux recommandations de l’U.I.C.P.A. puis, entre parenthèses, du nom systématique emprunté aux règles classiques de la nomenclature de chimie organique. Pour chaque substance sont données la moyenne et les écarts extrêmes des pouvoirs rotatoires relevés dans la littérature, les conditions de la mesure : solvant, concentration, température, longueur d’onde. Index alphabétique. Les études de dispersion rotatoire dont l’intérêt est récent font l’objet d’une mention particulière. Bibliographie complète jusqu’au 1er juillet 1958.
- Les procédés de rectification dans, l’industrie ^ chimique, par A. Paris. 1 vol. 16 x 25, 580 p., ^ 200 fig. Dunod, Paris, 1959. Prix : 86 NF.
- Cet ouvrage a pour but de fournir à l’ingénieur les moyens de résoudre les multiples problèmes que pose la mise au point d’un procédé de rectification jusqu'au stade de la construction exclusivement, celle-ci étant du ressort du spécialiste. La remarquable unité de l’exposé est due au fait que l’auteur n’a jamais perdu de vue les principes qui interviennent dans l’élaboration d'un avant-projet de rectification ; ces principes ont défini le plan de l’ouvrage dans
- A NOS LECTEURS
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6*
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- lequel l’auteur examine successivement les propriétés des mélanges du point de vue de leur possibilité de séparation, les méthodes de calcul des colonnes de rectification continue et discontinue, des colonnes à garnissage, sans oublier l’exploitation et le contrôle des rectifications ainsi que l’économie de leur marche industrielle. Puis, l’auteur étudie les procédés de rectification azéotrophique et de rectification extractive, technique dont le développement est récent et qui a permis la réalisation de séparations considérées autrefois comme très difficiles, voire impossibles. Exemples numériques nombreux et variés ; abondante bibliographie ; index alphabétique.
- De l’Alchimie à la Chimie, par John Read. Traduit de l’anglais par Jacques Brécard. 1 vol. 14 x 22, 285 p., illustrations. Arthème Fayard, Paris, 1959. Prix, cart. : 17,50 NF.
- Cette histoire de l’alchimie et de la naissance de la chimie moderne (l’épanouissement de cette chimie moderne n’est que très succinctement traité), élégamment illustrée, est des plus intéressantes à lire et il convient de souligner l'impartialité de l’auteur quant au mérite des divers savants ; il souligne comme il convient le rôle de Lavoisier et met en lumière, beaucoup plus nettement que d’autres auteurs, les raisons pour lesquelles les devanciers du grand chimiste français n’ont pas su dégager les lois essentielles de la chimie moderne.
- La fatigue des métaux, par R. Gazaud. Préface de A. Caquot. 4e édition entièrement refondue. 1 vol. 15,5 x 24, 592 p., 450 fig. Dunod, Paris, 1959. Prix, relié toile sous jaquette : 69 NF.
- Chaque fois qu’un métal est sollicité par des efforts d’intensité périodiquement variables, un problème de fatigue se pose. La question intéresse les industries les plus diverses. Le présent ouvrage a déjà trouvé un excellent accueil, comme le prouve sa nouvelle réédition et sa traduction en anglais et en espagnol ; il fait le point de nos connaissances sur ce problème à partir des travaux récents parus en France comme à l’étranger. On y trouve notamment exposés les principes grâce auxquels on peut, par un choix convenable des métaux et une étude rationnelle des pièces, construire les machines avec le maximum de sécurité en améliorant la résistance des pièces à la fatigue.
- Ceramic fabrication processes, par W. D; Kin-gery. 1 vol. 21 x 27, xn-235 p., fig. The Technology Press et John Wiley and Sons, New York, 1958. Prix, relié : 9,50 dollars.
- Cet ouvrage très bien présenté réunit à la fois les bases théoriques les plus modernes et la technologie concernant la fabrication des produits céramiques ; vingt-deux spécialistes ont coopéré à sa prépration en présentant les mémoires correspondants à un colloque tenu en juillet 1956, au Massachusetts Institute of Technology.
- Pratique de la mesure et du contrôle dans l’industrie, par J. Burton. Tome II : Tem-pératares, Humidités, Densités. 1 vol. 16 x 25, 408 p., 289 fig. Dunod, Paris, 1959. Prix, relié toile sous jaquette : 46 NF.
- Nous avons déjà présenté le 1er tome consacré aux mesures de pressions de niveaux et de débits. On aborde ici les mesures de températures, les mesures hygrométriques et les mesures de densité et de poids spécifiques. De très nombreuses illustrations facilitent la description des appareils décrits et une trentaine de tableaux complètent cet ouvrage qui constitue un instrument de trvail intéressant pour les laboratoires comme pour les ateliers de fabrication.
- Potassium Symposium, 4® Congrès, Vienne, 1957. 1 vol. 15,5 x 23, 420 p.} fig., pl. en coul. Institut international de la Potasse, Berne, 1959.
- 16 communications présentées au 4° congrès de l’Institut international de la Potasse dont le thème, moins général que ceux des congrès précédents. considérait le rôle du potassium sur les associations de plantes cultivées que constituent les herbages.
- . Les découvertes océanographiques modernes, par Jules Rouen, professeur honoraire, à l’Institut Océanographique, directeur honoraire du Musée océanographique. 1 vol. 14 x 23, 252 p., 22 fig. Payot, Paris, 1959. Prix : 16 NF.
- En 1948 paraissait, dans la même Bibliothè-
- p.46 - vue 50/558
-
-
-
- 47
- l’homme
- avant
- l’écriture
- 50 0.000 ANS DE
- PREHISTOIRE
- sous la direction de A. VARAGNAC
- 2®me vol« de la collection DESTINS DU MONDE br. 5 100 F - rel. 5 850 F
- que scientifique Payot, le 3e volume du Traité d'Océanographie physique du commandant Rouch. Depuis cette publication d'importantes expéditions ont apporté des résultats nouveaux, principalement dans l'exploration des grandes profondeurs. L’Albatross suédois, la Galathaea danoise, le Discovery et le Challenger britanniques, la Calypso française, le Vitiaz soviétique et plusieurs bateaux américains, tous spécialement équipés, ont rivalisé de façon féconde, sans oublier les bathyscaphes. L'ouvrage qui concerne l'océanographie physique, apporte les compléments utiles dans les trois domaines qui faisaient l’objet des trois volumes du Traité : sondages ; eau de mer ; mouvements de la mer. Il expose le perfectionnement des méthodes et les principaux résiultats.
- Guide de travaux pratiques de Zoologie,
- par Paul Brien, professeur à l'Université libre de Bruxelles, membre de l’Académie royale de Belgique, correspondant de l'Institut. 3e édition. 1 vol. 15,5 x 24, 262 p., 164 fig. Masson, Paris ; Desoer, Liège, 1959. Prix : 21 KF.
- Nouvelle édition, quelque peu modifiée, du Guide publié par le professeur A. Lameere. Les exercices présentés ne sauraient remplacer un cours : « ils sont destinés à familiariser les étudiants avec des faits concrets, directement et aisément observables ; à rendre plus accessibles des déductions théoriques et les notions abstraites d'anatomie comparée qu'une méconnaissance des animaux rendrait difficiles et sans portée. » Un choix très soigneux a donc été fait des animaux à étudier dans tous les groupes. Les dessins, d’une parfaite clarté, sont des modèles pour l’étudiant et l’auteur insiste avec raison sur l’importance du dessin qui est l’expression de ce que l’observateur a compris. Quelques conseils sur le maniement et l’entretien de la loupe et du microscope ouvrent cet utile ouvrage, qu’on peut recommander au naturaliste débutant, mais soucieux de vraie science.
- The Hydromedusæ of the Atlantic Océan and adjacent waters, par P. L. Kramp. Danu report, n° 46. 1 vol. 23,5 x 31,5, 283 p., 335 fig., 2 pl. h. t. The Carlsberg Foundation, Copenhague, 1959. Prix : 60 couronnes danoises.
- Étude systématique des espèces de méduses récoltées dans l’Atlantique par le Dana et différents autres navires, suivie d’une révision des hydroméduses se trouvant dans l’Océan Atlantique et les mers voisines, avec une brève description des familles, genres et espèces, accompagnées de tableaux de détermination. Ce travail est complété par une étude des conditions qui expliquent la distribution de ces organismes depuis les régions polaires jusqu'aux tropiques et depuis la surface des mers jusqu’aux eaux les plus profondes.
- Synopsis of the species of Agromyzid leaf-miners described from North America (Diptera), par Kenneth E. Frick. Publ. n° 3407, Yol. 108, U. S. Nat. Muséum. 158 p., 170 fig. Smithsonian Institution, Washington, 1959.
- Étude systématique de l’important groupe des Agromyzides à larves, mineuses, comprenant des tableaux de détermination, de courtes descriptions des espèces et des indications sur la vie de leurs larves. Une liste des plantes-hôtes et des especes qui les attaquent ' terminent ce travail qui traite 15 genres et 206 espèces.
- Répartition des principales espèces inter-cotidales de la côte atlantique française en 1954-1955, par D. J. Crips et E. Fis-gher-Piette. Annales de VInstitut océanographique, nouv. série, t. XXXIV, fasc. 2, 22,5 x 28, pp. 275-388, 21 fig. Masson, Paris, sept. 1959. Prix : 30 NF.
- On sait l’intérêt des études faites de proche en proche le long d’une côte dans le but de suivre les modifications de la faune et de la flore d’une station à une autre. C’est ce travail qu’ont entrepris les auteurs le long des côtes de France* depuis la pointe de la Bretagne, à Tremazan jusqu’à la Bidassoa, étudiant la faune et la flore de 115 stations. Ils passent ainsi en revue les algues, les lichens, les anthozoaires, les échinodermes, les polychètes, les crustacés, les mollusques. Il ne s'agit pas, bien entendu, d'un catalogue complet des espèces habitant ces stations, mais de l’indication des formes les plus abondantes et les plus caractéristiques. Ce n’est pas non plus une simple énumération- des espèces observées, mais une étude détaillée de
- leurs biotopes préférés, de leurs exigences aux conditions du milieu (salure, température, agitation de l’eau), de leur cycle vital et de leur distribution générale en France.
- Poissons marins, par Paul Bougis, sous-directeur de la Station zooîogique de Villefranche-sur-Mer. Tome I ; Généralités, Requins, Races, Clapes, Gades, Poissons plats ; 1 vol.
- 13,5 x 18,5, 202 p., 52 fig. dans le texte, 16 photos, 12 planches en couleurs représentant 52 espèces. Tome II : Perches de mer, Thons, Rascasses, Poissons de récifs, etc. ;
- 1 vol. 13,5 x 18,5, 234 pM 50 fig., 16 photos, 12 pl .en couleurs représentant 62 espèces. N. Boubée, Paris, 1959. Prix, chaque volume : 16,50 NF.
- Cet excellent livre est présenté avec tout le soin qui préside à la publication de la collection des Atlas d’histoire naturelle de N. Boubée. Comme eux, il aura sa place dans la bibliothèque de tout naturaliste, mais il intéressera aussi au plus haut point les pêcheurs. Une lre partie traite de l’anatomie et de la physiologie des poissons, elle tient compte des notions les plus récentes et c’est un bon exposé élémentaire. La 2e partie, la plus étendue, expose la classification des poissons fossiles et actuels, donne une clé des genres dans les principales familles et décrit les espèces les plus courantes ou les plus remarquables. Une 3e partie étudie la biologie (reproduction, croissance, habitat, migrations, modes de pêche qui découlent de ces notions). Dans une 4e partie, collectionneurs et amateurs trouveront tous les conseils utiles et un glossaire des noms locaux français. Les très jolies aquarelles des planches sont dues à M. Charles Y ver.
- Les méthodes en Génétique générale et en Génétique humaine, par Roger Hxjron, professeur à la Faculté des Sciences de Toulouse, et Jacques Ruffié, professeur agrégé à la Faculté de Médecine de Toulouse. Préface de Albert Vandel, de l’Institut. 1 vol. 16,5 x 24,5, 556 p., 79 fig., nombreux tableaux. Masson, Paris, 1959. Prix : 82 NF.
- Cet ouvrage est le fruit d'une heureuse collaboration entre un mathématicien rompu aux études de statistique mais qui est venu, par l'étude des groupes sanguins, à la biologie et à la médecine, et un médecin que sa spécialité a engagé dans les études de génétique et d’anthropologie. Un tiers du volume est consacré à la génétique générale : on y expose, selon les conceptions les plus modernes, la variation et la mutation, les lois mendéliennes de l’hybridation gènes létaux, dominance, polymérie, polyaallc-lie), les bases cytologiques de l’hérédité (chromosomes et gènes, recombïnaison, crossing-over, anomalies chromosomiques), l’hérédité cytoplasmique, enfin des notions de phénogénétique. L'hérédité-chez l’Homme fait l’objet d’une étude plus détaillée. Les difficultés inhérentes à la matière obligent à recourir aux méthodes de la statistique, et les notions mathématiques indîsr pensables sont exposées. Puis un important chapitre est une introduction à la génétique des populations : évolution d’une population dans le cas de la panmixie, puis avec sélection à coefficiences constantes, enfin dans certains cas d’homo-
- gamie ; extinction au hasard des gènes neutres dans une population limitée ; étude des unions entre apparentés. Le dernier chapitre expose des problèmes particuliers de la génétique humaine : transmission d’une tare récessive ; linkage ; applications au « conseil génétique ». Ouvrage très utile au moment où l’on doit souhaiter que les études de génétique se développent dans notre pays.
- Voici l'Homme (Hérédité et Civilisation), par Jacques Lecomte. 1 vol. 15,5 x 21, 176 p., 10 photos hors texte. Collection Découvertes. Marne, Pai’is, 1959. Prix : 9,60 NF.
- L’exemple des « enfants-loups » et quelques autres brièvement analysés dans ce livre montrent toute l’importance de l’éducation, de F « acquis » dans le comportement et le développement humain, beaucoup plus que chez l’animal où il n’est toutefois pas négligeable. L’hérédité a sa part ; le cas des jumeaux vrais permet souvent de la délimiter. Quelle est celle de la race, du sexe, des âges de la vie, telles sont encore les questions qui se posent. L’auteur croit à une influence prépondérante de l’éducation, ce qui lui permet d’être optimiste quant à l'avenir de l’homme.
- Rapport géologique 77 : Région de la
- rivière Madeleine, district électoral de Gaspé-Nord, par H. W. McGerrigle. 1 vol. 16x24,
- 54 p., 8 pl., 1 carte géol. Ministère des Mines, Québec, 1959.
- Description d’une zone sédimentaire de terrains paléozoïques, allant de l’Ordovicien au Dévonien moyen ou supérieur, située dans la partie nord de la péninsule de Gaspé. Géologie générale, stratigraphie, tectonique et ressources minérales. L’ensemble, affecté par des plissements compliqués, appartient à la chaîne des Appalaches. Présence d’un important gisement de cuivre dans les grès calcareux du canton de Holland, en liaison avec une intrusion de rhyolite.
- Atlas général Larousse. 1 vol. • 21 x 20, 456 p., 431 cartes et cartons en couleurs, 183 plans et sites urbains, 250 tableaux statistiques et 30 notices historiques, index de
- 55 000 noms. Larousse, Paris, 1959. Prix, relié : 75 NF.
- Nous avons ici même trop souvent déploré la carence des éditeurs français en matière d’atlas pour ne point saluer comme il se doit la publication de celui-ci, réalisé avec la collaboration des meilleurs spécialistes. Remarquable de clarté et de lisibilité, il comporte aussi bien des cartes historiques que géographiques et économiques. Des cartes totalement nouvelles en France seront les bienvenues (Rhin, Histoire de la Scandinavie, invasions asiatiques...). D’autres seront précieuses aux professeurs, notamment les cartes économiques. Enfin, les notices historiques et les statistiques constituent une mine de renseignements extrêmement utiles, et à jour. Ouvrage capable de rivaliser avec les atlas similaires allemands ou américains.
- Guide Nage! Tchécoslovaquie. 1 vol. 11 x 16, 300 p., 1 carte et 1 plan en couleurs, 10 cartes
- p.47 - vue 51/558
-
-
-
- 48
- MMGRÊ DtS MIUIERS D’HERBES ^VIES PLUS PUISSANTS DU MONDE
- fil
- 30 RUE ST AUGUSTIN PARIS V OPÉ. 68-45
- ÉLECTRIQUE
- et plans en noir. Nagel, Genève et Paris, 1959. Prix, relié : 19 NF.
- Aucun guide touristique n’existait à ce jour sur la Tchécoslovaquie, dont l’importance dans ce domaine est cependant considérable : le récent congrès à Prague des agences de voyages mondiales le prouve. A un moment où se développent les échanges Est-Ouest et où le tourisme occidental à destination des pays de l'Est grandit dans de fortes proportions, cet ouvrage sera le bienvenu. Il apporte de plus de très utiles renseignements de tous ordres, géographiques, artistiques, historiques*.. Les plans, notamment de Prague, rendront de réels services. IL serait souhaitable de disposer de telles encyclopédies-miniatures sur tous les Etats du monde.
- 9
- Les Bois. Caractéristiques, usinage, utilisations diverses, par F. Deslandes et L. Vanden-berghe. Collection « Technologie du bois ». 1 vol. 16 x 25, 366 p., 95 fig. Eyrolles, Paris, 1959. Prix, relié : 45 NF.
- Après avoir indiqué les caractéristiques du bois, la classification des bois et les principes de l'exploitation forestière, les auteurs insistent sur l’outillage mécanique moderne qui est apparu depuis peu dans cette industrie très ancienne, alors que le bois connaissait de plus en plus la concurrence de matériaux nouveaux : métaux légers et matières plastiques. En passant en revue la charpente, la menuiserie, la parquet-terie et l’ébénisterie, ils examinent les utilisations diverses du bois. Théorique et pratique (les auteurs n’ont pas omis d’insister sur la prévention des accidents de travail dans cette industrie), l’ouvrage intéressera spécialement ceux qui utilisent des machines à bois. En dehors de nombreuses figures, une centaine de photographies de machines illustrent cet ouvrage.
- Exposé sommaire des progrès de l'Industrie minière de la province de Québec pendant l'année 19S8, par Edgar-E. Bérubé. 1 vol. 16 x 24, 11 p. Ministère des Mines, Québec, 1959.
- En 1958 la production minérale, d'une valeur d’environ 400 millions de dollars, accuse une baisse sensible par rapport à l’année précédente. Elle affecte surtout le fer, exploité principalement au Labrador, le molybdène, i'ilmc-nite et l’asbeste. Un gisement de nickel et de cuivre a été reconnu au nord du lac Ghibouga-mau et d'autres, de cuivre et de zinc, paraissant importants, au voisinage du lac Mattagami.
- Phénomènes de médiumnité, par Robert Toc-quet. 1 vol. 12 x 19, 140 p., illuslr. Collection « Bilan du Mystère ». Grasset, Paris, 1959. Prix : 4,50 NF.
- « Les mouvements d’objets sans contact, la lévitation du corps humain, les fantômes sont-ils observables en laboratoire ? » Pour répondre à celte question, l’auteur expose les résultats qu'il juge « les plus sûrs » et donne en contrepartie un bon exposé de tous les truquages. Mais, les « résultats » n’étant garantis que par des témoignages individuels et limités, on ne voit pas sur quoi se fonde la conviction qu’ils n’étaient pas, eux aussi, truqués. Hypothèse moins hardie que celle d’une dérogation aux lois physiques les mieux établies...
- Writing and publishing your technical book.
- 1 vol. 15 x 22,5, 50 p. F. W. Dodge Corporation, New York, 1959.
- Une grande maison d’édition américaine a eu l'excellente idée de réunir dans une plaquette (envoyée gracieusement sur simple demande) les connaissances et conseils indispensables à qui projette de composer un ouvrage technique, ce
- qualificatif devant s’entendre de façon très large et n’excluant guère que l’œuvre d’imagination. Choix de l’éditeur, rédaction de pages spécimens ou du manuscrit, contrat, ne sont que quelques-unes des questions passées en revue. Bien que destinées à des Américains, les suggestions formulées ici demeurent assez générales pour rendre des services signalés hors des Etats-Unis. Ajoutons que la lecture de ces pages n'est jamais ennuyeuse et qu’il s’y glisse même parfois une pointe d’humour.
- T. H. Huxley, Scîentist, Humanist and Edu-cator, par Cyril Bibby. 1 vol. 14,5 x 22, xxn-330 p., 1 frontispice, 12 planches hors texte. Watts, Londres, 1959. Prix, relié : 25 sh.
- Ce panégyrique extrêmement documenté intéressera vivement tous ceux qui portent intérêt à l’histoire du scientisme et à la querelle du matérialisme dans la seconde moitié du xix6 siècle. L’un des mérites de cet ouvrage est de restaurer une personnalité de T. H. Huxley, plus nuancée, plus diverse que celle que voulaient en donner ses adversaires.
- Souffrances de bêtes- Traduit du roumain par Léon Thévenin et Radon Vlàdicesco. 1 vol. 14 x 18, 206 p. Librairie académique Perrin, Paris, 1958. Prix : 6,75 NF.
- Les traducteurs ont réuni un choix de nouvelles d’écrivains roumains « avec l’intention de faire passer sous les veux du lecteur quelques beaux paysages de Roumanie, puis de lui révéler l’aspect, moins, divulgué peut-être, de cette inclination passionnée, de cette sympathie souffrante, que presque tous les romanciers ou poètes de ce pays éprouvent pour les choses de la nature, pour les petits êtres de la forêt, de la plaine, de la montagne et de la mer ». Nouvelles d’inspiration très variée, allant du réalisme teinté de poésie à l’imagination pure, parfois amusantes, souvent émouvantes.
- L'atome pour ou contre l’Homme. Préface de Louis Leprince-R:ngüet, de l’Institut. Introduction de D. Dübarle, professeur , à l’Institut catholique de Paris. 1 vol. 13,5 x 21,5, 356 p., 10 photos hors texte. Éditions Pax Christi, Paris, 1958. Diffusé par Casterman, Paris. Prix : 12,50 NF.
- Le développement de l’énergie nucléaire pose à l’humanité de graves problèmes techniques et moraux. Des catholiques ont voulu constituer un dossier qui permette à chacun de se faire une idée lucide et complète de la question, qui comme l’établit le R. P. Dubarle, ne saurait être tranchée par le simple sentiment, ni sur des considérations politiques ou techniques. Il faut d’abord être informé ; c’est à quoi vise la lre partie : données scientifiques et réalisations techniques (F. Russo) ; radioisotopes (J. Moretti) ; armes nucléaires (J. Bussac) ; danger des radiations (F. Russo). La 2e partie analyse les réactions de la conscience mondiale (J. de Broucker) ; la 3° présente la réflexion ihéologique et morale (R. P. de Soi’as). La 4e réunit une abondante documentation sur les positions prises : autorités catholiques, savants, hommes politiques, etc.
- Chirurgiens de la planète, par Pierre Gauroy. 1 vol. 15 x 21, 182 p. Hachette, Paris, 1959. Prix : 7,50 NF.
- Pierre Gauroy s’est proposé d'abord de présenter un tableau des travaux les plus importants par lesquels l’homme a déjà, en tant d’endroits, modifié la face de la Terre : vallée du Tennessee, Panama, Suez, polders de Hollande, canal du Saint-Laurent, grands barrages qui créent ou
- vont créer des lacs et des mers, gigantesques travaux qui sont entrepris ou vont l’être en Sibérie... Puis l’auteur envisage les « espoirs », plus audacieux encore. La « mer des Cholts », pense-t-il, est pour demain et l’eau ira jusqu’au cœur des grands déserts. Pétroliers et paquebots feront-ils escale sous les murs de Jérusalem ? Verra-t-on l’iceberg porte-avions et l’Antarctique tenant lieu de frigidaire ? Et un jour ne voudra-t-on « tout simplement » redresser l’axe de la Terre ? Mais, comme dit P. Gauroy, à chaque jour suffit sa peine !
- L'Homme dans l'harmonie universelle, par
- André Lamouciie. 1 vol. 14 x 22,5, 242 p. La Colombe, Paris, 1958. Prix : 9,80 NF.
- Ingénieur général du Génie maritime, président des Forges et Chantiers de la Méditerranée, l’auteur s’est efforcé d’abord « d’élucider l’énigme que soulève l'aptitude des mathématiques à la traduction des phénomènes physiques ». Il a été amené à mettre en relief le rôle déterminant du « principe de simplicité » qu’il a cherché à étendre clés sciences physiques à la biologie et la psychologie (La théorie harmonique, 1955-1957). M. Lamouche s’efforce ici de présenter un résumé des prévisions que la théorie harmonique peut fournir sur l’avenir de l’homme et de la civilisation.
- Nouvelles aventures au Kalahari, par François Balsan. 1 vol. 14 x 20, 240 p., cartes et photos hors texte. Plon, Paris, 1959. Prix, broché : 9,90 NF.
- On connaît l’infatigable explorateur qu’est François Balsan : Arabie inconnue, Kurdistan, Iran, Beloutchistan l'ont tour à tour accueilli. Mais son terrain de chasse préféré, c’est le désert sud-africain du Kalahari, refuge des Bos-chimans. Celte peuplade de race plus jaune que noire pose des problèmes non encore résolus. Avec une jeep et un seul compagnon, Balsan s'est avancé au cœur du désert, qu’il a traversé selon un itinéraire totalement nouveau. Puis il s’est avancé seul, avec quelques Noirs, vers la région herbeuse et forestière des confins de l'Angola, où une population primitive pratique encore des rites étranges. Enfin il est revenu par une navigation originale à travers des marais inconnus, au paysage « de Polynésie d'Afrique ». Livre passionnant, bien écrit, bien illustré.
- Trois safaris, par Pierre Weité. 1 vol. 13,5 x 18,5, 148 p., 9 photos de l’auteur. Crépin-Leblond, Paris, 1959. Prix, broché : 9 NF.
- Récit, à travers jungles et savanes, de trois expéditions de chasse en Afrique équatoriale. Essentiellement chasse à l’éléphant, mais aussi chasse aux antilopes et aux buffles. Style vivant et alerte, maison regrette l’absence de notes plus complètes relatives à l’ethnographie ou à la végétation.
- Le Carillon, par Jacqueline Goguet. 1 vol. 12 x 19, 128 p., ill. h. t. Éditions Le Cerf-Volant, Paris, 1958. Dépositaire : Librairie Cosmos, 9, rue de Moscoü, Paris-8e. Prix, broché : 7 NF.
- Très intéressant ouvrage relatant l’histoire du carillon, des origines à nos jours. Un appendice cite les grands carillonneurs de l’histoire de la musique. Deux chapitres étudient respectivement les carillons de France et du monde. Un petit livre utile, que l’on reste étonné de n'avoir pas vu publier plus tôt dans notre pays.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Photographies aériennes. Liste sur demande. Joindre deux timbres.
- AÉRO-PHOTO, 19, rue de Sévigné, Paris.
- Le gérant : F. Dunod. — dunod, éditeur, paris- — dépôt légal : i€r trimestre i960, n° 3528. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 4o33, — I-I960.
- p.48 - vue 52/558
-
-
-
- N° 3298
- Février I960
- LA NATURE
- LA PATAGONIE CHILIENNE
- La Patagonie englobe' les vastes solitudes de l’extrême Sud de l’Amérique, que se partagent très inégalement l’Argentine et le Chili, la part de ce dernier pays étant la plus restreinte, mais en même temps la plus grandiose et variée. La limite nord de la Patagonie manque de précision. Les Argentins, en ce qui les concerne, la font débuter, au point de vue climatique, vers les sources du rio Neuquen et le long du rio Negro, ce qui correspond, du côté chilien, au cours du Biobio. A l’aridité des Andes situées plus au Nord, succèdent effectivement, vers 37°-38° lat. Sud, les Andes Australes humides et boisées, recevant des pluies copieuses amenées par les vents d’Ouest. La limite des neiges persistantes, très élevée jusque-là, s’abaisse brusquement ici à 2 5oo m.
- Si l’on se fonde sur des faits morphologiques, c’est, en réalité, vers le 4ie parallèle qu’il' convient de faire débuter la Patagonie chilienne, au point où le continent, qui offrait jusque-là une côte massive, commence à se disloquer et à se
- fragmenter en une infinité d’îles et d’archipels, séparés par tout un système complexe de canaux et de fjords s’enfonçant profondément dans les terres. Plusieurs d’entre eux pénètrent au cœur de la Cordillère et certains la traversent complètement dans le Sud, comme les senos d’Ultima Esperanza, où les eaux du Pacifique s’avancent jusqu’à Puerto Natales, à 20 km seulement de l’Argentine, ou encore les senos Skyring et Otway qui s’achèvent dans la pampa, tandis que le Détroit de Magellan et le Canal du Beagle unissent directement le Pacifique à l’Atlantique.
- Cet effritement récent du continent s’est accompagné de la disparition sous l’océan de la Vallée centrale, jardin et grenier du Chili, à laquelle se substitue au Sud de Puerto Montt un golfe qui se poursuit, sous des noms divers, sur 5oo km, allant en s’amincissant, pour s’achever par un fjord sans issue se coinçant dans l’isthme d’Ofqui, racine de la grande péninsule de Tailao, encore si peu connue.
- p.49 - vue 53/558
-
-
-
- Fig. 2. — L’été austral à 1000 m (île NaVarino).
- Ligne de partage pluviométrique
- qi de Chacao Ancud
- PROVV Cast|
- SE ,DE I
- CHILOÉ J
- CHILOÉ È
- Forêts pluvieuses
- •pv:i Forêts transandines ____ demi-sèches
- Grands glaciers
- il Steppes
- Principales 2ones habitées
- ARCHIPEL ^ DES CHONOS\^,|
- Champs de pétrole
- Limite d'Etats
- Routes
- Cq Pén'Pde ^ Taitao
- •C.Cothrojxe
- lslme d'OfQ0' G. de Penas I
- lëjizzq,
- IlesMadre^
- deDios
- I.GuarelIO'K^'
- -aCruz
- L.Argentino
- B a h i a
- l.DiegoAlmagroj
- Grande
- C.Virgenes
- irero
- TERRE
- [Ushuaia
- i£-du--:r-s
- psat»
- ^>^I.NAVARINO
- ^ I.HO
- C.Horn
- Si l’on s’en tient enfin aux limites administratives, la Patagonie chilienne s’étend sur près de quinze degrés de latitude, entre le Canal de Chacao (4i°3o/ Sud) et le Cap Horn (56° Sud), et comprend les trois provinces de Chiloé, Aisén et Magellan. Elles occupent ensemble une superficie de 25o ooo km2, soit à peu près le tiers du pays, avec quelque 220 000 habitants sur les 7 millions que compte le Chili.
- Un territoire s’étirant du Nord au Sud sur plus de 1 5oo km offre évidemment des aspects fort divers. Entre la grande île de Chiloé, très peuplée, cultivée, couverte de champs et de vergers, ignorant pour ainsi dire la neige et les gelées, évoquant parfois la Normandie, et certaines îles du Sud, comme Gordon, Idoste et d’autres, nues, désertes et comptant de puissants glaciers, l’opposition est frappante. Elle l’est davantage encore entre, la forêt pluvieuse australe, perpétuellement verte et d’une luxuriance toute tropicale, et l’aridité des steppes, situées respectivement à l’Ouest et à l’Est de la Cordillère, celle-ci jouant le rôle d’un écran climatique.
- Les Andes de Patagonie, beaucoup plus étroites que celles du Nord, sont également moins élevées, leur point culminant, le mont San Valentin, à l’Ouest du lac de Buenos Aires, n’atteignant que 4 o58 m, la plupart des autres sommets notables se maintenant entre 2 5oo et 3 5o0' m et ayant même une altitude inférieure tout à fait dans le Sud (fig. 4 et 5). La chaîne présente d’ailleurs ici d’autres particularités. Plus de structures Nord-Sud, si caractéristiques de sa partie nord, mais des chaînons et des massifs irréguliers, souvent aussi, là où dominent les granodiorites, une infinité de hautes bosses escarpées, bien individualisées, toutes très semblables et à de rares exceptions près de même élévation (fig. 5). Ces divers reliefs sont séparés par des systèmes de vallées . transversales, traversant la Cordillère du Pacifique aux plateaux de Patagonie suivant deux directions principales, NW-SE d’une part et de l’autre NE-SW. On chercherait vainement ici une ligne franche de partage des eaux, coïncidant avec une ligne.dg crête médiane, beaucoup de rivières qui se jettent dans le Pacifique ayant leurs sources situées à l’Est des Andes qu’elles franchissent dans des coupures étroites et des gorges encaissées. Cette hydrographie complexe des Andes de Patagonie a suscité, comme on sait, de nombreux différends de frontière entre le Chili et l’Argentine.
- La structure géologique des Andes Australes est encore assez mal connue et d’importantes sections, tant sur le continent que sur les îles de l’Ouest, n’ont jamais été étudiées. Les plaines de la partie orientale de la province de Magellan, où les terrains sont moins bouleversés, ont été le lieu de recherches plus poussées du fait de leurs gisements de pétrole et de lignite.
- Le socle métamorphique, présumé précambrien, a une extension, importante, mais encore mal précisée. Les sédiments datés, les plus anciens, correspondent à des calcaires à Fusulines du Carbonifère supérieur, localement très marmorisés, bien représentés dans les îles Madré de Dios et Diego de Almagro (Magellan). On a donné le nom de Série porphyrique à des épanchements de rhyolite, localement d’andésite, venus au jour entre le Jurassique et le Néocomien (fig. 6). Vient ensuite une puissante série (Buckland) de dépôts marins du Crétacé inférieur, comprenant des schistes argileux noirs passant vers le haut à des grès arkosiques. Ces couches, contenant à la base des radiolaires, atteignent un grand développement sur le versant oriental des Andes (Magellan), en Terre de Feu et à Navarino.
- . Le Crétacé supérieur occupe une aire importante dans le Nord-Est du département d’Ultima Esperanza (Magellan), où existe une puissante série de conglomérats, passant à des niveaux gréseux et schisteux au sommet.
- Le Tertiaire, beaucoup moins disloqué que les formations mésozoïques, et très développé dans les collines et les plaines de l’Est de la province de Magellan, débute par une importante série de schistes marins, suivis par des grès qui deviennent
- Fig. 3. — Carte de la Patagonie chilienne.
- p.50 - vue 54/558
-
-
-
- Fig. 4 et 5 (en haut).
- — Dans les Andes de Patagonie.
- A gauche : la Cordillère de Paine (2 400 m) avec quelques reliefs granitiques pointus sur la droite ; vue prise par 51° Sud, à 800 m, vers la limite supérieure de la végétation.
- A droite : Sommets de 2 000 m dans le Nord de la province d’Àisén ; morphologie caractéristique des massifs de dio-riLe ; un ancien cirque glaciaire est occupé par un lac et un névé.
- Fig. 6 (ci-contre). —
- Relief rhyolitique dominant Coyhaique dans la zone transari-dine de la province d’Aisén.
- (Photos
- E. ÀUBEIVT DE LA RÜE).
- continentaux à leur partie supérieure, où ils renferment d’épaisses couches de lignite.
- Les dépôts les plus récents sont des matériaux glaciaires et Iluvio-glaciaires qui proviennent de la destruction des Andes; ils se sont largement étalés sur les parties basses de toute la Patagonie, aussi bien à l’Ouest, comme dans l’île de Chiloé, qu’à l’Est, où ils atteignent une épaisseur de 3oo m, par endroits, en Terre de Feu.
- La surrection des Andes, qui débuta entre l’Albien et le Sénonien, a été marquée par l’intrusion d’un gigantesque batholite de granodiorile (Diorile andine), donnant lieu à des phénomènes de métamorphisme et à la formation de gîtes métallifères de contact.
- Diverses séries volcaniques ont marqué le Tertiaire en différentes parties de la Patagonie. Cette activité s’est prolongée,
- atténuée, au Quaternaire et dure encore localement en quelques points. D’importants cônes assoupis, certains encapuchonnés de glace, se dressent dans la partie continentale de Chiloé eL d’Aisén, devenant très rares plus au sud, où ils sont encore mal identifiés d’ailleurs. On a signalé un centre éruptif, en action il y a une quinzaine d’années, au voisinage du lac San Martin, parmi les grandes étendues glacées du Nord de la province de Magellan. Le volcan le plus austral des Andes, le mont Burney (i 585 m), en éruption en 19x0, est situé sur la péninsule Munoz Gamero. Il faut mentionner enfin les minuscules cônes de scories basaltiques,, aujourd’hui inactifs, qui jalonnent la frontière chiléno-argentine au nord du Détroit de Magellan. Il est probable que les Patagons primitifs ont encore vu fumer les plus l'écents d’entre eux.
- Les Andes ont été totalement soumises aux effets de la gla-
- p.51 - vue 55/558
-
-
-
- Fig. 7 et 8. — A gauche : Glacier Italia (Terre de Feu), plongeant dans le Canal du Beagle. — A droite : Glacier de la Colonia sur le versant oriental des Andes Australes (province d’Aisén), par 47° Sud (Photos E. Albert ue i,a Rüe).
- dation pléistocène à partir de la latitude de 4i° Sud. Ce qui subsiste de cette glaciation demeure encore très considérable au sud du 46e parallèle. On sait que vers cette latitude le glacier de San Rafael descend jusqu’au niveau de la mer. Hors de Patagonie, on ne connaît aucun fait semblable sur toute la surface du globe, sous une latitude comparable, si ce n’est aux îles Kerguelen, mais tout de meme par 49°3o' Sud.
- Le fait qu’entre la lagune de San Rafael et le Canal du Beagle un très grand nombre de glaciers plongent dans les fjords du Pacifique à l’Ouest et dans les grands lacs de l’Est, situés entre 200 et 35o m d’altitude, tient aux précipitations neigeuses exceptionnellement fortes que reçoivent les hauts reliefs andins tout au long de l’année (fig. 7 et 8). La limite des neiges persistantes est variable, toujours supérieure de quelques centaines de mètres à l’est où le climat est plus sec. Elle est, en moyenne, de 2 000 m dans le Nord de la Patagonie et tombe à 800-1 ooo' m en Terre de Feu.
- La Patagonie est loin d’offrir un climat uniforme et des différences , notables s’observent, d’une part entre le Nord et le Sud, et d’autres, nettement plus accusées, entre l’Ouest et l’Est; souvent à de courtes distances, du fait de l’obstacle montagneux des Andes. Les climats des diverses parties du territoire ont cependant entre eux quelques traits communs, tels que l’instabilité du temps, la persistance et la violence des vents d’ouest, une forte nébulosité, des étés manquant de chaleur et des hivers sans rigueur, sauf localement et pour de brèves périodes.
- Il y a lieu de distinguer trois zones climatiques principales. A l’ouest, les îles côtières et le versant pacifique des Andes sont soumis à des conditions typiquement océaniques : températures très uniformes, faibles amplitudes thermiques, précipitations abondantes et humidité considérable. Entre l’île de Chiloé et la région du Cap Horn, l’abaissement de la température moyenne est peu sensible malgré l’écart de latitude. La température annuelle d’Ancud (42° Sud) est de n°, celles de Puerto Àisén (45°3o' Sud) de 8,5°, et de G.uarello (5o°20/ Sud) de 6°. Cette dernière station, dont le climat est caractéristique de la zone des Canaux du Sud de la Patagonie, a pour moyenne estivale 8°, celle de l’hiver étant de + 4°. Les températures extrêmes observées à Guarello sont respectivement de — 4° et + s3°.
- Les précipitations, toujours très fortes, augmentent généralement du nord au sud et sont assez variables d’une année à l’autre. Ancud reçoit en moyenne 2 5oo mm, Puerto Aisén 3 000 mm, Guarello, qui semble battre tous les records, avec 3oo jours de pluie, a un total compris entre 6 000 et 9 000 mm. Plus au sud, à l’entrée du Détroit de Magellan, le phare des Evangelistas n’accuse pourtant que 3 5oo mm. Il est à présumer que sur les hauteurs de la Cordillère l’importance des précipitations augmente considérablement pour que de telles accumulations de neige et de glace puissent persister en dépit de la douceur relative du climat, provoquant l’été une fusion intense dont témoignent l’abondance et le débit des cours d’eau qui en descendent.
- Le climat devient beaucoup plus continental aussitôt à l’est des plus hauts reliefs andins, avec des précipitations très diminuées, des amplitudes thermiques et une insolation plus fortes. Dans cette zone montagneuse transandine, le thermomètre dépasse assez souvent 20° l’été, même très au sud. En décembre, je l’ai vu monter plusieurs jours de suite à 25° à l’ombre au pied du Cerro Paine. En revanche, la température peut descendre à — 20° et même — 25° certains hivers. Punta Arenas, à l’est de la Cordillère, mais où l’influence de la mer se fait sentir du fait de la proximité du Détroit de Magellan, a une moyenne de n° l’été et 2,6° l’hiver, avec des extrêmes absolus de l’ordre de — 8° et + 20°.
- Le long de cette zone transandine les précipitations varient suivant les points entre 5oo mm et 1 000 mm. Goyhaiqué (45°3o' Sud), encore dans les montagnes, reçoit près de 1 000 mm et Punta Arenas, à la limite de là steppe, 58o mm, le Canal du Beagle, dans sa section orientale, entre 5ôo et x 000 mm (Ushuaia et Puerto Williams).
- Un troisième type de olimat, aride et à caractère continental accentué, est celui des steppes de Patagonie. Les températures sont proches de celles qui viennent d’être citées à propos de la zone transandine, avec toutefois des extrêmes absolus plus accentués, des étés plus chauds et des hivers plus froids. On enregistre parfois ici des périodes de sécheresse prolongées. En hiver, l’enneigement, sauf exceptions, est modéré et irrégulier par suite du peu d’importance des précipitations, comprises entre 5oo mm et 2Ôo mm dans les secteurs les plus arides,
- p.52 - vue 56/558
-
-
-
- 53
- Fig. 9 et 10. — Dans le Canal du Beagle.
- A gauche, glaçons à la dérive dans le bras Nord-Ouest. A droite, partie orientale du Canal, vue de l'île Navarino ; au loin, les hauteurs de la
- Terre de Feu (Argentine) (Photos E. Aubert de la Rue).
- comme la région de Punta Delgada, voisine de l’entrée orientale du Détroit de Magellan. On doit tenir compte également d’une très forte évaporation, due à une plus grande insolation et aux effets desséchants des vents violents qui tombent de la Cordillère et ont souvent un caractère de fœhn, d’où la douceur relative de diverses régions proches du pied des montagnes et des possibilités de cultures intéressantes là où l’irrigation est possible.
- Si l’effet réfrigérant du Courant de Humboldt se fait sentir dans le Nord de la Patagonie, vers l’île de Chiloé, il n’en est plus de même au sud, où l’afflux des eaux tièdes du Pacifique, qui sont à une température normale pour la latitude, n’eX'ërce
- qu’une action régulatrice sur la température. En aucun point de la côte, sauf parfois dans de petites anses très abritées, la mer ne gèle. Les glaces flottantes, peu dangei’euses en général, que l’on rencontre dans divers fjords, proviennent des fronts de glaciers qui s’écroulent dans la mer (fig. 9). Plus périlleux pour la navigation dans les canaux sont les violents courants de marée et les bourrasques de neige, qui interceptent toute visibilité et ont causé tant de naufrages.
- Aux trois zones climatiques indiquées correspondent autant de domaines écologiques différents. Ce sont, de l’ouest à l’est : a) le domaine côtier et andin de la forêt hygrophile. australe à feuilles persistantes; b) la forêt orientale semi-humide de
- p.53 - vue 57/558
-
-
-
- 54
- Nothofagus à feuilles caduques; c) la zone aride des steppes ou de la Pampa de Patagonie, avec une végétation xérophyte.
- La forêt dense et humide de la côte, riche en espèces, où divers Nothofagus occupent une grande place, est formée d’arbres élevés, souvent très droits, chargés de mousses et d’épi-phytes, notamment de Broméliacées du genre Greigia, de lianes, avec généralement un sous-bois impénétrable de Bambous (Chus-quea quila) et, le long des cours d’eau, une profusion de Gunnera, Haloragidacée aux feuilles immenses qui s’avance jusqu’au 48e parallèle (fig. xi).
- L’allure de cette forêt tempérée australe évoque beaucoup la forêt tropicale humide. Elle débute déjà vers 37°-38° de latitude, s’élevant jusque vers i 5oo m d’altitude et se poursuit, toujours aussi luxuriante, jusqu’au sud du golfe de Penas. Elle cède parfois la place, dans les parties marécageuses des îles côtières, depuis le Sud de Chiloé jusqu’aux îles Ghonos', à des peuplements de Cyprès (Libocedrus tetragona), aujourd’hui en grande partie incendiés, mais dont les troncs demeurent toutefois utilisables et sont exploités pour fournir en poteaux de clôture les estancias de l’Argentine. Ce Cyprès est le Conifère le plus méridional du Chili et de toute la Terre. On en trouve encore des représentants isolés et de petite taille dans l’Ouest de l’archipel de la Terre de Feu, par 54° Sud.
- Au Sud du 48e parallèle, la forêt australe s’appauvrit en espèces et se réduit souvent à des lambeaux épars, là où elle peut se maintenir, sur les côtes et les pentes, les plus exposées aux tempêtes (fîg. i3). Etrillés par de perpétuelles bourrasques, les arbres sont fortement inclinés, privés de branches à l’ouest et leurs cimes curieusement étalées et nivelées. De grandes surfaces, délavées par les pluies, demeurent rocheuses et nues. Dans les lieux plus abrités, les arbres sont néanmoins d’une taille normale et le sous-bois extrêmement touffu, avec de belles fougères et un sol moussu, continuellement détrempé et spongieux. Aux approches du Cap Ilorn, la forêt fuégienne humide compte encore cinq ou six espèces d’ai'bres et quatre fois autant d’arbustes et de buissons.
- La forêt transandine à Hêtres antarctiques à feuilles caduques (Nothofagus pumilio, N. antarctica), plus homogène et moins dense que la précédente, au sous-bois peu embarrassé, d’où son nom de monte limpio, a souvent la physionomie d’une forêt-parc. Elle est extrêmement vulnérable au feu et
- Fig-, 13. — Tempête d’ouest dans
- le Canal Ballenero, au sud de la Terre de Feu.
- Lambeau de forêt hygrophile à feuilles persistantes sur les pentes de l’île Burnt. (Photo E. A-Ubert de la Rue).
- d’immenses étendues boisées, que l’on peut évaluer à plusieurs dizaines de milliers de kilomètres carrés, ont été délibérément détruites pour étendre les pâturages. Vers sa limite occidentale, où le climat est plus humide, on voit se mêler aux Hêtres à feuilles caduques une dizaine d’arbres à feuilles persistantes, caractéristiques de la forêt pluvieuse de l’Ouest. Ce sont, entre autres, Nothofagus betuloides (fig. i4), Maytenus " magellanicus, Embo-thrium coccineum aux fleurs d’un rouge éclatant. Drimys Winteri, une Magnoliacée très droite à fleurs blanches et à écorce aromatique, Berberis ilicifolia, etc. Cette forêt mixte s’observe notamment sur les collines boisées en retrait de Punta Arenas, en Terre de Feu et à la périphérie de l’île Navarino.
- Dans le Nord de la Patagonie, la forêt de Hêtres antarctiques s’élève, dans les endroits favorables, jusqu’à i 800-2 000 m, ne dépassant pas 700-800 m dans le Nord de la province de Magellan. En Terre de Feu et à Navarino sa limite supérieure se situe vers 5oo m d’altitude, cédant alors la place à une forêt naine, extraordinairement enchevêtrée à force d’être malmenée par le vent, uniquement formée par une forme rampante de Nothofagus pumilio (figure de la couverture). Cette lisière forestière supérieure, ensevelie sous la neige pendant plusieurs mois d’hiver, ne dépasse pas, dans l’extrême Sud, l’altitude de 55o-6oo m.
- Le nom de matorral est parfois donné, en Patagonie, à une forme de végétation secondaire, qui s’est substituée à la forêt transandine détruite et non convertie en steppe. Elle est carac-
- Fig. 14. — Un Hêtre à feuilles persistantes, Nothofagus betuloides, incliné par le vent dans la lande de l’île Lennox (55° Sud).
- p.54 - vue 58/558
-
-
-
- térisée par des buissons et arbustes épineux associés à une nouvelle pousse de Nothofagus, habituellement chétifs et maladifs.
- On emploie souvent, en Patagonie, le terme de pampa, qui désigne cependant des associations herbacées d’un type très différent de celles de la pampa véritable du centre de l’Argentine, à propos des steppes entièrement privées d’arbres, auxquels s’opposent la rareté des pluies et la violence du vent, succédant à la forêt transandine et constituant la végétation typique des plateaux et des plaines de la Patagonie orientale. Ce sont souvent de vastes étendues beiges et monotones de coirôn (Fes-tuca sp.), Graminées courtes et dures qui constituent un bon fourrage. L’élevage du mouton, datant de 1876, a, d’une façon générale, profondément modifié la composition primitive de la steppe, du fait de l’introduction fortuite ou délibérée de diverses plantes herbacées ou buissonnantes, les unes utiles, comme le Trèfle blanc, les autres nuisibles, tels ces buissons épineux de Berberis (calafate), au contact desquels les moutons laissent continuellement des touffes de laine, et diverses plantes envahissantes, des Composées, des Verbénacées, confondues sous le nom de mata negra. D’autre part, des plantes indigènes intéressantes ont fini par être à peu près totalement éliminées, remplacées par des espèces autochtones sans valeur nutritive et néfastes à cause de leurs graines adhérentes qui détériorent la laine, comme VAcæna adscendens.
- Deux autres types de végétation jouent également un rôle, mais limité. Il s’agit, d’une part, des tourbières à Sphaignes, les seules clairières naturelles de la grande forêt, occupant beaucoup de parties déprimées et mal drainées. Très différente est cette formation végétale, qualifiée parfois de toundra australe, située à la limite supérieure de la forêt et qui s’abaisse progressivement de 2 000 m dans le Nord à 600 m dans le Sud, constituant le dernier étage altitudinal de végétation, d’une hauteur d’environ 200 m, précédant les névés et les espaces à peu près stériles de roches anguleuses éclatées par le gel, lieux de divers phénomènes de solifluxion. Le terme de toundra est équivoque, en ce sens qu’il implique normalement l’existence d’un sous-sol gelé en permanence, qui semble faire ici défaut un peu partout, du moins à l’altitude à laquelle se rencontrent les dernières plantes. Cette végétation de montagne est, en fait,
- assez comparable à celle de la puna des hautes Andes tropicales, avec ses Ombellifères en coussinets (Azorella, Bolax), ses Saxifrages, ses Composées laineuses, etc.
- *
- * *
- Longtemps très isolée, moins depuis que des lignes aériennes la relient fréquemment avec Santiago, la Patagonie soulève depuis peu un vif intérêt. Le gouvernement du Chili envisage la réalisation d’un vaste projet intéressant le développement de son domaine austral et voudrait, avec le concours de l’Assistance technique et du Fonds spécial des Nations Unies, établir l’inventaire de ses ressources naturelles pour les exploiter méthodiquement et intégrer ce territoire assez délaissé à la vie économique du pays.
- La production de la laine et du mouton frigorifié, destinés principalement à l’Angleterre, demeure toujours le fondement de l’économie de la Patagonie chilienne. Elle peut espérer réussir à élever, dans sa part de pampa, quelque cinq millions d’ovins, surtout si certaines tentatives d’amélioration de pâturages, par l’introduction de plantes fourragères étrangères, donnent les résultats escomptés. L’élevage des bêtes à cornes, plus récent, se développe surtout dans le Nord de la Patagonie où des prairies sont aménagées dans ce but aux dépens de la forêt humide. Des difficultés de transport et l’absence d’entrepôts frigorifiques freinent pour le moment cette activité.
- L’industrie forestière a devant elle un bel avenir, surtout dans les deux provinces de Chiloé et d’Aisén. Magellan, plus pauvre en espèces, a néanmoins des boisements importants, en partie utilisables, et de petites scieries exploitent actuellement la forêt fuégienne jusque sur les rives du Canal du Beagle (fig. i5). Il est urgent, toutefois, si l’on veut préserver cette richesse nationale pour l’exploiter rationnellement, de mettre un terme aux incendies de forêt, délibérément allumés en vue de hâter les défrichements (fig. xG), et que le vent propage rapidement au loin, sur des pentes qui n’ont souvent aucune vocation pastorale. Ainsi sont inutilement détruits, sans profit pour personne, d’immenses boisements et est ouverte la voie à une érosion redoutable.
- p.55 - vue 59/558
-
-
-
- 56
- Le relief et le climat limitent considérablement les possibilités agricoles, mais celles-ci sont cependant loin d’être tout à fait négligeables. En dehors de l’île de Chiloé, qui a une vocation agricole évidente, où les botanistes situent l’origine de la pomme de terre, qui est, avec le blé et l’avoine, la principale culture des insulaires, il ne peut être question que d’une agriculture uniquement destinée à satisfaire des besoins locaux. Même envisagée ainsi, elle mérite d’être développée. En prenant les précautions nécessaires (irrigation dans certains cas, emploi de brise-vent), on parvient à obtenir, jusque dans le Sud de la Terre de Feu, des jardins potagers très honorables.
- Les côtes déchiquetées de la Patagonie ont été fréquentées dans le passé par de nombreuses expéditions de chasse aux mammifères marins, oi’ganisées par des Américains, souvent avec le concours d’équipages chilotes (ainsi nomme-t-on les insulaires, métissés d’Indien et d’Espagnol, de l’île de Chiloé). Baleines et Éléphants de mer étaient recherchés, de même que les Manchots, pour leur graisse, les Otaries (Otaria jubata) et surtout VArctocephalus australis (Lobo de dos pelos), de même que les Loutres (Lutra felina) l’étaient pour leur fourrure. Deux siècles d’hécatombes les ont en grande partie exterminés.
- On pourrait penser qu’un tel labyrinthe de canaux et d’îles, s’étendant sur i 5oo km, représente une aire de pêche très fréquentée. Il n’en est rien, en dehors de rares secteurs dont la production est d’ailleurs fort limitée. La pêche est avant tout l’affaire des Chilotes, qui la pratiquent surtout autour de leur gi'ande île. Plus qu’au poisson, capturé pour leur propre consommation, ils s’intéressent spécialement aux mariscos, fruits de mer représentés par une douzaine d’espèces de Mollusques, Crustacés et Échinides, très prisés dans tout le Chili et qui constituaient autrefois l’alimentation essentielle des Indiens nomades de la mer, des îles Chonos au Cap Ilorn, comme en témoignent les prodigieux amas de coquillages (conchales) amoncelés autour de leurs campements le long des côtes. Un certain nombre de petites usines, se limitant souvent à une activité saisonnière, sont disséminées le long des côtes de Patagonie et préparent des conserves de choros et de cholgas, deux espèces de moules qui sont également séchées et fumées. Un gros Crustacé, qui rappelle un peu une araignée de mer, la centolla (Lithodes antarctica), abondante dans les canaux du Sud, est spécialement recherché de novembre à janvier autour de la Terre de Feu. Mentionnons également les huîtres de la province de Chiloé.
- Fig. 17. — Albatros (Diomedea
- chrysostoma) nichant parmi les touffes de tussock sur l’île Gonxalo (Diego Ramirez).
- Pour être plus productive, la pêche demanderait à être organisée sur des bases scientifiques, nécessitant des recherches de biologie mai'ine qui ont fait totalement défaut jusqu’à présent, spécialement en ce qui concerne les migrations des poissons pélagiques et la répartition des fonds intéressants.
- Les ressources du sous-sol, encore fort peu connues, sont cependant celles sur quoi l’on fonde les plus grands espoirs.
- Une brève ruée vers l’or a eu lieu vers la fin du siècle dernier, en Terre de Feu principalement et en quelques autres points de la Patagonie, mais les résultats prometteurs du début se montrèrent assez vite décevants. Plusieùrs sociétés investirent des capitaux importants dans ces recherches et amenèrent de puissantes dragues qui achèvent de rouiller en divers points du territoire. Seuls de rares orpailleurs sont encore à l’œuvre aujourd’hui.
- La récente découverte du pétrole en Terre de Feu est d’une autre importance. Elle eut lieu le 29 décembre ig45 au Cerro Manantiales, à 2 44o m de profondeur, dans les grès de Spring-hill (Jurassique). Les réserves connues sont estimées à 100 millions de tonnes et la production annuelle atteint 885 000 t (1958), couvrant environ 60 pour 100 des besoins du Chili à l’exclusion des huiles et de l’essence d’avion. Les recherches se poursuivent en divers points de la province de Magellan et ont révélé également, en fin 1958, la présence du pétrole sur le continent, à Punta Delgada, sur la rive nord du Détroit. Ajoutons que la Patagonie renferme aussi d’énormes réserves de gaz naturel.
- Des dépôts de lignite, d’une qualité moyenne, mais d’une importance considérable, sont connus dans cette même province, spécialement autour de Punta Arenas et de Puerto Natales où ils sont exploités sur une petite échelle pour les besoins locaux. Les réserves seraient, dit-on, de l’ordre de 3 milliards et demi de tonnes et l’on envisage l’utilisation de ce charbon comme matière première pour une industrie chimique ou la fabrication du caoutchouc synthétique.
- On a de bonnes raisons de penser que les riches minéralisations métallifères en relation avec les grandes intrusions de diorite du Nord du Chili se prolongent dans les Andes Australes. Des minerais de plomb, zinc et cuivre sont exploités déjà avec succès autour du lac de Buenos Aires et connus également en de nombreux autres points de la province d’Aisén (Bios Nirehuao et Manihuales, lacs Cochrane, San Martin, etc.). Des indices de ces mêmes métaux sont nombreux aussi dans la province de Magellan.
- Plus que toute autre région du Chili, la zone australe est d’une richesse considérable en énergie hydroélectrique potentielle, tant ses cours d’eau sont abondants, puissants et rapides. Un district d’un intérêt tout spécial, en raison de sa position géographique, est celui qui s’étend au fond du fjord Baker (48° Sud), où débouche le fleuve du même nom, émissaire du lac de Buenos Aires. L’équipement de ses chutes et celles des rios Bravo et Pascua, qui aboutissent au même bras de mer, fournirait plusieurs millions de kilowatts. Une telle source d’énergie, si bien placée, trouverait aisément son emploi, pour peu
- p.56 - vue 60/558
-
-
-
- 57
- Fig. 18. — Débarquement sur l’île Gonzalo ( groupe des Diego Ramirez) dans la mer de Drahe, à 100 km au sud du Cap Horn.
- (Photos E. Aubert de la Rue).
- que d’heureuses prospections mettent en évidence des substances minérales en quantités importantes, susceptibles d’être traitées sur place pour alimenter une industrie électro-chimique ou métallurgique.
- Deux cents ans d’expéditions de chasse aux Mammifères marins et cent ans de colonisation ont suffi à faire à peu près complètement disparaître les premiers et à transformer, pour ne pas dire dévaster, une grande partie de la Patagonie chilienne. Nulle part ailleurs, sans doute, aussi peu de monde n’est parvenu, en si peu de temps, à modifier aussi profondément la physionomie d’une telle étendue de territoire. Les dévastations de la forêt australe, par le feu, dépassent tout ce que l’on peut concevoir et j’ai été témoin, récemment encore,
- d’embrasements de forêts qui se succédaient d’un bout à l’autre de la Patagonie, de Chiloé aux approches du Cap Horn !
- L’élimination inconsidérée de vastes étendues forestières, en vue de l’extension des steppes et de la création de prairies artificielles dans les zones pluvieuses, aboutit souvent aussi à la dénudation totale et irrémédiable de grands espaces sur les pentes des Andes. Les steppes primitives de l’Est ont eu, elles-mêmes, leur composition floristique profondément modifiée depuis l’expansion prise par l’élevage du mouton. A l’île de Chiloé, lieu de vieille colonisation remontant à la conquête espagnole, la végétation autochtone, sauf dans les forêts reculées de l’Ouest, a été à peu près radicalement éliminée au bénéfice de plantes introduites. Les magnifiques et puissants alerces {Fitzroya patagonica), qui atteignaient là leur limite australe, ont disparu jusqu’au dernier. Le feu et une exploitation excessive des Cyprès des îles Ghonos menacent dangereusement aussi ces Conifères.
- La faune terrestre disparaît de même. Ainsi, le Guanaco (Lama glama huanacus), qui formait encore de grands troupeaux au début de ce siècle, se raréfie rapidement, bien que protégé, les jeunes étant toujours très recherchés pour leur fourrure. L’Autruche de Patagonie ou Nandu de Darwin (Rhea pennata), dont la chasse est également prohibée, est en diminution marquée par suite de la récolte continuelle de ses œufs, très appréciés des gardiens de moulons.
- Plusieurs animaux sont activement recherchés pour leur fourrure-, ainsi le chingue ou Skunk de Patagonie {Conepalus Humboldti), le « Lièvre » de Patagonie (Dolichiotis patagonica), le Chat sauvage (Lynchalinurus pajeros), etc. D’autres espèces ont été introduites avec plus ou moins de bonheur, comme le Chevreuil, le Rat musqué en Terre de Feu, le Lièvre d’Europe, qui a rapidement envahi le Sud du Chili à l’Est des Andes, devenant très commun dans les environs de Punta Arenas, sans cependant commettre de sérieux dommages. Il n’en a pas été de même de notre Lapin, dont les
- déprédations furent redoutables, surtout en Terre de Feu. Jusque vers 1940, ce rongeur n’existait là qu’en nombre restreint, mais il se mit à pulluler de façon effarante dans les années qui suivirent, mettant en péril les pâturages des moutons. On en est finalement venu à bout grâce à la myxomatose, mais déjà quelques souches résistantes réapparaissent par endroits.
- En dehors de certaines espèces menacées, comme le Nandu, et les Oies sauvages, ces dernières encore nombreuses mais accusées par les éleveurs de porter gravement préjudice à leurs moutons en dévorant trop d’herbe, les oiseaux de toutes sortes demeurent innombrables dans toute la Patagonie. Oiseaux de mer le long des côtes, Perroquets et autres dans les forêts, Cygnes à col noir, Flamants, Alouettes, Bandurias et Canards autour des lacs et des étangs.
- Les nouveaux occupants de la Patagonie, venus au cours du xixe siècle, et les chasseurs de phoques qui les précédèrent n’ont pas seulement à leur actif de tristes dévastations forestières et la disparition d’une grande partie de la faune, ils sont également responsables de l’extinction des populations autochtones amérindiennes de ce territoire. Les Tehuelçhes de la Patagonie continentale ont cessé d’exister. Les Alakalufs des archipels de l’Ouest sont à peine quelques dizaines, les purs Yamanas ou Yahgans, dont l’aire s’étendait du Canal du Beagle au Cap Horn, sont une douzaine à peine, établis à Mejillones sur l’île Navarino, et les Onas de la Terre de Feu moins encore. La disparition de ces indigènes aura été une page sans gloire écrite dans l’histoire de la Patagonie par les nouveaux venus. Les uns à coups de fusil, les autres moins délibérément, mais avec autant d’efficacité par l’alcool, en imposant le port des vêtements, en détruisant la vie sociale de ces populations primitives ou en introduisant des maladies épidémiques dont elles avaient été préservées jusqu’alors, ont rapidement anéanti les peuplades nomades de la pampa et des archipels de Patagonie.
- E. Aubert de la Rue
- p.57 - vue 61/558
-
-
-
- 58 Une optique révolutionnaire :
- L’optique à fibres
- Une tige souple de verre qui conduit les images comme un tube conduit l’eau
- Sx l’on croit la légende, le héros gaumais (1) connu sous le nom de « Djean de Mâdv » (2) possédait un fusil dont le canon était courbé, ce qui, dit-on, lui permettait de tirer dans les « tournants »...
- Cette fois, il ne s’agit plus de légende ni de plaisanterie, mais de la réalisation et de l’utilisation effectives d’une nouvelle arme, non militaire, mais scientifique : la vision à l’aide de faisceaux de fibres de verre flexibles ! De même que l’eau coulant dans un tube de caoutchouc ou de substance plastique peut être conduite par une voie courbe et que son jet peut être orienté à volonté par l’utilisateur, les rayons lumineux pénétrant par l’une des extrémités d’une tige de verre courbée sont capables, sous certaines conditions, de suivre cette tige et de sortir par l’autre extrémité.
- Cette simple image, visant à familiariser avec le phénomène nouveau, nécessite quelques précisions. Il y a longtemps déjà, le physicien belge Plateau avait songé à utiliser la particularité optique suivante : la lumière qui pénètre par l’une des extrémités d’une tige de verre est incapable de s’en échapper latéralement du fait qu’elle y subit une réflexion totale interne; en fin de compte, elle ressort par l’autre extrémité. Pour les besoins de certaines expériences qu’il entreprenait, Plateau se servait de fibi'es de verre courbes comme auxiliaires d’investigation, ce qui lui permettait de regarder le déroulement de phénomènes en des endroits difficilement accessibles par vision directe ou par des dispositifs optiques habituels.
- La question a fait bien du chemin depuis lors. Les étonnants progi'ès acquis dans certaines bi-anches de la technique ont incité des chercheurs à recourir à la curieuse optique dont le principe vient d’être décrit; à force de méditations, de tâtonnements et d’essais pratiques, ces chercheurs sont arrivés à de curieux résultats dont l’intérêt est tel qu’il doit être porté à la connaissance non seulement d’utilisateurs éventuels, mais des pei'sonnes cultivées.
- Dès qu’apparurent les possibilités d’emploi de la nouvelle optique, des brevets furent pris : un, par l’Anglais J. L. Baird, en 1927, et un autre par l’Américain C. W. Hansen, en ig3o. Des travaux furent aussi publiés sur le même sujet par l’Allemand H. Lamm, en 1980, par le Hollandais A. C. Van Heel, en 1953 et ig54, etc. Actuellement, la bibliographie sur cette matière est déjà longue.
- Pour éviter de nous étendre trop longuement, contentons-nous de présenter un aperçu de l’état actuel de la question.
- Un rayon lumineux, tombant sous un angle d’incidence i sur la face constituant l’une des extrémités d’une tige de verre, est réfracté dans celle-ci sous un angle de réfraction r puis réfléchi sous un angle h un grand nombre de fois sur les parois internes de la tige et ainsi finalement conduit vers la face constituant l’autre extrémité de ladite tige, d’où il émerge sous un angle d’émersion égal à l’angle d’incidence primitif, en vertu de la possibilité dè réversibilité du rayon lumineux
- (fig- 0-
- Le processus optique envisagé est le même dans une tige de verre de très petit diamètre; la seule différence réside dans l’augmentation du nombre de réflexions totales internes.
- En réalité, le diamètre de la tige utilisée peut être réduit
- 1. Gaume : région occidentale de la Lorraine Belge.
- 2. Jean de Montmédy (département de la Meuse).
- Gaine c/e verre Fibre de verre
- Rayon lumineux incident
- Fig- 1- — Trajet suivi par un rayon lumineux cheminant, d’après le principe de la réflexion totale, à l’intérieur d’une fibre de verre entourée d'une gaine de verre d’indice de réfraction moindre que celui
- de la fibre.
- jusqu’à 5 à 10 [x et être comparable à la longueur d’onde de la lumière; une tige de verre aussi mince est appelée fibre. Dans une fibre de 5o p. (o,o5 mm), le nombre de réflexions totales internes est de l’ordre de 100 par centimètre.
- De telles fibres ne constituent toutefois chacune qu’un élément optique : elles sont placées l’une contre l’autre et rassemblées en un faisceau compact, offrant ainsi un aspect analogue à celui d’un groupe de nombreuses tiges fines de graminées formant la tige d’un bouquet.
- Une précaution supplémentaire doit être prise. En effet, lorsque les fibres régulièrement disposées en un faisceau deviennent très fines, il y a risque de fuite d’une certaine quantité de lumière de l’une à l’autre. Pour éviter cet inconvénient, chacune d’elles est entourée d’un manchon de matière trans-
- Fig. 2. — Microphotographie de l’extrémité d’un faisceau* de fibres de verre.
- Lorsque les fibres très fines de verre, entourées d’une mince gaine également de verre, mais d’indice de réfraction quelque peu plus faible, sont fondues ensemble de manière à former un faisceau compact, elles sont fortement pressées les unes contre les autres et leur section transversale offre l’aspect d’un hexagone ou d’un pentagone. En dépit de cette déformation, la transmission de la lumière n’est pas affectée. Si l’image est quelque peu dégradée, cela est simplement dû aux dimensions des fibres et au défaut d’alignement de celles-ci, ainsi qu’il ressort de cette microphotographie. Les fibres ont ici un diamètre moyen de 0,075 mm.
- p.58 - vue 62/558
-
-
-
- 59
- Fig. 3. — Un périscope d’un nouveau genre.
- Km cours de la 5' Conférence de la Commission internationale d’Optique, réunie du 24 au 30 août 1959 à Stockholm, une exposition a présenté les diverses possibilités actuelles de l’optique à fibres. On voit ici, dans la cour de l’Institut royal de Technologie de Stockholm, le professeur J. Verhaege, de l’Université de Gand, président du Comité beige d’Optique, contemplant à l’aide d’un « fibrescope » le paysage situé derrière lui. Il put aussi examiner lui-même l’intérieur de son oreille. L’appareil peut être plié de n’importe quelle façon sans que les images en soient affectées.
- parente dont l’indice de réfraction est quelque peu plus faible que celui de la libre même (une différence aussi minime que i,i pour ioo suffit). Chaque fibre est ainsi isolée dans son manchon protecteur. Le faisceau de fibres ainsi constitué s’appelle un faisceau de fibres enrobées.
- Comment fonctionne un tel dispositif P Toute image examinée par un bout du faisceau est décomposée en autant d’élé-
- Inents qu’il y a de fibres, qui se chargent de transmettre la lumière desdits éléments à l’autre extrémité; si la disposition des fibres est la même à l’émergence qu’à l’incidence, c’est-à-dire aux deux bouts du faisceau, il est clair que celui-ci donnera une reproduction sans distorsion et non brouillée de l’image examinée.
- Quelles sont les matières premières employées dans l’optique à fibres ? Il va de soi que l’on a songé à utiliser les matières plastiques transparentes, mais en général leur structure insuffisamment homogène les rend impropres à une transmission à travers des longueurs assez importantes. Il a été constaté qu’en définitive c’est le verre optique qui, en raison de sa transparence cristalline et de sa constitution fine, sans bulles et sans défauts, est le mieux approprié tant pour les fibres que pour leurs petites gaines protectrices.
- Les fibres couramment utilisées ont 5o p. de diamètre et elles ont l’avantage de pouvoir servir à la constitution de faisceaux flexibles. Des fibres plus fines sont moins robustes et leur arrangement offre plus de difficultés : on en fabrique néanmoins, mais alors pour réaliser des faisceaux non flexibles. Enfin, des fibres plus grosses que 5o p. en diamètre sont également employées.
- Fig. 4. — Agrandissement ou réduction des images.
- Des fibres de verre notablement plus grosses à l’une de leurs extrémités qu’à l’autre peuvent être fondues en un bloc offrant l’aspect d’un faisceau effilé, lequel peut servir comme dispositif d’agrandissement ou de rapetissement. La lettre N apparaissant ici sur la petite face est réduite dans le rapport de 5 fois (en diamètre).
- Fig. 5. — Fibrescope flexible.
- La lentille photographique montée à l’une des extrémités d’un faisceau de fibres de verre engendre une image qui peut être examinée à l’aide d’un oculaire placé à l’autre extrémité. Le faisceau, entouré d’une gaine protectrice en matière plastique, a 1 m de longueur ; il comporte 60 000 fibres de verre et sa section transversale a une surface de 1,6 cm2.
- L'optique à fibres est déjà assez développée. Des machines et un outillage importants sont mis en œuvre. L’expérience en la matière est en pleine expansion.
- Quelques applications. — Une loupe à bon marché.
- — Il est temps que nous indiquions quelques applications dans ce domaine nouveau. Voici l’une des plus simples. Il est possible de fabriquer des fibres dont le diamètre diminue progressivement sur toute leur longueur. L’assemblage de pareilles fibres en un faisceau effilé, dont les faces extrêmes sont aplanies et polies, se présente sous la forme d’une sorte de tronc de cône pouvant non seulement servir à concentrer ou à disperser la lumière, mais aussi convenir comme dispositif d’agrandissement ou de rapetissement des images (fig. 4). D’où la possibilité d’emploi d’une loupe à bon marché, susceptible d’être utilisée dans des cas appropriés. D’autres aspects sont plus importants.
- p.59 - vue 63/558
-
-
-
- 60
- Fig. 6. — Optique à fibres en photographie.
- Un objectif auquel correspond une surface focale courbe offre certains avantages optiques, ruais une photographie prise sur un film plan à l’aide d’un tel objectif apparaît floue (à gauche). Si l’on fait intervenir, comme intermédiaire, un faisceau de fibres de verre dont l’une des extrémités est taillée et polie de façon à épouser la surface focale courbe de l’objectif, tandis que l’autre extrémité est parfaitement rendue plane de manière à s’appliquer sur la pellicule sensible, on obtient une image bien meilleure
- (à droite).
- Images plus petites mais plus lumineuses. — Imaginons que la lentille d’une caméra projette une image sur la grande face d’un faisceau de fibres optiques effilé; il apparaîtra à l’autre face, la plus petite, une image réduite, mais plus lumineuse. On conçoit tout de suite l’importance d’un tel appareillage pour la prise de certaines vues aériennes, par exemple. Dès lors, on ne s’étonnera pas d’apprendre que la Compagnie américaine d’Optique s’occupe actuellement de semblables réalisations sous les auspices du Laboratoire de* reconnaissance aérienne de l’Armée de l’Air américaine.
- Fibrescope flexible ; endoscope. — Un faisceau de fibres optiques flexible peut sei'vir à constituer ce que l’on appelle un « fibrescope flexible ». Il suffit que l’une des extrémités du faisceau soit pourvue d’une lentille chargée de produire une image sur cette extrémité et que l’observateur examine l’image transmise à l’autre extrémité, munie d’un oculaire agrandissant cette image. Un tel fibrescope, dont le faisceau de fibres flexibles est entouré d’une gaine protectrice en matière plastique et est pourvu de ses deux pièces optiques terminales, est montré par les figures 3 et 5. Des appareils construits d’après le même principe peuvent servir d’ « endoscopes » aux fins d’examen à l’intérieur du corps humain.
- Brouillage, codage et décodage des images. — U est
- possible de donner aux fibres flexibles d’un faisceau une disposition de sortie différente de la disposition d’entrée; en d’autres termes, si, à l’une des extrémités, l’arrangement des fibres correspond à un certain ordre, à un certain modèle, il est permis de procéder à un arrangement selon un autre modèle à l’autre extrémité. La configuration peut même y être complètement arbitraire et, dans ce cas, l’image captée à l’entrée doit apparaître, à la sortie, tout à fait déformée, « brouillée ». Voilà un dispositif de brouillage optique assez inattendu, ou simplement un moyen de codage intéressant, car on ne pourra procéder au décodage que si l’on possède un faisceau de fibres flexibles identique, mais utilisé à l’envers du précédent pour reconstituer l’image déformée ! Sans aller aussi loin que la production d’un brouillage, voici une application astronomique susceptible d’être importante : si les fibres flexibles du faisceau sont disposées, à l’entrée, selon une configuration circulaire de façon à assurer la réception de la lumière provenant d’une étoile, on aura la faculté de placer les fibres de la face
- de sortie selon un petit segment de droite couvrant la fente d’un spectrographe.
- Les fibres optiques en photographie. — L’optique à fibres peut intervenir avantageusement en photographie. On sait que l’ütilisation d’un objectif possédant une surface focale courbe offre certains avantages au point de vue optique. Toutefois, si à l’aide d’un tel objectif, une photographie est prise sur un film plan, l’image ne sera pas bien au point dans toutes ses parties. Pour remédier à cet inconvénient, il est possible de se servir d’un faisceau de fibres de verre comme intermédiaire « redresseur » : il suffit de tailler et de polir l’une des faces du faisceau de façon qu’elle épouse la forme courbe de la surface focale, tandis que l’autre face sera plane et correspondra au plan de la pellicule sensible réceptrice. La figure 6 illustre les résultats obtenus par ce procédé.
- Emploi dans les tubes à rayons cathodiques. — La plus importante application de l’optique à fibres de verre est probablement celle qui en est faite aux tubes à rayons cathodiques. Bien souvent, il convient de photographier les images qui, au cours de mesures ou d’investigations, sont engendrées sur les écrans de pareils tubes. La documentation ainsi constituée est utile, soit comme telle, soit pour le besoin d’études ou de confrontations ultérieures. Le procédé classique consiste à photographier l’écran phosphorescent (dont la face est interne) à l’aide d’une caméra munie d’un objectif. Mais si la face du tube à rayons cathodiques est constituée de faisceaux, fondus ensemble, de fibres de verre perpendiculaires à la surface réceptrice, il est possible de procéder à la photographie sur film simplement par contact : le film reçoit environ 20 fois plus de lumière que par l’intermédiaire d’une lentille, ce qui est particulièrement efficient (fig. 7).
- Phosphore
- faisceau de fibres /de verre
- Phosphore
- Fig. 7. — Optique à fibres associée à un tube à rayons cathodiques.
- Dans un tube à rayons cathodiques classique (TRC), la couche de phosphore sur laquelle le signal est formé se trouve sur la face interne du tube. Habituellement, la photographie d’une image qui apparaît sur cette face interne est effectuée grâce à un système de lentilles (figure du haut). Si la partie terminale (appelée vulgairement écran) du tube à rayons cathodiques est fabriquée à l’aide d’un faisceau de 100 000 fibres de verre et que la face interne courbe de ce faisceau est recouverte de phosphore, tandis que la face externe est aplanie, il est possible de photographier par contact l’image qui apparaît sur l’écran. L’efficacité optique de ce second système est supérieure, car environ 20 fois plus de lumière parvient sur le film (figure du bas) (D’après le Dr Kapany).
- p.60 - vue 64/558
-
-
-
- 61
- Fibres multiples ; avenir de l’optique à libres de verre. — L’optique à fibres se développe. Il reste maints problèmes à traiter et maintes difficultés à vaincre. Le nerf optique
- Fig. S. — Faces de tubes à vide, constituées à l’aide de faisceaux de fibres de verre et permettant une vision nette.
- Celle du centre donne une image à l’échelle 1 ; celle de gauche fournit une image quelque peu plus petite, tandis que celle de droite agrandit. L’épaisseur de ces trois pièces est de 2 cm.
- de l’œil humain possède environ un million d’éléments-images,, un écran de télévision habituel en a environ 275 000. Or, les faisceaux de fibres flexibles ne contiennent guère que 35 000 fibres simples. Pour augmenter ce nombre, on a eu recours à un autre système de fabrication : des fibres simples, d’un diamètre de 2 p. et trop fragiles pour pouvoir être enrobées séparément, sont groupées et entourées d’une gaine de verre de plus faible indice de réfraction de façon à former un ensemble rigide appelé « fibre multiple ». Les fibres multiples servant à leur tour d’éléments constitutifs, il en résulte un gain appréciable de pouvoir de résolution (100 à 200 lignes par millimètre) en sorte qu’une place d’avenir peut être réservée à l’optique à fibres de verre, appelée à intervenir dans beaucoup de systèxïies optiques de haute précision et à offrir vraisemblablement certaines possibilités révolutionnaires.
- Nous sommes redevables au Dr W. Lewis Ilyde, de l’Ame-rican Optical Company, à Southbridge (Massachusetts), de la documentation qui nous a servi de base pour cet article ainsi que de certaines photos qui l’illustrent.
- S. Arend,
- Docteur ès Sciences,
- Astronome à l’Observatoire Royal de Belgique, Vice-Président du Comité Belge d’Optique.
- Découverte de la vapeur d’eau sur Vénus
- Il avait été impossible jusqu’à ces derniers temps de mettre en évidence les bandes d’absorption de la vapeur d’eau dans le spectre de la lumière solaire diffusée par l’atmosphère de Vénus. Ces bandes, si elles existent, coïncident en effet avec les bandes extrêmement intenses qui sont produites par la vapeur d’eau de notre propre atmosphère, au travers de laquelle toutes les observations avaient été effectuées. Pour déceler la vapeur d’eau sur Vénus (et sur les autres planètes) les astrophysiciens du Mont Wilson avaient donc été amenés à rechercher si les bandes de la vapeur d’eau atmosphérique terrestre sont renforcées dans le spectre de la planète, et si leur profil est élargi (par effet Doppler-Fizeau) lorsque la planète se rapproche ou s’éloigne de la Terre. Pour Vénus, le résultat de ces mesures extrêmement délicates avait été négatif. On en avait déduit un peu vite qu’il n’y a pas du tout de vapeur d’eau dans la haute atmosphère vénusienne (la seule qui soit accessible aux observations spectro-graphiques, par suite de l’opacité de la couche nuageuse sous-jacente). En fait, il eût été plus sage de conclure que, s’il y en avait, c’était en assez faibles quantités.
- De nouvelles mesures viennent, d’être réalisées aux États-
- Unis en novembre 1959, par le Dr John Strong et son équipe, dans la nacelle d’uq, ballon libre ayant atteint l’altitude de i[\ 000 m, de façon à s’affranchir en grande partie de l’absorption par la vapeur d’eau atmosphérique terrestre. Le résultat de ces mesures indique avec certitude qu’il y a de la vapeur d’eau dans la haute atmosphère de Vénus, mais le dépouillement des observations en vue de déterminer l’abondance de cette vapeur d’eau demandera naturellement un certain temps.
- S’il se confirme que la température au sol de Vénus est aussi élevée que les récentes mesures radioastronomiques le laissent supposer, il demeure exclu que l’eau puisse exister à l’état liquide sur la surface de la planète (voir La Nature, janvier i960, p. 16). Par contre, il n’apparaît plus impossible que les nuages de Vénus soient de même nature que les nôtres. Leur couleur plus jaune pourrait peut-être s’expliquer en ce cas par les fines poussières en suspension dans l’atmosphère vénusienne et dont l’existence est révélée, tout comme celle des fines gouttelettes dont sont faits les nuages, par les mesures polarimétriques.
- P. G.
- Des composés organiques auraient été trouvés dans une météorite
- Au cours d’une récente conférence scientifique rapportée par Science News Letters, de Washington, le docteur Melvin Calvin, de l’Université de Californie, a déclaré avoir trouvé, dans l’épaisseur d’une météorite pierreuse, des molécules d’une substance organique relativement évoluée. Nous transcrivons une phrase de cette déclaration : « Nous pensons raisonnablement avoir mis en évidence la présence de molécules du type aromatique hétérocyclique, analogues aux pyrimidines et purin es figurant dans le matériel génétique terrestre ». Le docteur Calvin a rappelé que les composés hétérocycliques n’existent plus sur la Terre, en tant que molécules indépendantes, mais qu’ils se trouvent incorporés dans les nucléotides qui, eux-mêmes, entrent dans la constitution chimique des chromosomes.
- L’idée communément admise est qu’au cours de l’évolution biochimique les atomes de carbone, d’hydrogène, d’oxygène et
- d’azote se sont liés en molécules d’une complexité croissante, sous l’action de diverses sources d’énergie. Cè processus aurait eu lieu dans le milieu terrestre.
- Une autre théorie, celle de la panspermie, fait au contraire intervenir un apport extra-terrestre. Jusqu’ici cette théorie ne se fondait que sur la présence, dans les météorites, de corps hydrocarbonés, apparentés au pétrole. Si la découverte du docteur Calvin est confirmée, ce seraient des matériaux prébiotiques bien plus avancés dans l’évolution biochimique qui auraient été véhiculés jusqu’à notre planète par les bolides célestes. Il faudrait admettre en ce cas (ce que le savant américain déclare possible) que les substances organiques, protégées par la masse de la météorite, ne subissent aucune modification chimique, du fait de l’intense chaleur produite à la surface du bolide, pendant la traversée de l’atmosphère.
- p.61 - vue 65/558
-
-
-
- 62
- Le cri du Sphinx Tête de Mort
- Les idées anciennes. — « La trompe est, à proprement parler la bouche du papillon; la trompe de celui-ci est épaisse et assés courte, elle forme au plus deux tiers de spirale; elle est logée entre deux barbes, entre deux tiges barbues. C’est de l’endroit où est placée la trompe, que sort le cri; c’est de quoi il m’a été aisé de m’assurer : il me l’a été en même temps de reconnoître qu’il étoit produit par les frottements des tiges barbues contre la trompe » (Par « tiges barbues » il faut entendre les palpes).
- C’est en ces termes que, dans ses Mémoires pour servir à l'histoire des Insectes, parus en 1786 (fig. 1 et 2), Réaumur décrivait ce qu’il pensait être le mécanisme de l’émission sonore si remarquable du Sphinx Tête de Mort, Acherontia atropos L. (fig. 2 et 3).
- Cependant, malgré l’autorité de ce grand nom, une soixan taine d’autres naturalistes devaient par la suite, et avec des fortunes diverses, s’employer à déchiffrer cette nouvelle énigme du Sphinx. Ils n’eurent certes pas tort, car nous savons maintenant que Réaumur à son sujet s’êtait montré moins perspicace qu’à l’ordinaire.
- Il faut dire pourtant que la lecture de ces notes (soixante-cinq au total) laisse souvent planer quelques doutes sur les talents d’observation de leurs auteurs. Il n’est pas de partie du corps
- à qui n’ait été attribuée l’origine du cri. L’un la voit dans le frottement de l’abdomen contre le thorax, tel autre dans un passage d’air à travers les houppes de poils que porte l’abdomen du mâle (bien que la femelle, qui en est dépourvue, crie tout aussi vigoureusement), un troisième découvre un orifice sous les ailes... On demeure confondu devant une telle accumulation d’erreurs que la plus élémentaire expérimentation aurait permis d’éviter.
- C’est en 1828 qu’un naturaliste, dont le nom n’est pas pour autant passé à la postérité, Passerini, s’applique, par une suite d’expériences simples mais fort logiques, à résoudre le problème. Il constate tout d’abord qu’on ne supprime pas le cri en sectionnant l’abdomen. Enlevant ensuite un volet de chitine sur le crâne de l’insecte, il voit à chaque émission une contraction des muscles à l’intérieur de la tête. Une étude anatomique, enfin, lui donne le moyen de comprendre ce que lui avait révélé l’observation, et lui permet de proposer une explication qui devait, par la suite, rallier la plupart des entomologistes : le cri prendrait naissance à la base de la trompe, lors du passage de l’air expulsé par la contraction d’une dilatation de l’œsophage antérieur, qui en était emplie au départ.
- La dernière étude sur le cri du Sphinx remonte à 1920. Elle est due à l’Allemand Heinrich Prell qui, à la suite d’un minu-
- 190 Mémoires pour l’Histoire qui a concouru avec l’autre, à le faire prendre pour un préfage funeft . Des riens font capables défaire de grandsdérangemens dans des imaginations qui aiment à s’effrayer. Les papillons, au moins tous ceux que je connois, font les plus muets de tous les animauxs s ils font du bruit, ce n’eft qu’avec leurs ailes, & cela pendant qu’ils volent. Celui-ci, dans le temps qu il marche, a un cri qui a paru funèbre s au moins eft-il le cri d une bonne ame de papillon, s’il gémit des malheurs qu'il annonce. Ce cri, au refte, mérite d’être examiné par les Phy ficiensi dès qu’il eft.particulier aune efpece de papillon,il demanderoit feul que nous reprifTions 1 hiftoire de celle-ci, que nous n’avons qu ébauchée dans le 1 vol. Mém. 7. Le cri de notre papillon eft affez fort & aigu ; il a quelque ref-femblance avec celui des fouris, mais il eft plus plaintif» il a quelque chofe de plus lamentable. C’eft fur-tout lorfque le papillon marche, ou qu il fe trouve mal à fon aife, qu il crie» il crie dans les poudriers, dans les boîtes où on le tient renfermé sfes cris redoublent lorfqu’on le prend, & il ne ceffede crier tant qu’on le tient entre les doigts. En général, il fait grand ufage de la faculté de crier, que la nature lui a accordée.
- Nous ne connoiftons point encore dinfeéles qui ayent l’organe de la voix. S'ils nous font entendre des fons, des bruits qui imitent ceux de la voix, ces fons font produits par les frottemens réitérés de quelques-unes de leurs parties extérieures contre quelques autres de ces mêmes parties. J’ai déjà dit, dans îe.Mémoire cité ci-deftùs, que le cri de notre papillon n’eft pas dû à une autre caufe. J ai dit, dans le même Mémoire , que j’ignorois quelles étoient lès parties qui, par leur frottement, produifoient ce bruit, j ai eu depuis occafion de l’examiner fur plu* fleurs de ces papillons. Il m’a été aifé de reccmnoitre que les frottemens des ailes les unes contre les autres,
- des Insectes. VIT. Mek. _ 191 que les frottemens des ailes contfè le corps, ou contre le corcelet, Si qu’enfm les frottemens du corps contre le corcelet, ni ceux de quelques anneaux les uns contre 1 s autres, n’a-voient aucune part à ce cri. Les efpeces de cris connus d un grand nombre d infeéles, comme ceux de certaines fauterelles, ceux des grillons, ceux des cigales, ceux de plufieurs fearabées de différens gemes, font dûs à quelques-uns des frottemens que je viens d’indiquer. Mais j’avois beau tenir les ailes, le corps à le corcelet du papillon affujettis, il n’en crioit pas moins, il n’en crioit même que plus fort. De tous les infeéles, il eft celui qui feroit le plus propre à faire prendre fon cri pour une véritable voix s car le cri paroît partir du même endroit d où partent ces fortes de fons. La trompe eft, à proprement parler, la bouche du papillons la trompe de celui-ci eft épaifte, <5c allés courte, elle forme au plus deux tours de fpirale s elle eft logée entre deux barbes, entre deux tiges barbues. C’eft de [endroit où eft placée la trompe, que fort le cris c’eft de quoi il m’a été aifé de m’aftùrer : il me l’a été en même temps de reconnoître qu’il-étoit produit par les frottemens des tiges barbues * contre la trompe. Chacune d’elles eft un cordon plus large qu’épais, uneefpece de lame qui fe termine pâr un pédicule dont 1 infertion & l’attache font dans le deflbus de la tête. Ces lames font pofées de chan s la courbure d un de leurs côtés eft telle que ce côté s’applique exactement contre la tète le long de laquelle la lame s’élève s ainli, ce côté qui cil, à proprement parler, l’intérieur eft concave . pendant que le côté extérieur eft convexe. Ces lames font deux cloifons, entre lefquelles la trompe eft logées elles font exactement appliquées contre la tête , mais ce n’eft qu’à leur origine quelles lui font adhérentes. Un des bouts du .louleau formé par la trompe, eft touché par une de ces doifons, & l’autre l’eft par l’autre.
- Oo ij
- Fig, 1. — Deux pages savoureuses des Mémoires pour servir à l’histoire des Insectes, de Réaumur.
- p.62 - vue 66/558
-
-
-
- Fig. 2. — Planche extraite des Mémoires pour servir à l’histoire des Insectes, de Réaumur.
- La figure 6 de la planche illustre l’expérience faite par Réaumur, qu’il décrit en ces termes : « Pendant que je tenois le papillon assujetti, pendant qu’il crioit le plus fort qu’il lui étoit possible, j’ai passé une épingle dans le centre du rouleau (la trompe enroulée), j’ai étendu la trompe. Quand la trompe a été bien étendue, quand elle n’a plus été entre les cloisons barbues (les palpes), le papillon a été entièrement muet, et n’a pas fait entendre le moindre cri. » Écartant ensuite les palpes de la trompe, il constate : « Quand donc les bouts de la trompe n’étoient ni cachés ni touchés par les cloisons barbues, le papillon ne faisoit plus entendre de cri. » (fig. 7 de> la planche).
- p.63 - vue 67/558
-
-
-
- 6-i
- tieux travail cl’anatomiste et d’expérimentateur, aboutissait à des conclusions que devaient confirmer récemment les résultats obtenus grâce à une investigation menée avec les méthodes de l’Acoustique moderne.
- Le cri du Sphinx et le mécanisme de l'émission. —
- Avant d’aller plus loin, sans doute conviendrait-il d’essayer de décrire ce cri si particulier. Il se compose de deux séquences parfaitement individualisâmes à l’oreille, que l’insecte peut répéter pendant plusieurs dizaines de secondes : d’abord un bruit assez intense qui évoque un grincement de porte, immédiatement suivi d’un petit cri aigu comme celui d’une souris. Le tout, très bref, dure à peine o,3 s.
- Si l’on dispose d’un papillon, mâle ou femelle, il est très facile de le faire crier. Il suffit pour cela de l’immobiliser solidement dans la main, et sa protestation ne se fait pas attendre. Parfois, le cri se modifie un peu, et la partie aiguë peut dis-
- mco
- Coupe sagittale de la tête du Sphinx (d’après Prell).
- «o, a podium occipital ; es, canal salivaire ; cp, cavité pharyngienne ; ctr, cavité de la trompe ; ep, épipharynx ; gc, ganglions cérébroïdes ; gf, ganglion frontal ; gso, ganglion sous-œsophagien ; la, labium ; mco, muscle constricteur de l’œsophage ; mep, muscle constricteur du pharynx ; mde, muscle dépresseur de l’épipharynx ; mdplt mdp2, muscle dilatateur antérieur du pharynx ; rndps, muscle dilatateur postérieur médian du pharynx ; mdp4, muscle dilatateur latéral du pharynx ; mee, muscle élévateur de l’épipharynx; ob, orifice buccal; ocs, orifice du canal salivaire; œ, œsophage ; pt, parois de la trompe ; ir, trachées ; tt, tentorium.
- paraître, ceci semblant lié au plus ou moins grand état d’excitation de l’animal.
- Passerini avait déjà montré qu’un animal à qui l’on avait sectionné l’abdomen pouvait encore crier. Prell va plus loin, et obtient un cri d’une tête séparée du thorax. Écartant les deux moitiés de la trompe avec une épingle, il observe que, si le cri devient moins intense, il ne cesse cependant pas. La friction des deux moitiés de la trompe l’une contre l’autre avait été une explication fréquemment proposée par les anciens auteurs, bien que, même à fort grossissement, aucun mouvement ne soit visible. Sur l’animal en contention, cet écartement permet d’apercevoir l’orifice buccal fermé par l’épipharynx (fig. 4 et 5), mince lamelle chitineuse en forme de croissant. Si, dans ces conditions, on fait crier l’animal, il apparaît au niveau de cet orifice, lors de l’émission de la composante aiguë, un liquide spumeux qui semble aspiré lors de la composante grave. Ceci laisse donc supposer qu’il se fait, au cours du cri, un mouvement d’inspiration et d’expiration, ainsi que l’avait entrevu Passerini.
- L’étude anatomique et les coupes de la tête (fig. 4) observées au microscope montrent que l’œsophage se dilate dans son tronçon antérieur en une vaste cavité (dite cavité pharyngienne ou cavité de Passei’ini), dont le plafond sert de point d’insertion à quatre gros faisceaux musculaires, les dilatateurs du pharynx (mdp), dont la contraction augmente le volume de la cavité. A l’avant, et obturant l’orifice buccal, se trouve
- ^Mg. 5. — Dissection de la tête du Sphinx.
- Le plafond la cavité pharyngienne a été déchiré de manière à laisser apparaître le fond de la cavité et, vers l’avant, l’épipharynx. a, antenne ; cp, cavité pharyngienne ; ep‘ épipharynx ; m, base des muscles sectionnés ; o, œil ; œ, œsophage ; tr, trompe.
- un clapet, l’épipharynx, dont le mouvement est commandé par deux muscles, un dépresseur (mde), et un élévateur (mee). Le jeu de ces muscles permet ainsi à l’épipharynx de s’abaisser et de fermer l’orifice de la bouche, ou de se relever, et de faire correspondre cavité pharyngienne et canal de la trompe.
- On comprend aisément comment l’animal peut absorber les liquides sucrés (miel, nectar) qui lui servent de nourriture. L’épipharynx étant abaissé, la contraction des dilatateurs du pharynx augmente le volume de la cavité pharyngienne, entraînant une chute de pression dans cette cavité. Lorsque l’épipharynx se relève, la différence entre la pression atmosphérique et la pression intracavitaire fait alors monter le liquide dans la trompe. Ce phénomène élémentaire se répète tant que dure la succion. Mais, si la trompe ne plonge pas dans un liquide, cet effort de pompage va provoquer une entrée d’air dans l’oesophage. Ce mouvement ascendant fait au passage vibrer l’épipharynx comme une lame d’harmonica, ce qui opère un
- p.64 - vue 68/558
-
-
-
- 65
- Fig. 6. — Oscillogramme du cri.
- Le tracé de gauche est dû au cri grave ; on distingue nettement la succession des chocs provenant du mouvement rythmique de l’épipharynx. Le tracé de droite représente le cri aigu (Référence 50 Hz : une oscillation = 0,02 s).
- Fig. 7. — Spectre de fréquence du cri (d’après photographies).
- En abscisses, les fréquences, de 3 à 20 kHz ; en ordonnées, l’importance relative de ces fréquences dans l'ensemble du signal. Le tracé inférieur représente l’analyse du cri complet, partie grave (noir plein), et partie aiguë (trait). Les deux autres tracés montrent l’analyse séparée des deux séquences.
- I t " 11 i -'>.i —,"—i—i—i—i—i—rrrn
- 3 5 10 15 20 KHz
- tronçonnement de la colonne d’air engendrant des ondes sonores qui constituent la séquence grave du cri. Pour l’expiration, l’animal maintient en position relevée son épipharynx, et le passage rapide de l’air s’accompagne d’un sifflement qui n’est autre que la séquence aiguë.
- Il convient de dire ici que Réaumur, s’il avait abouti à une conclusion erronée, avait néanmoins pensé, avec beaucoup de clairvoyance, à un rôle possible de l’épipharynx et du courant d’air, comme en témoignent ces lignes : « ... Au-dessous de la trompe à son origine, il y a une membrane tendue (l’épipharynx) qui peut bien avoir part au bruit... », et plus loin : « ... Ces grosses trompes ne serviroient-elles que de conduit au suc des plantes, les deux trous donneroient-ils entrée ou sortie à l’air dans le corps du papillon ? » (Par « trous », Réaumur entend sans doute une ouverture qui se situe à la base de la trompe, sur sa face ventrale).
- L'apport de l'acoustique moderne. — Tout récemment, l’hypothèse de Prell, fondée sur l’anatomie et l’observation in vivo, s’est trouvée renforcée par les résultats de l’analyse physique du cri de l’insecte. Le matériel de travail a été l’enregistrement du cri fait sur magnétophone à large bande passante, avec un microphone à condensateur, sensible jusqu’à 3o kHz. Trois types d’analyses ont ainsi été réalisés : l’analyse globale de fréquence, l’analyse oscillographique et l’analyse temporelle de fréquence.
- L’analyse globale, faite avec le spectrographe du C.N.E.T. système Pimonow, donne la répartition des fréquences et leur amplitude relative pour l’ensemble du signal (11g. 7). Le spectre est différent pour chaque partie du cri : la séquence aiguë a son maximum vers 10 kHz et s’étend jusque vers 20 kHz, alors que la séquence grave présente une pointe vers 7 kHz et ne dépasse pas i5> kHz.
- Ce type d’analyse cependant ne fournit pas de renseignements sur le mécanisme même de l’émission. L’analyse oscillo-
- graphique, par contre, est plus riche d’indications (fîg. 6). Elle montre que la séquence grave a une durée d’environ 0,16 s, et qu’elle n’est séparée de la partie aiguë que par un intervalle de quelques centièmes de seconde, la partie aiguë s’étendant sur 0,07 s environ. Mais l’oscillogramme nous révèle aussi la structure du cri. La première partie (grave) est caractérisée par une succession de 4o à 5o impulsions très brèves émises à la cadence de 280 par seconde. Cette structure tronçonnée s’explique parfaitement par un mouvement rapide de l’épipharynx, réalisant une ouverture et une occlusion rythmique de l’orifice buccal (fig. 8). C’est précisément ce mécanisme qu’avait suggéré Prell dans ses conclusions. L’allure de
- +1-
- Fig. 8. — Schéma de fonctionnement de l’épipharynx dans l’émission des deux composantes du cri.
- A. gauche, cri grave ; à droite, cri aigu. Les flèches épaisses représentent le sens de circulation de l’air, cp. cavité pharyngienne ; ep, épipharynx ; tr, trompe. On a schématisé sous chaque figure l’oscillogramme de l’émission correspondante.
- KHz.
- 6 ' 1 2 3 ' 4 1/10 s.
- Fig. 9. — Analyse du cri au Sonographe Kay.
- En abscisse, le déroulement, du cri dans le temps : successivement la partie grave (011 distingue, comme dans l’oscillogramme de la figure 6, les chocs dus à la vibration de l’épipharynx), et la partie aiguë. En ordonnées, les fréquences dont l’intensité relative est donnée par la plus ou moins grande noirceur du tracé.
- p.65 - vue 69/558
-
-
-
- 66
- t.. '-------------------------——r
- 0 2 4 6 8 10 12 14 .
- Fig. 10. — Analyse au Sonographe Kay du son produit par un sifflet dans lequel on souffle de moins en moins fort.
- Au bout de 0,1 s, la pression maximale du souffle est atteinte. Elle diminue ensuite progressivement. On observe de façon concomitante une chute de fréquence (de 6,5 à 2 kHz). La seconde courbe représente l’harmonique 1 (chute de 13 à 4 kHz). On remarquera la ressemblance entre ce tracé et celui qui correspond au cri aigu dans la figure 9. En ordonnées, graduation en dixièmes de seconde.
- la séquence aiguë apparaît toute différente, et sa parfaite homogénéité semble bien confirmer qu’elle se réalise par un processus d’une autre nature.
- L’analyse spectrale temporelle, réalisée avec le « sonographe Kay.», nous apporte suffisamment d’indications à ce sujet (%• 9)-
- Quel est le principe de cette analyse ? Il s’agit non plus
- d’une représentation globale des fréquences contenues dans le signal, mais d’une répartition de ces fréquences et de leur évolution au cours du déroulement du signal dans le temps. Ici encore, la structure hachée du cri grave est bien apparente, et la séquence aiguë se révèle avec son fondamental vers 5 kHz et ses harmoniques i (io kHz) et 2 (i5 kHz). Un point important est la chute de fréquence très marquée entre le début et la fin de cette seconde séquence.
- Ici encore, ces faits vont trouver une explication dans l’hypothèse de Prell qui, du même coup, se trouve confirmée. Rappelons qu’il considérait le cri aigu comme dû à l’expulsion de l’air par la trompe se comportant comme un sifflet, l’épipha-rynx étant maintenu relevé (fig. 8).
- Il est vraisemblable que la pression dans la cavité pharyngienne, élevée au commencement de* l’expiration (c’est-à-dire au départ de l’émission de la séquence aiguë), va en diminuant au fur et à mesure que se fait l’expulsion de l’air. Or, si l’on analyse par le procédé que nous venons de décrire le son produit par un sifflet dans lequel on souffle de moins en moins fort, on retrouve cette chute de fréquence qui caractérisait cette seconde séquence du cri (fig. io). L’analogie des phénomènes donne quelque raison de supposer une analogie dans le principe de fonctionnement des structures qui en sont à l’origine.
- #
- * *
- Le biologiste et le physicien ont pris le problème en sens inverses, le premier suivant le déroulement naturel du processus, depuis la cause jusqu’à l’effet, depuis l’appareil sonore jusqu’au son, le second remontant au contraire ce courant et partant du son pour reconstituer l’instrument. Tous deux aboutissent finalement à des résultats concordants.
- Cette étude illustre la façon dont des méthodes physiques, par l’interprétation que l’on peut faire des résultats objectifs et quantitatifs qu’elles fournissent, sont susceptibles de confirmer des hypothèses suggérées par la simple observation de phénomènes biologiques.
- Bernaud Dumortier.
- Faut-il protéger la Panthère ?
- •f
- A l’égard de la Nature, l’homme s’est souvent comporté en fils ingrat. Supérieur par son intelligence à toute autre créature, il s’est d’office arrogé tous les droits. Au cours des millénaires et sans le moindre scrupule, il n’a cessé de défricher, d’incendier, de tuer sans s’embarrasser le moins du monde des conséquences de son œuvre destructrice. Si, pour de multiples raisons, pour se défendre, se nourrir, se vêtir, se loger, l’homme préhistorique était dans l’obligation de tuer, il a, par ce fait même, droit à notre indulgence; mais, ces raisons, dans la plupart des cas, cessent d’être valables pour l’homme contemporain; et cependant, ce dernier poursuit ses ravages à une échelle autrement inquiétante; il saccage, il détruit, il tue, non plus par nécessité, mais le plus souvent par plaisir. On comprend difficilement comment l’homme du xxe siècle, qui se prétend si hautement civilisé, ait pu conserver au fond de lui-même cet instinct destructeur digne de son ancêtre des cavernes; comment expliquer qu’à l’heure actuelle encore il classe les animaux, tout bonnement, en êtres utiles et nuisibles, en espèces comestibles et non comestibles..., témoignant ainsi de son incapacité d’accéder à une connaissance supérieure de la création qui est tout ordre, harmonie et beauté.
- Dans un ouvrage remarquable intitulé Destruction et Pro-
- tection de la Nature, que tout le monde devrait avoir lu, relu et médité, qui ne devrait manquer sur les rayons d’aucune bibliothèque d’école, R. Heim a dressé le bilan des saccages et dévastations dont l’homme s’est rendu coupable au cours des siècles; même limité aux animaux supérieurs ce bilan est accablant : « Depuis deux mille ans, cent dix espèces de Mammifères ont disparu. Le xixe siècle à lui seul en a exécuté soixante-dix, et depuis cinquante ans c’est quarante qui se sont éteintes par notre faute. Mieux. Aujourd’hui, de par le monde, six cents autres espèces de Mammifères sont en voie de disparition. » Parmi les animaux définitivement éteints, victimes de la rage destructrice de l’homme, citons le Lion du Cap, le Zèbre de Burchell, l’Hippotrague bleu, le Moa de Nouvelle-Zélande, la Colombe voyageuse du Nouveau-Monde...; d’autxes sont sur le point de disparaître, tels l’Ornithorhynque, le Thylaçine ou Loup de Tasmanie, le Rhinocéros unicorne des Indes, l’Hippotrague géant de l’Angola, le Cerf de Birmanie, les Chinchillas de l’Amérique du Sud... En ces dernières décennies, la vague de destruction déclenchée par l’homme a pris une envergure telle que les États s’en sont émus; aussi, dans divers pays a-t-on vu surgir des parcs nationaux, réserves naturelles, zones de protection...
- En ig33, la Conférence internationale de Londres, s’intéres-
- p.66 - vue 70/558
-
-
-
- 67
- sant tout particulièrement à l’Afrique Noire et à Madagascar, a pris l’heureuse initiative de protéger, de façon absolue, un certain nombre d’espèces animales : le Gorille, les Lémuriens, l’Okapi, le Chimpanzé, l'Élan de Derbv... D’autres ne sont protégés que partiellement : l’Oryx, l’Addax, le Guépard, les Colobes, l’Éléphant, le Buffle, le Pangolin... 11 est vrai qu’en 1953, à la Conférence de Bukawu, on a fait preuve d’un large esprit de conciliation en proposant des textes qui ne peuvent que réjouir le chasseur. Mais est-il prudent, ou même loyal, de déclarer hors-la-loi nos troupeaux de buffles et d’exposer à la première balle ces excellents agents de voirie que sont les vautours.
- Quoi qu’il en soit, c’est en vain que parmi toutes les espèces protégées on cherche un nom de fauve. Aucun représentant de la famille des Félidés ne figure sur les listes; le Guépard seul fait exception en raison de la facilité du dressage et de la domestication. Les fauves, considérés comme éléments nuisibles, sont, d’office, déclarés hors-la-loi, et si le Lion ou la Panthère ont survécu jusqu’à ce jour, ils le doivent à leur puissant instinct de conservation. Mais le courage dont font preuve ces animaux ne leur est plus d’aucun secours depuis que l’homme a abandonné la chasse chevaleresque, mais combien dangereuse, à la flèche ou au fusil, pour faire appel à cette méthode d’extermination tout au plus digne de l’homme primitif, le piégeage, dont la sauvagerie, l’hypocrisie et l’épouvantable cruauté font frémir tout ami de la nature. Quand on considère qu’en ig54 l’Alsace à elle seule a expédié en Afrique Occidentale et Centrale environ cinq cents pièges à Panthère, on peut se faire une idée de l’importance des ravages; d’autant plus que cet instrument de torture happe indifféremment le jeune ou l’adulte, le mâle ou la femelle nourrissant ses petits.
- Quels que soient les méfaits dont les fauves aient pu se rendre coupables, il est établi que dans l’économie de la Nature tout être a un rôle à jouer; son élimination entraînera nécessairement une rupture d’équilibre dont les conséquences, souvent imprévisibles, peuvent être désastreuses pour l’Homme lui-même. Tel est, entre autres, le cas de la Panthère (Felia pardus L.). On sait que ce Félidé qui hante les régions les plus diverses de l’Afrique Occidentale, du désert à la région forestière, est éminemment détesté par le Noir en raison des ravages qu’il exerce dans les villages où, nuitamment, il vient s’emparer parfois d’un mouton, d’une chèvre, d’une poule, d’un chien...; blessée ou traquée la bête s’attaque même à l’homme. C’est plus qu’il ne faut pour classer définitivement la Panthère parmi les « animaux nuisibles ». On peut la tirer sans permis de chasse et à n’importe quel moment de l’année; dans certaines régions l’abattage est même récompensé par une prime; à cela il faut ajouter qu’en holocauste à la « mode », de nombreux animaux périssent misérablement dans les pièges.
- Comparés aux services qu’il rend, les méfaits dont on accuse ce félin nous paraissent minimes. N’oublions pas que la Pan-
- thère est l’ennemi juré du Singe, du Cynocéphale (Papio Sphinx) en particulier; et le voyageur qui, vers la fin de la saison pluvieuse, a séjourné dans les villages soudanais, sait combien l’indigène est préoccupé par la surveillance des champs; à tout moment les surfaces cultivées risquent d’être envahies et dévastées par des troupeaux de singes friands d’Ara-chides et de Maïs. P.-L. Dekeyser estime que dans la région de Niokolo-Koba, les Cynocéphales participent à la destruction de 5o pour 100 environ des récoltes. Les bandes observées pouvaient atteindre de 5o à 100 individus et l’on sait que l’espèce est particulièrement prolifique; la durée de la gestation, dit P.-L. Dekeyser, est de 190 jours environ; les jeunes paraissent sevrés très vite et l’on peut estimer que, pour chacune des femelles, deux gestations peuvent se succéder en moins de 18 mois. Ainsi, pour cette durée, un groupe de cinq animaux se trouve porté théoriquement à treize. Aussi, quels que soient le zèle et l’ingéniosité que déploie l’homme pour sauvegarder sa récolte, il ne peut rien contre la pullulation des singes à moins de faire appel à des méthodes aussi brutales qu’irrationnelles, envisageant leur extermination totale, ce qui, à l’heure actuelle, où le pai'enchyme rénal du Cynocéphale, de préférence à celui d’autres singes, est utilisé pour la préparation du sérum contre la poliomyélite, serait un malheur pour l’humanité entière.
- Mieux vaut laisser libre cours aux jeux de la Nature et abandonner à la Panthère le soin de limiter le nombre de ces prédateurs ; de cette façon sera maintenu un équilibre éminemment profitable à l’homme. Le félin, en s’opposant'à une multiplication exagérée du Cynocéphale, devient un collaborateur précieux du paysan noir et rien qu’à ce titre le problème de sa protection mérite d’être soulevé.
- Ajoutons à cela que la disparition d’une espèce dont la biologie est encore peu connue et qui, pour beaucoup d’observateurs, incarne le symbole de la souplesse et de la grâce, constituerait une perte irréparable, un appauvrissement. Bigourdan et Prunier, en quelques mots éloquents, mettent en évidence la façon peu ordinaire de se comporter de ce félin : « Il est vraiment impressionnant, disent-ils, par le mystère qui entoure sa vie et par le silence dont il ne se départit presque jamais. Surpris à faible distance, il s’aplatit, semblant s’enfoncer dans le sol, rampe sans bruit à la façon d’un serpent et s’évanouit derrière le moindre obstacle. Tel un spectre, il est partout et toujours invisible. »
- Aussi à la question de savoir si, oui ou non, il faut protéger la Panthère, nous répondrons catégoriquement par l’affirmative. Pour préserver cette espèce d’une destruction certaine, nous demandons : l’éducation du public; l’interdiction dii piégeage; l’obligation du permis de chasse; la fermeture de la chasse pendant les périodes de portage et d’allaitement, pour autant que ces périodes soient connues.
- Paul .Taeger.
- Un calculateur électronique à grande mémoire
- La Société Burroughs vient d’installer dans les locaux d’une société mécanographique parisienne le calculateur électronique Datatron 205. Premier appareil de ce type fonctionnant en Europe, il possède un certain nombre de caractéristiques intéressantes. On peut adjoindre à volonté au calculateur central, qui contient l’unité arithmétique, les circuits de contrôle et de programmation, un grand nombre d’unités périphériques d’entrée-sortie avec leurs propres organes de contrôle et leurs programmes partiels. Ainsi, des machines à cartes perforées I. B. M. peuvent être liées au Datatron par l’intermédiaire d’un convertisseur de cartes ou d’un système Cardatron à mémoires-tampons qui permettent en particulier d’augmenter de manière sensible la vitesse de transfert de l’information.
- En ce qui concerne les bandes magnétiques, une unité contrôle les dérouleurs de bandes et des mémoires périphériques de très
- grosse capacité, les Datafile. Chacune de ces unités Datafile enregistre sur 50 bandes magnétiques 100 000 blocs-adresses de 20 chiffres dont le temps moyen d’accès varie entre 1,3 s et 16,3 s suivant le mode de classement utilisé. Dix Datafile peuvent être employés simulltanément.
- Cette mémoire de très grosse capacité dont l’accès est dans certains cas « semi-séquentiel », et la souplesse des combinaisons que l’on peut réaliser autour du calculateur central permettent au Datatron 205 d’atteindre, malgré ses dimensions et son prix relativement moyens, les performances des calculateurs géants plus anciens ; il semble en particulier bien adapté à la résolution des problèmes comportant de très nombreuses données, comme les problèmes de statistique ou de gestion d’entreprise.
- P. Chauvin.
- p.67 - vue 71/558
-
-
-
- 68
- 69
- Une étude des variations saisonnières
- du métabolisme
- La mesure du métabolisme respiratoire, c’est-à-dire de la consommation d’oxygène d’un être vivant, peut être considérée comme indicatrice du niveau de ses combustions et par conséquent de son activité vitale. Mais on a coutume, en médecine, de se contenter de la mesure du métabolisme « de base », qui correspond à l’état d’activité minimale de l’organisme. C’est l’état de l’homme qui s’éveille et dont aucun travail musculaire ou mental n’a encore élevé les combustions. Il n’est certes pas indifférent de tenir compte de ce niveau inférieur de la consommation d’oxygène qui dépend de l’âge, du poids et sans doute de l’hérédité de chaque individu. Mais la courbe des variations du métabolisme au cours de la journée, étudiée sur des sujets divers, dans un climat donné et pendant toute l’année, semble présenter un intérêt clinique particulier sur lequel on n’avait guère insisté jusqu’ici.
- C’est dans le cadre de recherches sur la climatologie que le docteur Alain Cuénot, d’Arcachon, a entrepris la mesure du métabolisme diurne de nombreux sujets, qu’il a suivis pendant longtemps. Ses observations, commencées en 1952 et poursuivies jusqu’en 1957, lui ont permis de publier dans les Annales de l’Institut d’Hydrologie (T. XXVIII, n° 83, 1967) une série très complète de diagrammes, de courbes de variations du métabolisme, dont il a tiré des conclusions, non seulement en « météoropathologie », mais aussi en pathologie générale et en gérontologie.
- Les mesures étaient faites trois fois par jour, à 9 h, 11 h et 17 h, hors des périodes digestives du sujet et après une demi-heure de repos, au moyen de l’appareil volumétrique de Benédict ; elles étaient notées en pour-cent par rapport au
- métabolisme de base. Continuées pendant toute l’année, ces mesures ont fait apparaître une variabilité saisonnière assez caractéristique. Elles ont montré une baisse certaine du métabolisme pendant les mois d’été et l’on pouvait assurément s’y attendre par suite de l’élévation de la température ambiante. La baisse de cette température, vers la fin de septembre, entraîne une montée du métabolisme qui reste cependant assez modérée jusqu’en décembre. Ici, et c’est encore très naturel, la plupart des sujets présentent une nouvelle hausse de leurs combustions comme s’ils se décidaient finalement à une défense énergique contre les intempéries.
- Mais cette hausse du métabolisme est bientôt suivie en janvier d’une chute soudaine que le froid n’explique pas, puisqu’on sait qu’au laboratoire le niveau des combustions s’accorde de très près à la température. On a l’impression d’un renoncement à la thermorégulation, comme s’il s’agissait d’une tendance à l’hibernation. Il convient sans doute plus simplement d’invoquer une fatigue de la thermogenèse. Il semble en effet qu’à l’échelle individuelle et sur des périodes plus courtes il se produise une oscillation du niveau des combustions, un fléchissement succédant à une période active et réciproquement. L’organe thermogénétique, le foie, pourrait se fatiguer au cours d’un hiver froid, ce qui se manifesterait chez tous les sujets par une thermorégulation déficiente. Le fait qu’un hiver doux, en 1957, ait pratiquement supprimé cette baisse du métabolisme hivernal viendrait confirmer ce point de vue.
- Ou bien s’agit-il de la préparation d’une variation nouvelle P En effet, quand arrive le printemps on voit le métabolisme monter d’une manière très nette comme pour provo-
- quer un épanouissement vernal de l’organisme. Or, cette augmentation des combustions dans un milieu qui s’adoucit vient encore contredire l’existence d’une courbe du métabolisme régulièrement accordée (en sens inverse) à celle de la température.
- Enfin, vers la fin du printemps, on enregistre une nouvelle diminution des combustions qui s’abaissent pendant une courte période à un niveau inférieur à celui des mois les plus chauds. Cet affaissement des courbes apparaît comme une contre-partie de la forte hausse printanière et peut-être encore comme le signe d’une fatigue de l’organisme. Cette fatigue, souvent ressentie par le citadin à la veille des vacances, proviendrait peut-être moins d’une année de travail que d’une thermogenèse trop active au cours du printemps.
- Quoi qu’il en soit et malgré des différences d’une année à l’autre, la concordance des variations observées chez des sujets très divers témoigne d’un cycle annuel de la consommation d’oxygène de l’Homme, cycle qui est loin de se superposer exactement à celui des températures (fig. 1).
- Bien entendu, le niveau moyen du métabolisme diurne varie selon les sujets, les uns ayant habituellement des combustions élevées et les autres des combustions basses. Mais en dehors de variations momentanées, dues à une infection par exemple, les courbes annuelles conservent la même allure générale chez tous les sujets.
- On a souvent cherché à mettre en évidence l’influence du climat sur la santé; mais les observations ont le plus souvent un caractère empirique qui ne permet pas l’établissement de lois générales. Par exemple, l’air marin provoquera chez certains sujets des phénomènes d’insomnie qui n’apparaîtront pas chez d’autres. C’est ainsi que A. Cuénot a été amené à penser qu’une activité fondamentale de l’organisme, comme la consommation d’oxygène, pourrait constituer une base d’étude intéressante en climatologie.
- Une baisse générale des métabolismes a été constatée à Arca-chon en 1956 et 1957 pendant le mois d’avril. Cette baisse survenait une huitaine de jours après l’apparition du pollen de
- pin qui recouvre à cette époque la région landaise. On peut penser qu’il s’agit là d’une réaction d’immunité à l’égard de l’aérosol ambiant, réaction se manifestant chez l’ensemble des sujets, comme si une diminution des combustions permettait une lutte plus efficace contre les allergies. C’est dans de tels domaines que l’étude de la thermogenèse pourrait se révéler utile aux climatologues.
- En revanche, les variations de l’ionisation de l’air, cependant assez fortes.au voisinage du rivage marin, sont apparues comme n’ayant aucun effet sur le métabolisme des sujets étudiés, ni d’ailleurs sur la généralité des phénomènes cliniques. A. Cuénot disposait pourtant d’un appareil automatique de mesure de l’ionisation qu’il gardait continuellement en action. On notera que de telles observations semblent réduire à néant l’influence de l’électricité atmosphérique, influence considérée jusqu’ici comme prépondérante par quelques climatologues qui ont voulu en faire l’axe de leurs théories.
- Quant à l’effet des périodes de grandes marées, il n’a pas paru significatif. Le niveau moyen du métabolisme serait cependant plus élevé en présence de l’air marin. En effet, des mesures faites sur six sujets, à Castillon, à 91 km à l’intérieur des terres, ont montré une moyenne de consommation d’oxygène sensiblement plus basse que sur le littoral et cela, bien entendu, pour une même époque de l’année.
- D’autre part, si l’on considère l’effet des variations du métabolisme diurne sur la moyenne des sujets, on constate en premier lieu qu’une montée des combustions correspond la plupart du temps à une certaine euphorie psychique, à une activité plus grande pendant cette période. En second lieu, qu’un niveau de combustion inférieur à la moyenne, pour un sujet donné, semble exposer celui-ci aux germes infectieux. Par exemple, lors d’un rhume banal ou d’une grippe, on découvre presque toujours une période de métabolisme bas ayant précédé l’infection. Ceci viendrait confirmer l’impression souvent ressentie d’une baisse de résistance, d’un état de dépression précédant une maladie. Pendant celle-ci, naturellement, la.lutte entreprise par l’organisme fait remonter le métabolisme, sans d’ailleurs que sa courbe coïncide avec celle de la température rectale. Ces deux courbes peuvent même se montrer tout à fait indépendantes l’une de l’autre, chez certains sujets.
- Age et métabolisme. — L’étude du métabolisme diurne, en rapport avec l’âge apparent ou réel d’un sujet, présente un intérêt certain en gérontologie. Sans doute existe-t-il une baisse des combustions au cours de la vie. Très élevées pendant l’enfance, elles atteignent un court palier à l’âge adulte pour diminuer ensuite régulièrement jusqu’à la vieillesse. Mais les travaux de A. Cuénot ont montré une large dispersion des résultats par rapport à la courbe-type. Sans aucun doute beaucoup de sujets ont un métabolisme très supérieur à celui qui correspondrait à leur âge réel, montrant d’ailleurs un âge apparent en rapport avec la valeur moyenne de leurs combustions. Dans l’ensemble, les signes du vieillissement paraissent coïncider assez exactement avec le niveau du métabolisme, de sorte que celui-ci peut théoriquement servir à mesurer l’âge biologique, souvent très différent de l’âge chronologique.
- Cependant les tempéraments diffèrent, de sorte qu’il faudrait étudier les courbes du métabolisme pendant un temps prolongé pour chaque sujet. D’autre part, la thermogenèse donne l’impression d’un mécanisme structuré, variable selon le milieu. Malgré des périodes normalement alternées de hausse et de baisse, il semble qu’011 puisse en quelque sorte procéder à un « entraînement » de la thermorégulation. Dans le cadre de l’expérimentation animale, on a constaté que le Rat, soumis en laboratoire à un froid prolongé, finit par manifester une régulation de son métabolisme. Celui-ci, après s’être élevé jusqu’à un maximum au bout d’une vingtaine de jours, se stabilise et tend à revenir à la normale au cours du second mois de l’expérience (fig. 2). Il est possible aussi qu’il ne s’agisse
- Fig. 1. — Métabolismes diurnes de cinq sujets du 9 janvier au 7 septembre 1956.
- On y reconnaît la baisse de fin janvier, la hausse printanière et celle qui accompagne la période froide de février. Au-dessous, variations de la température, de la pression atmosphérique et de l’amplitude des marées (région d’Arcachon).
- Métabolisme (%)
- 75%
- Janvier
- Février
- Mars
- Août
- p.dbl.68 - vue 72/558
-
-
-
- 110
- 70
- et peut-être surtout grâce à un traitement hépatique, le foie apparaissant comme l’organe thermorégulateur par excellence.
- 54 60 jours
- 15 20 27 34
- Fig-. 2. — Production de chaleur de rats pendant un élevage à 5° C.
- Petits cercles : valeur des productions de chaleur des rats gardés à 5° C. Au-dessous, le point noir représente la valeur de contrôle des rats gardés
- à 25° C.
- (D’après Cottle et Carlson).
- pas seulement d’une adaptation, mais d’une fatigue de la thermogenèse, dont nous avons déjà parlé plus haut.
- Il paraît donc prudent de ne stimuler qu’avec les plus grandes précautions le métabolisme du vieillard. Une sollicitation trop vive de ses combustions est susceptible d’amener par la suite un effondrement dangereux. On notera que si les sujets jeunes brûlent souvent moins qu’ils ne le peuvent et possèdent ainsi une réserve de calorification, un vieillard peut se trouver normalement à la limite de ses possibilités. Il semble d’ailleurs que la baisse du métabolisme soit un moyen employé par l’organisme pour prolonger la vie en la mettant en veilleuse. On a pu dire que s’il était possible d’abaisser, ne fût-ce que d’un ou deux degrés, la température moyenne du corps humain, la détérioration de l’âge s’en montrerait très retardée. Il faut donc s’assurer qu’un individu âgé, ayant besoin d’être remonté, pourra supporter sans dommage une hausse de son métabolisme. Il sera surtout nécessaire de lui en procurer les moyens : par des sollicitations climatiques appropriées, un entraînement physique progressif, l’administration de vitamines
- *
- * *
- On ne saurait donc trop insister sur l’importance du métabolisme diurne et de ses variations. Il est susceptible de mesures précises et l’on sait que la science est avant tout lecture de graduations. Naturellement, il est nécessaire de s’entourer de toutes les précautions désirables : utiliser un personnel hospitalier entraîné et surveiller le bon fonctionnement des appareils, en particulier leur étanchéité. La connaissance des courbes du niveau de la consommation d’oxygène permet de se faire une idée du rythme vital d’un individu et concourt par conséquent dans une large mesure à l’établissement d’un diagnostic précis et d’une thérapeutique appropriée. L’inconvénient de mesures prolongées et souvent répétées ne doit pas, semble-t-il, être considéré comme un obstacle. Les enregistrements des variations du métabolisme ont montré une corrélation très nette avec le comportement, la résistance, l’âge apparent et l’état du foie. Ces enregistrements pourront en outre introduire des chiffres dans la science encore très vague que constitue la climatologie.
- On dira que le volume des échanges respiratoires n’est pas le seul mécanisme essentiel de notre physiologie. Cela ne fait aucun doute, mais il n’en est pas moins vrai que la mesure du métabolisme diurne ouvre des aperçus prometteurs et un champ de recherches étendu. On pourrait étudier, par exemple, les rapports de la thermogenèse avec l’administration de médicaments divers ; ce dont la pharmacologie ne s’est peut-être pas assez préoccupée jusqu’ici. Il faudrait surtout expérimenter dans des régions et sous des latitudes différentes pour voir jusqu’à quel point en seraient modifiées les courbes de la consommation d’oxygène.
- Jacques Fouchet.
- Le danger de l'abus des rayons X
- De nombreux biologistes ont déjà attiré l’-attention sur le danger d’un emploi trop fréquent des rayons X dans les investigations médicales, en particulier sur les zones génitales, où l’on doit craindre que les irradiations ne produisent des mutations dans les cellules-mères des cellules reproductrices et n’augmentent le taux des tares héréditaires. D’autres dangers ont été précisés par plusieurs médecins du Collège médical de New York, concernant d’abord l’abus des examens radiologiques appliqués à des femmes enceintes. L’exposition aux rayons X est particulièrement dangereuse pendant les trois premiers mois de la grossesse : elle peut donner lieu, soit à une malformation générale du fœtus, soit à une prédisposition à la leucémie ou au cancer, soit encore
- à des déficiences mentales et à un affaiblissement des défenses contre la maladie. On doit observer que la dose admissible de radioactivité qui peut être absorbée pendant les 30 premières années de l’existence ne dépasse pas 10 rœntgens. La radioactivité naturelle intervient déjà pour 4,3 rœntgens : il ne reste donc plus qu’une marge de 5,7, facilement comblée par les rayons X utilisés sans discernement. On doit par exemple noter que les radiographies dentaires, qui ne devraient atteindre, en principe, que la cavité buccale, irradient en réalité la zone pelvienne lorsqu’elles sont dirigées de haut en bas. Ces faits, ignorés d’une partie du corps médical, peuvent jouer un rôle dans la santé publique. G. C.
- Le Bœuf musqué en Sibérie ?
- Bactérie destructrice de virus
- Le bœuf musqué ne survit, à l’époque actuelle, qu’au Groenland et dans le Nord du Canada. Or, la revue soviétique Priroda signale que des ossements ont été découverts en 1948 et en 1952 près du cap Tchéliouskine et au bord du lac Taïmyr, qui tendent à prouver que le bœuf musqué existait encore tout récemment en Sibérie septentrionale. Les ossements découverts ne présentent, en effet, aucune trace de fossilisation et la matière osseuse des crânes paraît étonnamment fraîche. Cette constatation est également confirmée par une comparaison morphologique des crânes tant avec ceux des bœufs musqués existant aujourd’hui au Groenland qu’avec ceux des bœufs musqués sibériens du Pléistocène. L’auteur de l’article paru dans Priroda suppose que les bœufs musqués ont peut-être été décimés en Sibérie septentrionale par des chasseurs vers le xvne siècle. C. M.
- Alors qu’on avait observé jusçpi’ici d’assez nombreuses espèces . de virus s’attaquant aux bactéries, la réciproque était inconnue. C’est à l’Université de Californie qu’un biologiste américain, B. E. Yolcani, a découvert une bactérie, Flavobacterium virurum-pens, qui s’attaque spécifiquement au virus de la mosaïque du tabac. Cette bactérie a été recueillie dans un étang californien : mise en présence du virus, elle le « dissèque » en bâtonnets, granules et fragments de formes diverses. Il semble que l’attaque se fait par voie enzymatique et intéresse certains emplacements de l’enveloppe protéinique du virus. B. E. Yolcani a fait remarquer que l’intervention agressive de la bactérie en fait un outil expérimental fort intéressant, car les biologistes manquent généralement de moyens physiques ou chimiques pour explorer la substance des virus et en déterminer la structure.
- p.70 - vue 73/558
-
-
-
- 71
- Le refuge d’oiseaux du parc Saint-James à Londres
- Le parc royal Saint-James, dans le quartier de Westminster, est peut-être le plus joli parc public de Londres. Il est tout en longueur, en bordure de The Mail; il s’étend du palais de Buckingham à l’Esplanade de la Garde à cheval, proche de l’Amirauté britannique. Petit, en comparaison des vastes terrains de Hyde Park et de Regent’s Park, il ravit le visiteur par ses belles pelouses onduleuses, ombragées, ses arbustes et taillis, ses parterres de fleurs, son lac étroit, sinueux, qu’on traverse sur un pont bas, à vrai dire une simple passerelle d’où les enfants et les grandes personnes, avec le même sérieux, le même attendrissement, jettent du pain aux poissons, aux cygnes et autres oiseaux, dont beaucoup sont loin d’être des espèces domestiques.
- Car, et ce n’est pas le moindre attrait de ce parc tranquille au tracé harmonieux où tout repose et flatte le regard, un gibier d’eau insolite en ces parages, outre la gent ailée familière aux citadins, y vit toute l’année à demeure ou bien, en hiver, y trouve refuge; en tout temps s’y fait admirer. L’étranger s’en étonne et, quoique sachant combien les Anglais aiment les oiseaux, il s’émerveille de ce qu’ils aient pu, au cœur de l’immense cité, apprivoiser tous ces oiseaux colorés et sauvages. Certains, d’espèce rare, dont le chasseur le plus exercé, dans l’estuaire de la Tamise et en d’autres lieux, ne peut s’approcher à portée de fusil, aussitôt après s’être posés dans le parc Saint-James viennent ou peu s’en faut manger dans votre main comme de simples moineaux.
- Westminster était autrefois un grand marécage parsemé d’étangs et coupé de ruisseaux paresseux. Le gibier sauvage, après avoir franchi la mer s’il venait d’Est-Anglie, ou l’océan, s’y arrêtait. D’âge en âge, avec l’instinct sûr des oiseaux migrateurs, au terme de son pénible voyage, il continua de s’y nicher. Au xve siècle déjà, les Londoniens trouvaient cela très curieux, très attachant. Deux siècles plus tard, le roi Jacques Ier fît empoissonner les étangs; il fît peupler leurs rives de gibier d’eau plus ou moins acclimaté, et, sur son ordre, le futur parc Saint-James fut agrémenté d’allées, de bassins, de jets d’eau. Sous Charles II, le « roi guilleret », le lac était déjà un refuge d’oiseaux; attiré par des appeaux, sans crainte de la nombreuse soldatesque cantonnée alentour, maint gibier, ordinaire ou exotique, s’y multiplia.
- Les soldats anglais d’aujourd’hui, sans parler des jeunes dactylographes et tous autres employés des ministères qui occupent presque tous les bâtiments dans Whitehall, donnent à manger aux descendants des canards sauvages que Charles II, vers le milieu du xvme siècle, s’amusait à regarder ou peut-être à voir chasser par ses fameux et si ai’istocratiques épagneuls. Avant la guerre de 1940-1945, le refuge d’oiseaux du parc Saint-James était le plus important, le plus prisé de Grande-Bretagne, du moins à l’intérieur des terres, car il en existe de beaucoup plus étendus, par exemple sur la côte de Norfolk ou dans des îles d’Ecosse.
- *
- * *
- J’ai eu une conversation fort intéressante avec M. Arthur William May, le nouveau gardien (depuis trois années) du refuge d’oiseaux du parc Saint-James. L’Ile aux Canards — c’est le nom approprié du refuge d’oiseaüx — couvre deux arpents environ de terres et d’eau,. Elle abrite en hiver plus d’un millier d’oiseaux dénommés sauvages, nombre d’entre éux des canards migrateurs. Avant la guerre, quelque trente-cinq espèces y trouvaient leur paradis. Les tirs de barrage et surtout
- Fig- 1. — Le gardien du refuge d’oiseaux du parc Saint-James, à Londres, et son pélican favori.
- les bombes — plusieurs tombèrent dans le parc et le refuge même, tuant de nombreux oiseaux — bouleversèrent cette retraite. Néanmoins, actuellement encore, les beaux jours sinon les beaux temps revenus, plus de vingt-six espèces différentes continuent à s’y plaire : huit ou dix à demeure et y faisant bon ménage avec celles qui y font escale régulièrement; toutes et tous y roucoulant à quelques mètres (à vol d’oiseau !) du palais du Parlement !
- Les oiseaux les plus remarquables en cette volière sans grillages sont, les pélicans. Il y en a toujours eu d’ailleurs, et qui s’y trouvent bien. Un exemple : sur les deux couples d’avant-guerre, il y a huit années de cela il en restait encore un, dont le mâle, Bill, était âgé, paraît-il, de soixante ans; borgne, ce qui ne l’empêchait pas, comme sa femelle, d’avoir encore bonne patte, bon œil et bon bec ! Il s’est depuis envolé au Yalhalla des bêtes à plumes et à palmes. Douze autres pélicans depuis 1952 y ont pris leurs ébats : deux originaires du Pakistan, six de la Louisiane et deux du Texas, en Amérique du Nord. A l’heure actuelle, il y en a trois, que M. May nourrit lui-même de poissons qui lui sont délivrés tous les jours. Il les appelle de leur nom et il connaît leurs petites manies, leurs humeurs. Au reste, malgré leurs ailes de fière envergure (plus d’un mètre cinquante de bout en bout déployées), ils ne peuvent s’envoler. Logés, car ils ont aussi leur hutte et leur petit rocher, et nourris, pas de crainte qu’ils aient à s’ouvrir la pqitrine...
- p.71 - vue 74/558
-
-
-
- 72
- Fig. 2. — Jeunes cormorans au nid.
- (Photo Fox, Londres).
- Été comme hiver (en été, la population de l’île et sur le lac n’est jamais au-dessous de six cents oiseaux), canards sauvages de toutes sortes, de Grande-Bretagne et d’ailleurs, foulques noirs, harles, poules d’eau, coprlis, mouettes rieuses, tadornes, et combien d’autres, ils emplissent l’île aux Canards et son lac dans tous leurs coins et recoins. M. May, comme ses prédécesseurs, les aide à nicher en préparant dès la fin de l’automne des amas de broussailles ou bien en disposant de petites caisses en guise de pondoirs aux meilleurs endroits. Il se donne aussi la peine de faire pousser de l’herbe et d’avoir des gazons pour ses oiseaux un peu partout, car les canes et les oies, en particulier, les préfèrent au sol nu et rugueux. Il m’en a montré qui sagement couvaient leurs œufs et qui ne se sont point dérangées quand nous nous sommes approchés à portée de la main.
- Plusieurs conduits souterrains mais peu profonds, venant du lac, affleurent à six ou huit mètres de là dans l’île où ils sont recouverts de gros tuyaux de grès brisés par le milieu que le gardien peut soulever; les tadornes épris d’ombre et de fraîcheur, et d’ambiance intime, y trouvent le calme et tout le confort dont ils ont besoin. En deux endroits, cachée aux regards indiscrets par le feuillage des saules, des tilleuls, des lauriers et autres buissons, il y a une cage dont les grilles sont camouflées. Elle permet d’attraper les oiseaux dont M. May veut prendre particulièrement soin. Deux petits étangs à l’abri de toute intrusion, l’un pour les hérons, l’autre pour les pélicans (du moins en principe, car d’autres oiseaux bénéficient de ces appartements privés) sont d’additionnelles aménités en ce lieu de repos, dont profitent surtout les canetons.
- Tous les oiseaux ne nichent pas : la plupart des nids, une quarantaine, sont de canards et d’oies sauvages. Peut-être les superbes tableaux en couleurs, grandeur nature, qui sont encadrés et exposés au bord du lac, aux approches du refuge, non seulement éveillent l’intérêt sympathique, toujours latent chez nos amis anglais, des futurs naturalistes, mais encore encouragent les palmipèdes à ne pas déserter l’heureux rivage P,
- Parmi les oiseaux qui en 1960 ont couvé et fait éclore leurs œufs dans le refuge de l’île aux Canards, citons : quatre oies cendrées, deux oies du Canada, des milouins de Hollande et même aussi des canards venant de Russie, de couleur rousse sauf erreur. Ceux-ci probablement avaient suivi le bel exemple des jolis canards mandarins de l’Orient, qui s’entendent d’ailleurs fort bien avec les canards américains de la Caroline. Il n’est point fait de différence entre eux tous. Notons-le ici avec satisfaction.
- Au reste, il n’y a pas seulement du gibier sauvage ou des oisillons citadins dont on perçoit les notes ou le jabotage dans le parc Saint-James. En 1955. année propice semble-t-il, on y vit le rare torcol; mieux encore, on y entendit à nouveau, à Londres, le coucou. Est-il besoin d’ajouter que le fait fut aussitôt rapporté, dès le lendemain et les jours suivants, en bonne place, dans toute la presse qui, sans mot d’ordre, s’en fit bruyamment l’écho. Heureux coucou! Il fit oublier le pic épeiche qu’on avait ramassé, mort, peu auparavant, de la suie dans ses poches.
- *
- # *
- Le profane pourrait s’imaginer que les plus gros oiseaux, dans l’île aux Canards, sont tous retenus captifs ou presque. Il n’en est rien, comme on l’a déjà compris. Certes, il en est qui y ont été introduits sciemment et dont on a pris soin de faire éclore les œufs : en iq58, des canards piilets et milouins, des sarcelles, etc.; d’autres, dont on a rogné aussi les ailes, mais qui s’y reproduisent librement : oies cendrées et du Canada, canards à tête rousse, souchets, canards morillons, etc. Cependant, en automne comme en été, il s’y trouve des oiseaux vraiment sauvages et d’autres bagués‘et repris, ainsi les canards morillons qui y reviennent surtout des pays Scandinaves, de Finlande, de l’U.R.S.S. Parfois, ce sont aussi des oiseaux rarement aperçus d’ailleurs à l’intérieur des terres, tels le canard de Miquelon à longue queue (fig. 5), le harle piette et le canard garrot.
- A la saison froide, plus nombreux et plus en évidence, combien plus bruyants, il y a des oiseaux de mer. Des mouettes rieuses y viennent en été, mais surtout en hiver, notamment des pays baignés par la mer Baltique. Les goélands, de plus
- Fig. 3. — Un couple de canards sauvages qui n’est pas très sauvage.
- (Photo Fox, Londres).
- p.72 - vue 75/558
-
-
-
- 73
- Fig. 4. — Un foulque noir réunit les matériaux de son nid.
- (Photo Fox, Londres).
- large envergure, y viennent aussi régulièrement, tous les hivers, mais en plus petites volées. Nombre d’entre eux, comme les mouettes, retournent vers mars-avril dans le Kattegat.
- Parmi les plus petits oiseaux migrateurs, citons les fauvettes d’hiver et les becs-fins, les gobe-mouches, de passage au printemps, en avril, parfois aussi en septembre, et, plus rares, les lariers.
- Enfin, par contraste avec tous ces oiseaux gros ou minuscules de pays étrangers, il ne faut pas oublier de noter les étourneaux qui, accourus à toutes ailes des comtés environnants où ils sont tous nés, viennent en été et en automne se percher dans Elle aux Canards et dans le parc Saint-James.
- Après la ponte, c’est par milliers qu’ils y font entendre leurs cris étourdissants.
- Le Ministère des Travaux Publics publie tous les deux ans un rapport intitulé Bird Life in the Royal Parks. La Natural History Society de Londres qui groupe plus d’un millier d'amis passionnés de la nature et en particulier des oiseaux, publie chaque année une brochure fort documentée, London Bird Report,
- Fi g. 5. — Canard de Miquelon ( à droite) et canards morillons.
- Le canard de Miquelon, de teinte plus claire, se reconnaît à son bec ouvert et à sa queue plus longue (Photo R. C. Homes).
- rapport sur tous les oiseaux dont le passage inhabituel a été observé partout autour de la capitale jusqu’à trente kilomètres à la ronde. Ce rapport comprend aussi des mémoires scientifiques sur toutes questions concernant la vie et le bien-être des oiseaux dans la vaste région londonienne. Un très intéressant ouvrage, The Birds of the London Area, a été publié en 1957 sous les auspices d’une commission de la London Natural History Society. M. R. C. Homes, naturaliste réputé, qui fut président de celte commission, m’a fourni nombre de renseignements dont je dois ici le remercier.
- *
- *
- Comme on le voit, à Londres même, de longue date on veille à protéger les messagers ailés des pays lointains aussi bien que les espèces autochtones. Il y a en Angleterre des lois pour impdser cette protection. Il y a aussi maintes associations officielles ou indépendantes : Société Royale pour la Protection des Oiseaux, placée sous le patronage de S. M. la reine Elizabeth, Société Selborne, Société des Naturalistes de Norfolk, etc., qui groupent, sans distinction de classe ni d’âge, les amis des oiseaux (ils sont légion en Grande-Bretagne) et qui contribuent à entretenir, notamment, de nombreux sanctuaires (qu’il nous soit permis d’employer ici la traduction littérale de sanctuary, ce mot sacré). Mais, plus efficace que les lois, il y a l’amour des oiseaux ancré depuis des siècles au cœur des habitants. Comprendre cet amour profond, vivace des Anglais pour les oiseaux, c’est mieux comprendre les liens qui les unissent à la nature vivante; c’est être mieux informé et donc aussi mieux disposé à s’entendre avec eux tous dans cette tâche de protection et, peut-être, dans quelques autres...
- Jean Frémont.
- p.73 - vue 76/558
-
-
-
- 74
- Relations neurologiques entre l'audition et la phonation
- En huit numéros parus depuis avril 195k (nos 3228, 3229, 3230, 3231, 3232, 3267, 3273 et 3275), La Nature a publié une suite d’études de M. André Gribenski, constituant une mise au point de nos connaissances actuelles sur la physiologie auditive et ses mécanismes périphériques et centraux. Par ailleurs, depuis janvier 1957, nos colonnes ont accueilli neuf études de M. Raoul Husson (nos 3261, 3262, 3267, 3271, 3275, 3281, 3285, 3289 et 3294) apportant un renouvellement complet de nos connaissances en matière de physiologie phonatoire. Ces deux domaines de la physiologie humaine, l’un sensoriel et l’autre sensitivo-moteur, sont reliés par des liens qui apparurent autrefois très mystérieux, quoique indubitables. Le présent article, après avoir relaté de nombreuses recherches expérimentales très récentes destinées à éclairer la nature de ces liens, en fait ressortir la trame et donne la solution des problèmes posés en les replaçant dans leur cadre commun de physiologie du système nerveux central.
- On sait, depuis plus d’un siècle, que, chez un sujet donné, l’audition et la phonation ne sont point deux fonctions physiologiques entièrement indépendantes. IJ fut observé, en effet, que tout enfant né sourd complet ne parle jamais. Si la surdité complète s’installe chez un enfant, qui a' commencé à parler normalement, vers l’âge de trois ou quatre ans, il cesse vite de parler il devient muet. De ces observations cliniques très anciennes, on tira la conclusion qu’une audition correcte était nécessaire pour que, chez un enfant, puissent s’établir les motricités fines qui assurent le langage parlé. Toutefois, cette conclusion, si juste qu’elle soit, n’apprenait pas grand-chose : comme l’enfant contrôle son propre langage en écoutant lui-même ce qu’il dit, on comprenait sans peine que, si un tel contrôle ne s’établit point ou cesse de très bonne heure, les motricités du langage devenaient sans objet pour le sujet. ,
- Une observation un peu plus précise fut faite au début de ce siècle par Lombard, laryngologiste des hôpitaux parisiens. Il envoyait dans les oreilles d’un sujet normal un son très intense, formé par un mélange de fréquences graves; à partir d’une intensité suffisante, le sujet cessait de percevoir sa propre voix. Lorsque cette dernière condition était réalisée, l’expérience montrait que le sujet augmentait considérablement et inconsidérément l’intensité de sa propre voix, ceci sans s’en rendre compte aucunement; de plus7 la hauteur de la voix, son timbre, et même ses modalités articulatoires, étaient assez diversement perturbés. Bien entendu, chez le sourd complet, rien de tel ne survenait; de sorte que cette épreuve, connue par la suite sous le nom d'épreuve de Lombard, constituait un test excellent pour le dépistage des simulateurs de surdité.
- Sans nous arrêter ici sur l’explication de ce phénomène, dont l’analyse physiologique complète sera donnée plus loin, disons qu’il montre cependant que, même chez un sujet normal, une perturbation suffisante des conditions de l’audition entraîne par voie réflexe des modifications importantes des motricités phonatoires. Dès lors se trouvait posé le problème de l’existence et de l’étude des liens neurologiques qui existent entre l’audition, fonction sensorielle, d’une part, et d’autre part la phonation, fonction sensitivo- et sensori-motrice complexe.
- Si des liens neurologiques existent entre la phonation et l’au-
- dition, et quel qu’en soit le détail, il semble a priori que ceux-ci dussent pouvoir se manifester dans deux sens opposés : en premier lieu par des altérations de Vaudition apparaissant pendant la phonation du sujet lui-même ; en second lieu par des modifications de la voix du sujet dans le temps même où. il reçoit dans ses oreilles des stimulations auditives.
- . En fait, la première catégorie d’effets (répercussions auditives de manifestations vocales concomitantes) se réduit à quelques faits hypothétiques; tandis que la seconde catégorie (répercussions phonatoires de stimulations auditives concomitantes) est riche de phénomènes nombreux, variés et spectaculaires. Nous nous limiterons donc à l’examen de ces derniers.
- Répercussions de l’audition sur la phonation. —
- Nous avons déjà rapporté plus haut deux faits anciennement connus (la mutité de l’enfant né sourd complet; et l’épreuve de Lombard) qui suggèrent fortement l’existence de répercussions étroites s’exerçant dans le sens audition sur phonation. Mais ce n’est cependant qu’à dater du io février ig5i que, à l’Hôpital Boucicaut à Paris, sous la direction du docteur André Moulonguet, trois expérimentateurs (les docteurs Garde et Larger, et moi-même) découvrirent que, dans certaines conditions très précises, des stimulations auditives mono-auriculaires modifiaient le comportement vibratoire de la corde vocale homolatérale sur tout sujet normal. Le réflexe cochléo-récurrentiel était découvert, et son étude devait déterminer une longue suite de recherches expérimentales.
- A peu près à la même époque était découverte aux U.S.A. une autre répercussion de certains stimulus auditifs, atteignant cette fois le langage articulé, et qui fut appelée « effet de parole retardée » ou « effet Lee ». Le réflexe cochléo-récurrentiel fut invoqué à tort à son sujet, car les motricités de l’articulation des consonnes n’intéressent point le nerf récurrent, ce qui nous dispensera d’en parler ici.
- Vers 1954, le docteur A. Tomatis fit connaître un nouvel effet de certains stimulus auditifs, modifiant la composition harmonique des voyelles émises simultanément par le sujet, et se répercutant également sur son activité respiratoire. Poursuivant ses recherches dans la même direction, il aboutissait trois années plus tard à des résultats auxquels il donnait un énoncé très systématique. Nous aurons à en parler longuement.
- A dater de iq53, un grand nombre d’expériences de stimulations auditives dans des conditions variées furent faites au Laboratoire de Physiologie de la Sorbonne, dont nous analyserons les résultats.
- En ig55, le docteur Paul Chauchard trouvait que les stimulations auditives aiguës diminuaient de nombreuses chronaxies périphériques, et le docteur Christian Chenay montrait en ig56, dans le même ordre d’idées, que des stimulations graves produisaient des effets inverses.
- Nous donnerons d’abord un exposé schématisé des voies nerveuses suivies, de l’oreille au cortex, par les stimulations auditives dans leur trajet ascendant. A certains étages, ces voies offrent des possibilités réflectives multiples, par lesquelles doivent s’expliquer toutes les répercussions des stimulus auditifs sur toutes autres activités concomitantes, somatiques ou centrales. Dans une seconde partie seront décrites et discutées toutes les expériences énumérées plus haut, dont le schéma anatomo-physiologique des voies auditives précédemment tracé constituera le cadre explicatif privilégié. Les conclusions s’ensuivront d’elles-mêmes, enlevant d’ailleurs aux faits étudiés le semblant de caractère exceptionnel qui avait pu un instant leur être attribué.
- p.74 - vue 77/558
-
-
-
- Les voies auditives et leurs possibilités réüectives.
- — La description schématique des voies auditives et de leurs relais associatifs qui suit s’inspire de l’exposé très récent donné par Kurt Goerttler, directeur de l’Institut d’Anatomie de Fri-bourg-en-Brisgau (Lehrbuch der Anatomie des Menschen, par Benninghoff-Goerttler, t. III, 5e édition, Urban et Schwarzen-berg, Munich, 1958). Nous décrirons successivement : d’abord le trajet ascendant gagnant le cortex auditif ; puis les trois niveaux réflectifs principaux (bulbaire, lemniscal et quadrigé-minal) ; et enfin le niveau associatif cortical, que nous aurons à faire intervenir dans l’explication de l’effet Tomatis.
- Le trajet ascendant cochléo-cortical. -— Les influx auditifs nés dans la cochlée (oreille interne) gagnent le cortex auditif par des voies compliquées qui peuvent être schématiquement réduites à six neurones successifs, dont les trois premiers peuvent être considérés comme bulbo-pontiques. La figure 1 en donne une image réduite à ses articulations essentielles.
- Issus de la cochlée, les influx gagnent deux noyaux bulbaires dits cochléaires, l’un dorsal NCD, l’autre ventral NGV. Selon Lewy et Kobrak, les parties dorsales de ces noyaux recevraient les tonalités graves, et les parties ventrales les tonalités aiguës. Ce qui est certain, c’est que les cellules de ces noyaux possèdent une spécialisation tonale en rapport avec celle des diffé-
- Niveau associatif cortical
- Niveau réflectir quadrigéminal
- Niveau réflectif lemniscal
- Niveau réflectif bulbaire
- __NCV
- ___PCI
- CO et OP.
- Fig. 1. — Schéma des voies auditives et de leurs principaux niveaux réflectifs ou associatifs, d’après Benninghoff-Goerttler (19S8).
- G : cochlée ; CGI : corps genouillé interne ; CO : complexe olivaire ; LL : lemniscus latéral ; NCD : noyau cochléaire dorsal ; NCV : noyau cochléaire ventral ; O : oreille externe ; OP : olive protubérantielle ; PCI : pédoncule cérébelleux inférieur ; TQA : tubercule quadrijumeau antérieur ; TQP : tubercule quadrijumeau postérieur.
- ---------------------------------------------- iù --------------
- rentes régions de la cochlée. De ces deux noyaux, les influx, divisés pour chacun en deux groupes, gagnent les deux complexes olivâtres homo- et contra-latéraux CO par des trajets compliqués (extrêmement schématisés sur la figure 1).
- Issues des olives protubérantielles, les fibres auditives s’élèvent jusqu’au noyau du lemniscus latéral LL, où certaines font synapse (ou relais).
- Puis elles parviennent aux corps genouillés internes CGI, où l’on retrouve toujours une spécificité tonale des différents noyaux.
- De là, un important faisceau se rend directement au cortex; auditif homolatéral CA, tandis que d’autres fibres auditives gagnent le tubercule quadrijumeau postérieur du même côté TQP. Ce dernier constitue un centre associatif ou réflectif important, d’où vont partir des fibres se rendant : aux corps genouillés internes des deux côtés, au tubercule quadrijumeau postérieur opposé, et même au tubercule quadrijumeau antérieur homolatéral TQA.
- Les possibilités associatives ou réflectives de ces voies sont immenses, et toutes n’ont point encore été décrites anatomiquement. Elles sont particulièrement riches en quatre niveaux qu’il importe de considérer séparément.
- Le niveau réflectif bulbaire. — Au niveau du bulbe, et de chaque côté, un amas de plusieurs groupes cellulaires, formant le complexe olivaire supérieur, distribue des fibres afférentes à de nombreuses formations parmi lesquelles on peut citer :
- a) de nombreux noyaux moteurs du tronc cérébral;
- b) le noyau du VII qui innerve les muscles stapédiens et auriculaires (oreille moyenne) ;
- c) les noyaux moteurs des cornes antérieures de la moelle cervicale ;
- d) le noyau du VIII vestibulaire ;
- e) le complexe olivaire supérieur contra-latéral;
- f) enfin la substance réticulée bulbaire, tant facilitatrice qu’inhibitrice, et par elle la plupart des noyaux moteurs et des noyaux végétatifs des nerfs crâniens (parmi lesquels le X, ou nerf vague, dont certaines fibres distribuent l’innervation motrice aux muscles du larynx et dont d’autres ralentissent les pulsations cardiaques).
- Enfin les noyaux cochléaires eux-mêmes ne sont point sans contracter de liens avec les amas réticulaires contigus.
- Le niveau réflectif lemniscal. — Au niveau du lemniscus latéral, de chaque côté, le noyau du même nom reçoit un contingent de fibres auditives ascendantes, et envoie des collatérales au tubercule quadrijumeau postérieur contra-latéral et au corps genouillé interne du même côté (voie acoustique centrale).
- Le niveau réflectif quadrigéminal. — Ce niveau réflectif est à deux étages, tous deux riches en associations multiples.
- Des tubercules quadrijumeaux postérieurs partent :
- a) des fibres se dirigeant vers le tubercule quadrijumeau antérieur homolatéral, assurant d’importants réflexes de la musculature oculaire;
- b) des fibres se rendant au tubercule quadrijumeau postérieur opposé ;
- c) des fibres nombreuses se distribuant aux noyaux moteurs des étages inférieurs, tant spinaux que pontiques et bulbaires (faisceaux dits tectaux).
- Enfin, de l’étage immédiatement supérieur constitué par les tubercules quadrijumeaux antérieurs, partiraient également un fort contingent de faisceaux tectaux ayant les mêmes destinées motrices que les précédents.
- Le niveau associatif cortical. — Quittant chaque corps genouillé interne, le dernier tronçon des fibres auditives se
- p.75 - vue 78/558
-
-
-
- 76
- Convexité gauche du cortex humain et emplacement
- Fig. 2.
- rfes aires auditives et para-auditives, d’après K. Brodmann.
- Explications dans le texte.
- rend au cortex auditif homolatéral, situé dans le lobe temporal, dans la circonvolution dite de Heschl, qui forme le versant inférieur de la scissure de Sylvius (aire 4i de Brodmann). Sa partie externe reçoit, les tonalités aiguës, et sa partie interne les tonalités graves. Ce cortex auditif primaire est en relations associatives avec de nombreuses autres aires ou formations cérébrales dont' les principales sont les suivantes (fig. 2) :
- i° L’aire 42 de Brodmann, dite première aire para-auditive, qui entoure presque complètement la précédente. Elle reçoit encore directement certaines fibres auditives issues du corps genouillé interne homolatéral, et paraît assurer certaines fonctions motrices d’attention auditive.
- 20 L’aire 22 de Brodmann, dite seconde aire para-auditive, qui entoure les deux précédentes et occupe les deux tiers postérieurs de la première circonvolution temporale. Elle est poly-sensorielle, car elle reçoit également des influx vestibulaires se rapportant aux phénomènes d’équilibration. Cette aire 22 assure des fonctions de « reconnaissance par l’oreille » (ou gnosie auditive) en réalisant les liens étroits avec :
- a) certaines aires dévolues à d’autres sensorialités, comme la vision (aires 18 et 19) ;
- b) certaines aires relatives à la motricité complexe dite extra-pyramidale (aires 6, 8 et 44 notamment, cette dernière inhibitrice du langage articulé) ;
- c) certaines aires liées aux phénomènes de mémpration (aires 20 et 21, d’après Penfield et Jasper, rgha) ;
- d) le cortex frontal antérieur, qui assure des fonctions d'intégration intellectuelle de niveau élevé.
- Cette énumération très incomplète, qui passe en revue les quatre niveaux associatifs les plus importants des voies auditives centrales, met déjà en évidence le nombre et la variété des répercussions que les stimulus auditifs sont susceptibles d’exercer sur une foule de phénomènes somatiques ou centraux, tant végétatifs que moteurs, ainsi que sur nombre de réponses adaptées et de comportements. Les effets multiples provoqués par les auditions musicales trouvent notamment ici leurs explications. Nous allons voir que les répercussions phonatoires des stimulus auditifs prennent place de façon banale, et sans difficulté, au sein de ce tableau général, encore incomplètement inventorié.
- Les principaux faits expérimentaux de répercus= sions phonatoires de stimulus auditifs et leurs interprétations. — Nous nous bornerons à l’examen des faits les mieux connus, ou ayant, fait l’objet par nos soins d’expériences précises.
- L'intégration auditive de la fréquence des influx récurrentiels dans le chant. — Nous avons découvert en 1960, et signalé dans notre thèse (Paris, 17 juin ig5o), que chaque fois qu’un sujet émet un son à hauteur voulue, avec représentation préalable psycho-auditive de la hauteur, la fréquence de la voix, c’est-à-dire des ouvertures glottiques phonatoires, est tenue. 11 faut entendre par là que, durant toute l’émission de la voyelle, les périodes sont rigoureusement identiques (à un millième près). Au contraire, lorsque le sujet émet une voyelle au hasard, sans se préoccuper de la hauteur, les phonéticiens avaient remarqué depuis longtemps que la hauteur vocalique n’était pas tenue, mais fluctuait d’une période à la suivante (variation atteignant 12 pour 100 en valeur absolue). Nous en avons conclu que, dans le chant, un contrôle cortical s’exerçait sur les rythmes d’influx récurrentiels qui assurent la voix, tandis que, dans la parole ordinaire, en l’absence d’un tel contrôle, ces rythmes se trouvaient libérés (au sens de Jackson) et dès lors fluctuaient à chaque instant. Par la suite, des expériences faciles montrèrent que ce contrôle, dans le chant à hauteur voulue, était exercé par le cortex auditif.
- Cette intégration des fréquences récurrentielles, lorsqu’elle se réalise, exige l’existence de voies nerveuses qui relient le cortex auditif en un point (quelconque) des circuits moteurs conduisant les influx phonogènes aux cordes vocales, et d’une façon plus précise aux fibrilles musculaires des thyro-aryténoïdiens internes assurant les démasquages rapides et périodiques de la glotte. Ces voies intégratives auditivo-corticifuges ne sont pas encore connues.
- Le réflexe cochléo-récurrentiel ; expériences de Garde, Larger et Husson (février 1951). — Les expériences suivantes furent faites en février 1951, dans le Service O.-R.-L. de l’Hôpital Boucicaut dirigé par le docteur André Moulonguet., par les docteurs Garde et Lai’ger et nous-même : un sujet émettant un son piano sous vision laryngostroboscopique, on lui envoie dans une oreille un son pianissimo de fréquence rigoureusement identique au son émis. On voit alors la corde homolatérale se raidir, accusant un accroissement de tonicité (fig. 3). Si l’intensité de la stimulation auditive croît progressivement, le raidissement gagne la corde hétéro-latérale (avec réduction de l’amplitude vibratoire). Si la fréquence de la stimulation auditive est un peu différente de celle du son émis par le sujet, des irrégularités vibratoires peuvent apparaître dans le comportement des cordes vocales. Si la stimulation auditive est faite à l’aide d’un mélange de fréquences quelconques (bruiteur), l’accroissement de tonus que l’on constate peut gagner toute la musculature laryngée et périlarvngée.
- Fig. 3. — Expérience de Garde, Larger, Husson (février 1951) ayant mis en évidence l’existence d’un réflexe cochléo-récurrentiel.
- Le sujet émet un son pianissimo, tandis que l’observateur O regarde le comportement des cordes vocales CV à travers un stroboscope S. Pendant ce temps, une oreille (une seule) du sujet est stimulée par un son de très faible intensité (dispositif non figuré), l’autre oreille étant bouchée par une boule Quies. La corde vocale du côté stimulé accuse un supplément
- de tonicité.
- p.76 - vue 79/558
-
-
-
- 77
- En laissant de côté la question des irrégularités vibratoires éventuelles qui peuvent apparaître, l’effet de stimulation tonique constaté a été appelé réflexe cochléo-récurrentiel.
- Ces expériences ont été refaites peu après à l’Hôpital de la Grave à Toulouse, dans le service du professeur Calvet, par les docteurs Birague, Bonpont et Mailhac et nous-même, puis au Laboratoire de Physiologie de la Sorbonne à titre de démonstration en de multiples circonstances.
- Leur interprétation est la suivante : la stimulation d’un noyau cochléaire, au niveau du bulbe, se diffuse dans la substance réticulée et gagne en premier lieu les noyaux moteurs homolatéraux, notamment le noyau ambigu d’où partent les fibres motrices récurrentielles homolatérales. Si elle est assez forte, elle peut atteindre les noyaux moteurs hétérolatéraux (fig. 4). Il est à peine besoin d’ajouter que ce réflexe est en réalité cochléo-bulbo-réticulo-bulbo-récurrentiel. Nous le verrons intervenir dans un grand nombre d’expériences ultérieures.
- Fig. 4. — Diffusion bulbaire de l’activité des noyaux cochléaires susceptible d’expliquer le réflexe cochléo-récurrentiel.
- Coupe du bulbe au niveau des noyaux du vague, d’après Ch. Eyriès (Encyclopédie médico-chirurgicale, vol. ORL, novembre 1955, article 20632 A 10). FP : faisceau pyramidal ; \ Am b. : noyau ambigu ; NC : noyaux cochléaires ; NDV : noyau dorsal du vague ; NFS : noyau du faisc. solitaire ; NH : noyau de l’hypoglosse ; N ST : noyau sensitif du trijumeau ; NV : nerf vague ; OB : olive bulbaire ; PCI : pédoncule cérébelleux inférieur. Les stimulus auditifs mettent les noyaux cochléaires en état d’activité ; cette activité se diffuse à travers la substance réticulée bulbaire, et peut gagner nombre de noyaux voisins, parmi lesquels le noyau ambigu, d’où partent les libres motrices récurrentielles aboutissant à la musculature laryngée.
- Analyse complète de l'épreuve de Lombard ; expériences et interprétation de Garde (1952). — Garde est le premier à avoir compris que la vieille épreuve de Lombard (voir plus haut) ne relevai! nullement de l’explication avancée par son auteur (le sujet élève l’intensité de sa voix pour tenter de se réentendre), et à en avoir donné une interprétation correcte. Pour lui, le mélange de fréquences graves et intenses envoyé dans les oreilles du sujet au cours de cette épreuve produit deux effets superposés : a) en premier lieu un effet de masque sur toutes les fréquences audibles, effet bien connu et qui a pour résultat que le sujet ne perçoit plus sa propre voix; b) en second lieu une hyperstimulation auditive qui, dès le niveau bulbaire, se déverse par la formation réticulaire sur tous les noyaux moteurs voisins et active notamment les centres respiratoires et la musculature adéquate.
- En vue de prouver le bien-fondé de cette interprétation, il a réalisé les deux expériences suivantes :
- i° Il assourdit un sujet normal à l’aide de boules a Quies » introduites dans les oreilles : le sujet ne s’entend plus que faiblement. Si l’explication de Lombard était exacte, le sujet,
- s’entendant moins, devrait élever l’intensité de sa voix. C’est le contraire qui se produit : l’intensité vocale du sujet ne s’élève nullement et finit même par décroître (en raison du déficit constant de stimulation‘cochléo-récurrentielle).
- a0 Autre expérience : il laisse les conduits auditifs du sujet entièrement libres (donc exempts d’assourdissement), mais provoque une stimulation auditive corrélative par voie osseuse par un diapason dont le pied repose sur le rocher. Puisque le sujet s’entend toujours parfaitement, aucune élévation de l’intensité de sa voix ne devrait se manifester, selon l’explication de Lombard. C’est le contraire qui apparaît : un accroissement net d’intensité vocale se réalise toujours (en conséquence d’une hyperstimulation cochléo-récurrentielle mesurée).
- L’épreuve dite d'assourdissement de Lombard est donc en réalité une épreuve d'hyperstimulation auditive. Nous allons en rencontrer de nombreuses illustrations.
- Vibration des cordes vocales chez des sourds-muets parlants ; observations de Bouche, Vuillemey et Husson (avril 1953). — Un certain nombre de sourds-muets parlants, rééduqués vocalement et conduits par leur professeur, M. Paul Vuillemey, agrégé de l’Enseignement des Sourds, furent examinés au laryngostroboscopc en avril ig53 dans le service O.-R.-L. de l’Hôpital Boucicaut. dirigé par le docteur André Moulonguet. L’observation fut exécutée par le docteur Bouche et moi-même.
- Chaque sujet, émettant un son sous vision laryngostrobosco-pique, présentait une image laryngée parétique typique : défaut d’occlusion à Carrière, bords libres des cordes vocales mal tendus, amplitude vibratoire exagérée. Cette hypotonie habituelle provenait évidemment d’un fort déficit des afférences qui assurent le maintien du tonus glottique, privé ici en effet de toutes les afférences d’origine auditive.
- Remarque amusante : l’un des sujets examinés ne présentait pas l’image laryngée parétique typique; ses accolements laryngés étaient presque normaux. Un examen plus complet permit alors de découvrir qu’il possédait encore quelques restes auditifs, qui étaient passés jusque-là inaperçus. Lorsque la sirène du stroboscope était placée à sa droite ou à sa gauche, son oreille droite ou gauche recevait un supplément de stimulation, et sa corde A-ocale homolatérale, selon le cas, accusait un comportement amélioré.
- Vibration des cordes vocales chez des sourds centraux vocalement rééduqués ; observations de Bouche, Vannier, Vuillemey, Husson (avril 1953). — Trois sourds centraux (sourds-muets de naissance issus de parents eux-mêmes et des deux côtés sourds-muets de naissance), rééduqués Amicalement et conduits par leur professeur M. Paul Vuillemey, furent examinés à la même époque et dans les mêmes conditions au laboratoire de physiologie de la Sorbonne. L’observation laryngo-stroboscopique de la glotte pendant l’émission des sons révéla comme ci-dessus une image laryngée parétique typique et constante. L’envoi dans les oreilles d’un son de i3o décibels ne détermina aucune réaction des sujets (ni même de modification pupillaire), attestant la cophose complète.
- L’épreuve de Garde (unilatérale) fut pratiquée (i3o décibels d’un côté seulement) sous vision laryngostroboscopique. Elle fut, chose digne de remarque, trouvée légèrement positive chez l’un des trois sujets : ce sujet manifestait donc encore une certaine activité neurophysiologique cochléo-bulbaire, malgré une surdité corticale certaine.
- Vibration des cordes vocales en cas de surdité cochléaire unilatérale ; observation de Vannier et Husson (janvier 1954). — Un sujet présentant une surdité unilatérale complète (rare) par destruction de la coclilée fut examiné à la Sorbonne en janvier xg5-4 par le docteur J. Vannier et moi-même. L’observation laryngostroboscopique montra qu’à l’état
- p.77 - vue 80/558
-
-
-
- 78
- normal, la corde vocale homolatérale présentait une hypotonie permanente (avec amplitude vibratoire accrue) (fig. 5). En chambre presque sourde, l’hypotonie semblait gagner partiellement la corde opposée. Au sein d’un bruit intense, la corde hétérolatérale recevait un tonus accru et se raidissait fortement, tandis que la corde normalement hypotonique recevait elle-même un supplément (moindre) de tonicité.
- Une observation de même nature avait été faite à Toulouse en février ig5i (voir plus haut).
- Oreille saine
- Oreille sourde
- ____ML
- CV..____
- Fig. 5. — Observation de Vannier et Husson (janvier 1954).
- Un miroir laryngoscopique (très grossi) est placé sur la luette du sujet et permet l’observation stroboscopique des cordes vocales. Le sujet présente une surdité totale de l’oreille droite. On note alors que la corde droite a un comportement hypotonique permanent (figuré ici par un accroissement de son amplitude vibratoire). CV : corde vocale ; E : épiglotte ; L : langue ; MA. : mamelon arytécroïdien ; MI. : miroir laryngoscopique ;
- TL : tige du laryngoscope.
- Remarque. — Tous les faits expérimentaux recueillis jusqu’à présent et exposés ci-dessus sont d’interprétation immédiate. Ils démontrent et traduisent la mise en œuvre d’un réflexe cochléo-bulbo-réticulo-bulbo-récurrentiel certain, à prédominance homolatérale, susceptible de se diffuser à de nombreux noyaux bulbaires voisins (moteurs, sensitifs, végétatifs). Rappelons ici que la stimulation du nerf trijumeau produit des effets analogues (La Nature, mars ig58, p. 93).
- Les expériences que nous allons décrire maintenant sont d’interprétation plus délicate et font parfois intervenir des niveaux réflectifs ou associatifs plus élevés.
- Expérience des voyelles dites « redressées » de Sau-mont, Vannier, Gaillard, Husson (avril 1953). — Le Docteur Àzzo Azzi, réputé phoniatre de Milan, avait porté à notre connaissance, en janvier 1953, la curieuse expérience suivante : si un auditeur reçoit dans ses oreilles la voix redressée d’un sujet (voir la figure 6ab pour l’explication du sens du mot redressé ici), il l’entend à l’octave aiguë du fondamental d’émission, ce qui est tout à fait normal; mais si la voix ainsi redressée est écoutée par le sujet lui-même qui l’émet, ce dernier l’entend à sa hauteur réelle, ce qui paraît paradoxal.
- Nous avons entrepris, avec les docteurs Saumont et Vannier, en avril ig53, au Laboratoire de Physiologie de la Sorbonne,
- Fig'. 6. — Schémas explicatifs d’un son dit
- redressé ».
- En a, son simple ou sinusoïdal. En b, le même son, mais « redressé » ; il est visiblement de fréquencce double ; mais son timbre est modifié.
- Redresseur
- Redresseur
- Fig. 7. — Schéma des expériences des voyelles « redressées » de Saumont, Vannier, Gaillard et Husson (avril 1953).
- Le sujet émet une voyelle fermée piano devant un micro M, et le son est « redressé » (voir fig. 6 a et b). A la sortie du redresseur, le son est dirigé, soit dans les oreilles d’un auditeur (a), soit dans les oreilles du sujet lui-même (b). La particularité de l’expérience réside en ce que, pour un même son émis par le sujet, un auditeur le perçoit à la fréquence double, tandis que le sujet lui-même le perçoit à sa fréquence réelle.
- fi
- l’étude poussée de ce curieux phénomène en en faisant varier les diverses circonstances (hauteur, intensité, voyelle émise, registre d’émission). Les résultats complets figurent dans la Revue de Laryngologie, supplément de février 1954, p. i52. La figure 7ab représente le montage (très simple) de l’expérience, dont nous ne rappellerons ici que le résultat le plus intéressant : lorsque le sujet lui-même écoute sa propre voix redressée, lorsque le son émis est un son de premier registre sur une voyelle fermée à fondamental prédominant (comme OU), et lorsqu’au surplus le son qu’il émet est un son « filé »
- pp<r ff PP
- Lesujel entend 1
- sa propre voixà > doublée une fréquence J non doublée- doublée
- Fig. 8. — Perception d’un son « filé » redressé, par le sujet lui-même, d’après Saumont, Vannier, Gaillard et Husson (avril 1953)>
- Lorque le sujet lui-même (fig. 7 b) écoute un son « filé », c’est-à-dire émis d’abord pianissimo, puis progressivement forte et fortissimo, puis ramené au pianissimo, la fréquence qu’il perçoit est double de celle du son qu’il émet lorsque le son est émis pianissimo, et elle est la fréquence réelle lorsque le son est émis fortissimo. Explications dans le texte.
- p.78 - vue 81/558
-
-
-
- 79
- (allant progressivement du pianissimo au fortissimo, et retour), il perçoit sa propre voix à sa fréquence réelle dans le fortissimo, et à l’octave aiguë dans le pianissimo; entre ces deux intensités extrêmes, l’oreille hésite dans l’appréciation de l’octave d’émission (fîg. 8). Ce résultat fut longuement vérifié. Il est très net dans les circonstances énumérées ci-dessus, et uniquement dans ces conditions expérimentales.
- Après bien des hésitations et des discussions, nous en avons proposé l'explication suivante : nous posons que le sujet peut entendre sa propre voix : a) par voie externe; b) par voie interne osseuse et tissulaire ; c) par diffusion des noyaux bulbaires moteurs vers les noyaux et synapses auditifs de même niveau. Lorsque la voix est émise fortissimo, la diffusion bulbaire (nécessairement à la fréquence réelle) est forte, et elle occupe les voies auditives ascendantes en totalité; le sujet n’entend plus rien d’autre. Lorsque la voix est émise pianissimo, la transmission tissulaire et la diffusion bulbaire sont faibles, de sorte que les voies auditives ascendantes ne sont que très partiellement occupées; dans ces conditions, la transmission externe est perçue, et elle impose évidemment une fréquence double à la perception (puisqu'elle est redressée).
- Blocage des synapses bulbaires du neri récurrent par des stimulus auditifs rigoureusement synchrones à déphasage variable ; expériences de Vannier, Saumont, Labarraque, Husson (juillet 1953). — Les expériences que nous allons maintenant relater sont peut-être les plus curieuses et les plus suggestives parmi toutes celles qui ont été réalisées au laboratoire de physiologie de la Sorbonne, entre ig53 et iq56, sur le problème des liens auditivo-phonatoires. L’idée centrale était la suivante : puisque les stimulus auditifs peuvent se diffuser au niveau du bulbe et venir dynamogénéiser les noyaux moteurs récurrentiels, serait-il possible, par ce procédé, de mettre ces derniers en état de « période réfractaire », ce qui supprimerait ou entraverait la vibration des cordes vocales (et par conséquent la formation de la voix) ?
- La réalisation d’une telle expérience exigeait l’emploi de stimulus auditifs perturbateurs rigoureusement synchrones avec la voix : pour cela il fallait prendre la voix du sujet elle-même. Il fallait en outre que l’activité électrique perturbatrice diffusée par les noyaux cochléaires parvînt aux noyaux ambigus juste un dix-millième de seconde (environ) avant le départ des influx récurrentiels, afin d’annuler ces départs par un effet de réfrac-torité : il était nécessaire pour cela de faire varier à volonté la phase des influx auditifs (sans modifier leur fréquence). Le montage de la figure 9 décrit l’expérience qui fut réalisée en juillet ig53, et dont les résultats détaillés ont été relatés dans la Revue de Laryngologie, supplément de février ig54, P- 160. La seule difficulté du montage (mais sérieuse) était la construction d’un variateur de phase susceptible d’explorer un inter-valle de o à 2 Te : elle fut surmontée par le docteur J. Vannier, à l’aide d’un variateur à deux étages explorant chacun une demi-période. Les observations laryngostroboscopiques furent faites, par le docteur L. Labarraque, brillant phoniatre parisien, et vérifiées par chacun de nous à tour de rôle. Elles donnèrent ce qui suit :
- i° Le sujet émet une voyelle fermée pianissimo en premier registre sur une tonalité assez grave (entre 100 et 200 Hz), sous vision laryngostroboscopique; capté par un micro, le son traverse le variateur de phase, puis est retourné sur une seule oreille du sujet; pendant que le sujet tient sa note longuement, un aide agit sur le variateur de phase de manière à faire varier la phase (qui parvient à l’oreille) de façon continue de o à 2 tc. On observe les deux phénomènes suivants : a) pour un certain déphasage, toujours le même à fréquence donnée, la voix du sujet s’éraille, et celui-ci doit faire croître la pression sous-glottique pour maintenir l’émission; b) pendant ce temps, l’observateur qui regarde le larynx voit la corde homolatérale présenter des irrégularités vibratoires : elle s’arrête en position
- Dépbaseur réglable
- Micro
- Stroboscope
- Oscillographe cathodique à double trace
- Fig. 9. — Schéma de l'expérience de blocage des synapses bulbaires du nerf récurrent par des stimulus auditifs synchrones à déphasage variable (Vannier, Saumont, Labarraque et Husson, juillet 1953).
- Sous vision laryngostroboscopique, un sujet émet un son tenu (voyelle fermée émise piano) qui est ramené dans l’une de ses oreilles (ou dans les deux à la fois) après avoir passé dans un « variateur de phase » qui modifie sa phase à volonté entre 0 et 2 it. Un oscillographe cathodique à double trace, placé en dérivation, permet de suivre le déphasage imposé aux stimulations auditives. Résultats expérimentaux décrits dans le texte.
- médiane, rqpart, s’arrête, etc., l’autre corde vibrant normalement.
- 20 On place l’écouteur unique sur l’autre oreille du sujet, et on recommence l’expérience identiquement. On note les mêmes altérations de la voix, survenant pour le même déphasage, tandis que c’est l’autre corde vocale (donc toujours du côté stimulé) qui présente les mêmes irrégularités de comportement.
- 3° On place cette fois un écouteur sur chaque oreille du sujet, et on recommence l’expérience identiquement. On note les mêmes faits toujours pour le même déphasage; mais les altérations vocales sont plus sérieuses, et le sujet a le sentiment que sa voix « se bloque » par instant; sur l’image 1 ryngoscopique, on voit les deux cordes s’arrêter en position d’accolement, repartir, s’arrêter à nouveau, etc.
- Sans aller plus loin dans la discussion des expériences (variées) qui furent faites, il est certain que le « gros » du phénomène est bulbaire et répond aux hypothèses de travail qui ont conduit à sa mise en évidence.
- Expériences de Tomatis : premiers résultats (1954). —
- Le docteur A. Tomatis a publié, depuis 1952, de nombreux résultats nouveaux concernant la physiologie auditive. Nous ne rapporterons ici que ceux relatifs à une action des stimulus auditifs sur le timbre de la voix émise simultanément par le sujet qui les reçoit.
- Filtre
- Filtre
- passe-bas
- passe-haut
- Fig. 10. — Schéma de la première expérience de A. Tomatis (1954).
- Le sujet émet des sons tenus (ou parle) devant un micro M, et reçoit dans ses propres oreilles les sons émis après que ceux-ci sont passés dans deux étages de filtre, susceptibles soit de supprimer tous les harmoniques supérieurs à 500 Hz, soit de supprimer tous ceux inférieurs à 2 000 Hz. Résultats expérimentaux décrits dans le texte.
- p.79 - vue 82/558
-
-
-
- 80
- Voici la première expérience décrite par Tomatis (1964) et mettant, cette action en évidence (fig. 10). Les faits sont réels et facilement vérifiables. Un sujet émet une voyelle tenue (chantée) devant un micro; la tension' recueillie traverse deux filtres, l’un « passe-bas » réglé sur 5oo Hz, l’autre « passe-haut » réglé sur 2000 Hz, pouvant fonctionner séparément; à la sortie des filtres, la tension est renvoyée à des écouteurs sur casque posés sur les oreilles du sujet. Celui-ci reçoit donc sa propre voix, qui peut être diversement « filtrée ». Ceci posé, les deux faits signalés par Tomatis sont les suivants :
- i° Si on ne laisse passer que les harmoniques inférieurs à 5oO’ Hz, le sujet éprouve vite des difficultés d’émission : sa voix perd ses harmoniques aigus, son mordant; ses poumons se vident rapidement, il s’essouffle. Au laryngostroboscope, nous avons constaté que le larynx présentait une forte hypotonie glottique.. Elle explique les faits observés.
- 20 Si on ne laisse passer que les harmoniques supérieurs à 2 000 Hz, le sujet éprouve une facilitation de son émission : sa voix s’enrichit en harmoniques aigus, devient mordante ; le souffle est économisé. Au laryngostroboscope, nous avons constaté que le larynx présentait un tonus glottique très élevé. 11 explique les faits observés.
- Ainsi donc, ces expériences mettent en évidence un fait nouveau : les stimulations auditives déclencheraient, au niveau du bulbe, des effets variables selon leur fréquence. Ils seraient inhibiteurs du tonus glottique au-dessous de 5oo Hz, et excitateurs du tonus glottique au-dessus de 2 000 Hz. L’explication de cet effet différentiel, non encore fixée avec certitude, pourrait relever du fait suivant : les parties des noyaux cochléaires (fig. 1) recevant les tonalités graves contracteraient des rapports plus étroits avec la substance réticulée inhibitrice ; tandis que les parties des mêmes noyaux recevant les tonalités aiguës contracteraient des rapports plus étroits avec la substance réticulée facilitatrice.
- Expériences de Tomatis : seconds résultats (1957). —
- A. Tomatis est revenu à plusieurs reprises sur les expériences du type précédent, les a systématisées et en a finalement formulé les résultats globaux sous la forme condensée suivante : « La voix d’un sujet ne contient que les harmoniques que son oreille peut entendre ».
- Cette proposition ne saurait être vraie au pied de la lettre, car un sourd complet ne saurait alors émettre aucune voix; et par ailleurs, si un sujet a un scotome auditif total entre 1 000 et 1 800 Hz par exemple, on ne voit pas comment son larynx pourrait le « savoir », et comment il pourrait supprimer électivement ces fréquences de sa propre fourniture. Les phénomènes sont donc moins simples que ne le laisse paraître l’énoncé ci-dessus. Nous en avons fait l’étude expérimentale approfondie en 1967 au laboratoire de physiologie de la Sorbonne, dont le lecteur trouvera le résumé dans La Nature, mars 1958, p. 96. Nous n’en reproduicons ici que les résultats essentiels.
- Le sujet émet une certaine fourniture F (c’est-à-dire une certaine voyelle). Cette fourniture F est modifiée par un système de filtres différentiels, qui la transforment en une fourniture différente F'. Et c’est cette fourniture F' qui est renvoyée dans les oreilles du sujet. Ceci posé, voici les faits observés :
- a) Si F' est très voisin de F, le sujet, à son insu, modifie sa propre émission et se met à émettre F' (sans s’en rendre compte) ;
- b) Si F' n’est que faiblement apparenté à F, le sujet ne fait qu’amorcer la modification de F vers F';
- c) Si F' est très différent de F, il ne se passe plus rien (le sujet éprouve seulement une gêne particulière).
- L’explication de ces faits est la suivante : en recevant F' par l’oreille, c’est le schéma corporel vocal (Soulairac) de F' qui est activé dans les centres encéphaliques du sujet. Dès lors les rétroactions exercées par ce schéma corporel vocal tendent à régu-
- lariser l'émission de F' et non de F. Ce qui explique les phénomènes observés. Ces rétro-actions provoquent des ajustements du tonus glottique et des adaptations .des attitudes pharyngo-buccales, bien observables dans certaines conditions.
- L’effet Tomatis, comme nous l’avons appelé, résulte donc d’un ensemble complexe d’actions réflectives de niveau cortical.
- Expériences de Chauchard et Mazoué (1955) et de Che-nay (1956). — Le Docteur P. Chauchard et H. Mazoué ont fait connaître, en 1966, que les stimulations auditives aiguës (de l’ordre de 3 000 Hz et au-dessus) ainsi que les ultrasons provoquaient une diminution immédiate et sensible de nombre de chronaxies nerveuses périphériques et centrales; leurs expériences avaient été faites sur l’animal. Le docteur C. Chenay, spécialiste de la clironaximétrie récurrentielle chez l’homme, reprit ces expériences sur l’homme en vue de voir les répercussions éventuelles des stimulations auditives sur l’excitabililé du nerf récurrent, qui commande, comme on le sait maintenant, la tessiture de chaque sujet. On lira le détail de ses résultats dans la Revue de Laryngologie, supplément de juillet 1967, p. 629, d’où nous extrayons ce qui suit :
- ) La stimulation auditive par des sons graves (inférieurs ou égaux à 5oo Hz) diminue l’excitabilité récurrentielle; la stimulation par des sons aigus (supérieurs ou égaux à 2 000 Hz) l’augmente : ces modifications se maintiennent plusieurs minutes après la cessation de la stimulation auditive;
- ) Sur des sujets fatigués vocalement, ces modifications sont plus faibles, mais durent plus longtemps;
- c) La fatigabilité nerveuse qui survient après des stimulations auditives graves paraît rapide et relativement importante, ce qui appelle de justes réserves relativement à l’emploi excessif de telles stimulations à la fois dans le test de Lombard et dans certaines épreuves audiométriques.
- L’interprétation neurologique de ces résultats laisse encore place à quelques doutes. On peut invoquer, comme nous l’avons fait plus haut, des rapports plus étroits entre les noyaux cochléaires relatifs aux sons graves et la substance réticulée inhibitrice, et entre les noyaux relatifs aux sons aigus et la substance réticulée facilitatrice. Mais, sachant que les métachro-noses périphériques sont sous la dépendance du noyau rouge, on peut également invoquer l’existence de liens associatifs différenciés entre cette formation et les tubercules quadrijumeaux postérieurs, sur lesquels une topographie tonale a été reconnue (existant d’ailleurs à tous les niveaux des voies auditives). L’existence de rapports tendant aux mêmes effets, à différents niveaux, est au surplus possible.
- Conclusions. — Les expériences relatées et discutées ci-dessus, choisies entre beaucoup d’autres, montrent que les relations neurologiques qui existent entre la phonation et l’audition ne procèdent d’aucun « deus ex machina » spécialement créé pour relier ces deux fonctions. L’extraordinaire richesse des voies auditives en circuits l'éfleclifs ou associatifs, étagés en quatre niveaux (au moins), suffit pour expliquer toutes les répercussions connues des stimulus auditifs sur la voix, sans qu’il soit nécessaire d’invoquer l’existence de soi-disant « automatismes acoustico-phonatoires » aussi complaisants que vagues.
- D’ailleurs, les motricités phonatoires n’ont pas l’exclusivité des perturbations auditives. Celles-ci se déversent sur presque toutes les motricités somatiques (voir les travaux de Fraissé, G. Oléron, Francès, etc.), qui sont d’autant plus touchées qu’elles sont plus fines, et sur nombre d’activités sensorielles et végétatives.
- Raoul Husson,
- Ancien élève de l’École normale supérieure, Docteur ès Sciences, Lauréat de l’Institut et de l’Académie de Médecine.
- p.80 - vue 83/558
-
-
-
- LES SIMULATEURS DE VOL
- L’accroissement des performances des avions et particulièrement des vitesses de vol s’est traduit par une notable complication des fonctions de pilotage et des postes de commande. La formation et l’entraînement des pilotes s’cn trouvent d’autant plus longs. Aussi, pour réduire les heures passées en vol sur avions-écoles ou avions d’entraînement, on a créé des « simulateurs de vol » qui reproduisent au sol les caractéristiques des divers instruments de pilotage et permettent de simuler n’importe quel cas de vol.
- Un simulateur de vol est donc avant tout une copie conforme du poste de pilotage tel qu’il se présente sur l’avion, avec toutes les commandes, instruments et voyants de contrôle. Les commandes sont reliées à des dispositifs à base de ressorts qui permettent de communiquer la même sensation d’effort que dans la réalité, et à une calculatrice électronique qui reçoit des signaux proportionnels à leur déplacement. Le rôle du calculateur est de transformer toutes les indications de position des commandes en valeurs des paramètres de vol qui seront affichées sur les instruments de contrôle. Pour que ces valeurs soient les mêmes que celles qui correspondraient à la manoeuvre en vol réel, le calculateur doit résoudre un grand nombre d’équations différentielles.
- L’instructeur possède un tableau de commandes qui comporte toutes celles mises à la disposition de l’élève; il dispose également d’un jeu de manettes qui lui permettent de choisir les conditions de vol (température et pression extérieures, vitesse et direction du vent, fréquence des aides de navigation radioélectriques) ou de déclencher arbitrairement une panne parmi la centaine de pannes possibles (panne de moteur, du circuit hydraulique, échauffement trop élevé de la tuyère d’échappement, givrage de la voilure...); les réactions des pilotes à ces différentes pannes peuvent ainsi être étudiées. Un des gros avantages du simulateur de vol est d’ailleurs de pouvoir reproduire des pannes qui en vol réel présenteraient de graves dangers, l’appareil risquant de s’écraser au sol; c’est le cas en particulier d’une panne de moteur ou d’une mise en vrille. Ajoutons encore que le réalisme des conditions de vol est
- Fig. 1. — Vue extérieure du cockpit simulateur de vol du D. C. 8 construit par la Link Aviation.
- Devant, le cockpit, l’écran de 4,5 x 3,6 m, qui permet de donner au pilote sa position et ses mouvements pendant les opérations de décollage et d’atterrissage sur un aérodrome Actif, grâce à la projection d’une image télévisée. (Photos aimablement communiquées par la Douglas Aircrafl Co.).
- Fig. 2. — Le poste de pilotage du simulateur de vol du D. C. 8.
- On voit l’image du terrain d’atterrissage projetée sur l'écran. Un système électronique, comprenant un circuit fermé télévision-caméra, donne une image conforme à la réalité de l’approche, de l’atterrissage et du décollage.
- complet; l’éclairage extérieur peut être réglé à la demande et même simuler le vol de nuit.
- La plupart des bruits liés au vol de l’avion sont également reproduits : sifflements dus à l’éjection des gaz des turboréacteurs, bruits de fond des équipements, bruits dus à la manoeuvre des volets et des trains, chocs des pneus lors de l’atterrissage...
- Un simulateur de vol est évidemment conçu en vue du pilotage d’un modèle d’avion déterminé, puisqu’il doit tenir compte des caractéristiques aérodynamiques propres de cet avion, ainsi que de ses commandes et de ses instruments de pilotage. Actuellement, tous les avions construits en grande série, que ce soit pour des usages militaires ou civils, donnent lieu à des simulateurs de vol. En France, là Société d’Ëlectro-nique et d'Automatisme a réalisé des simulateurs pour le bombardier biréacteur S. O. 4o5o « Vautour » et le moyen-courrier à réaction S.E. 210.« Caravelle ».
- Aux Etats-Unis, la société Link Aviation, spécialisée dans le domaine des équipements électroniques, a réalisé pour le Douglas D.C. 8 un simulateur qui va jusqu’à projeter visuellement l’image des pistes d’aéroport et du terrain environnant, pendant les décollages, l’approche et les atterrissages (fig. 1 et 2). Cette vue est transmise par une caméra de télévision qui se déplace au-dessus d’une maquette en relief du terrain d’atterrissage, tout en suivant les mouvements simulés de l’avion. Mais un tel perfectionnement coûte évidemment très cher.
- Pour l’entraînement à la radionavigation, le pilote à l?exer-cice peut capter jusqu’à six stations de radio, y,compris toute
- p.81 - vue 84/558
-
-
-
- 82
- combinaison de Y.O.R., I.L.S., G.C.À. et autres instruments de balisage radioélectrique. Cette même' firme réalise pour les avions supersoniques des simulateurs qui reproduisent pour l’entraînement à la navigation la voûte céleste avec les principales étoiles des deux hémisphères. Les pilotes peuvent ainsi s’exercer à la navigation astronomique.
- Des simulateurs, d’hélicoptères sont déjà à l’étude.
- Quelles améliorations peut-on attendre dans l’avenir ? En premier lieu, la simulation du dernier paramètre de vol qui n’ait pu être reproduit jusqu’ici, à savoir l’accélération. Le procédé à l’étude porte sur l’utilisation d’un fuselage mobile
- dans n’importe quelle direction; en effet, la combinaison d’une accélération quelconque avec l’accélération de la pesanteur revient à remplacer la verticale par une verticale apparente inclinée sur cette dernière. Si donc l’inclinaison du fuselage du simulateur se fait très lentement sans que le pilote s’en aperçoive, l’effet sera le même pour lui que s’il avait été soumis à une accélération réelle.
- On peut espérer que l’emploi du simulateur de vol se généralisera à tous les stades de l’entraînement, réduisant ainsi le coût de la formation d’un pilote qualifié et participant à l’accroissement de la sécurité de la locomotion aérienne.
- Développements du Bréguet 940 « Intégral » à décollage vertical
- Dans le numéro d’avril 1959 de La Nature (p. i56), nous avons présenté l’appareil expérimental à décollage vertical Bréguet g4o « Intégral ». Un an de mise au point en vol a permis de donner une confirmation éclatante aux prévisions de la firme Bréguet en dépassant les performances contractuelles de décollage et d’atterrissage cependant très sévères.
- Les essais en vol sont longs et minutieux, car l’exploration complète des domaines de vol comporte un grand nombre de paramètres, dont certains entièrement nouveaux comme la commande différentielle des hélices asservie à la commande de gauchissement et le freinage en vol par les hélices extrêmes. Cette exploration, effectuée pour la première fois dans le monde, devait être conduite avec beaucoup de méthode. De plus, le système de contrôle à quatre fonctions des pas d’hélice a nécessité une mise au point approfondie.
- Au décollage, le g4o, d’un poids total de 6 600 kg et avec une puissance de 1 600 ch, a franchi 'l’obstacle réglementaire de i5 m en 190 m à la vitesse ascensionnelle de 7 m/s. A l’atterrissage, des distances de l’ordre de i3o m ont été obtenues par vent nul depuis le franchissement des i5 m jusqu’à l’impact, et le roulement au sol a conduit à des distances comprises entre 200 et 25o m.
- Sur la base des résultats acquis avec le g4o, deux projets ont été établis, ne différant que par la structure et la forme du fuselage, le cargo g4i et l’avion de transport pressurisé 942. Leurs caractéristiques principales sont les suivantes : poids total maximum : 20 t; poids à vide équipé : 11 t; charge utile totale : 9 t; groupes moteurs : 4 turbopropulseurs General Electric T. 58 de 1 25o ch chacun; vitesse de croisière : 4oo km/h; distance franchissable avec 4 t : 5 000 km.
- La Société Turboméca développe actuellement un turbopro-pulseur de 1 260 ch également, le Turmo III C, qui pourrait être monté sur ces deux appareils. Les caractéristiques d’utilisation de ces avions sont les suivantes :
- Cargo Bréguet 9U1. — Deux variantes sont envisagées. D’une part, un cargo pur, comportant un large accès arrière par rampe structurale permettant le chargement de véhicules ou de frets très encombrants, jusqu’à i3 m de longueur, tels que : camions G.M.C., engins sol-sol, avions d’appui tactique légers démon-
- tés, 4o parachutistes et leur matériel, etc. D’autre part, une version mixte où la rampe arrière est remplacée par un escalier structural pour l’accès des passagers. Ces deux versions comportent en outre à l’avant une porte de 1,80 x 0,80 m.
- En version cargo, la soute rectangulaire offre un volume utile de 5c m3 et une surface de plancher de 24 m2. En version passagers, la cabine non pressurisée peut être aménagée pour contenir jusqu’à 48 personnes.
- Avion de ligne Bréguet 942. — Cet appareil destiné aux lignes d’apport locales comporte un fuselage pressurisé circulaire aménagé pour 4o à 44 passagers. Les aménagements sont conçus pour un service très rapide aux escales : large porte arrière avec casiers à bagages près de l’entrée. Voilure et systèmes sustento-propulseurs sont identiques à ceux du g4i.
- Ces deux appareils représentent une étape révolutionnaire dans la technique du transport aérien. Avec une large avance sur de nombreuses études mondiales, ils permettent, grâce à leurs dispositions aérodynamiques et propulsives d’un caractère nouveau, de combiner des vitesses de croisière relativement élevées, une charge utile importante avec l’emploi de terrains rustiques de longueur comprise entre 200 et 5oo m. Ce sont donc d’innombrables centres nouveaux qui pourront bénéficier des avantages du transport aérien sans les énormes dépenses d’infrastructures entraînées par les appareils rapides à réaction.
- Pour l’emploi militaire, le g4i représente la première réalisation pratique et efficace d’un avion de transport tactique utilisable sur terrains rustiques. Il pourra par exemple : exécuter des missions d’assaut au plus près des troupes de combat et enlever des charges volumineuses ou des véhicules lourds; ravitailler en personnel et en matériel des unités éloignées des grands terrains d’aviation et assurer les transports sanitaires.
- Dans le transport civil, le cargo mixte 941 sera particulièrement utile aux pays sous-développés dont les réseaux de transport de surface sont limités; le 942 sera au contraire un avion de lignes d’intérêt local, connectées avec des réseaux long-courriers et desservant un grand nombre d’agglomérations qui n’auront jamais, pour des raisons géographiques ou budgétaires, de terrains pour les avions rapides classiques.
- Un large marché est donc ainsi ouvert à ce type d’appareils.
- Deux réussites : le Fouga « Magister » et le Morane 760 « Paris »
- Outre le biréacteur de transport moyen-courrier « Caravelle », dont nous avons déjà parlé ici, deux autres appareils français témoignent par leur vente à l’étranger de la valeur de la construction aéronautique française.
- Le Fouga. « Magister ». — Biplace en tandem, entièrement métallique, le prototype du Magister équipé de deux réacteurs Turboméca « Marboré » de 4oo kg de poussée unitaire fit son premier vol le 28 juillet 1952.
- Pesant à pleine charge 3 i65 kg, le Magister bénéficie des avantages suivants : sécurité (biréacteur répondant aux conditions de sécurité de vol sur un seul propulseur), maniabilité, performances élevées (nombre de Mach maximum de o,83, plafond de 12 000 m), équipement moderne (cabine pressurisée, servitudes électriques, commandes hydrauliques, train tricycle escamotable), armement varié, y compris deux engins
- s's. 11.
- Confronté avec-tous les appareils d’entraînement militaires
- p.82 - vue 85/558
-
-
-
- 83
- de l’époque, le Magister fut déclaré en 1953 par l’OTAN « le mieux adapté pour l’entraînement moderne des pilotes opérationnels ». Il permet en effet l’entraînement intégral, depuis la phase de début jusqu’à l’entraînement à la chasse.
- La commande française s’élève à xg5 avions jusqu’à maintenant, mais divers marchés ont été passés avec les forces aériennes étrangères : 140 appareils ont été construits en France et a5o sont construits sous licence à l’étranger, principalement en Allemagne; au total 390 ont été vendus.
- Un dérivé du Magister a été réalisé pour l’entraînement sur porte-avions; il s’agit du 175 a Zéphyr » qui possède une verrière coulissante, un train plus élevé et renforcé, une crosse d’appontage et un crochet de catapultage. 3o appareils ont été commandés par l’Aéi'O-Navale et seront livrés à la fin de i960.
- Le M.S. 760 « Paris ». — Répondant au même programme que le Magister, la société Morane-Saulnier réalisa le 755 « Fleuret », biplace côte à côte et non en tandem, qui ne fut pas commandé en série. Morane-Saulnier décida alors d’extrapoler de ce biplace un quadriplace à réaction de liaison
- et d’entraînement, le « Paris ». Cet appareil entièrement métallique, à aile basse et à cabine pressurisée, pèse à pleine charge 3 470 kg. Grâce à ses réservoirs internes et externes (en bouts d’aile), il a une autonomie de 1 3oo km pour une vitesse de croisière éconqmique de 55o km/h. La vitesse maximum est de 710 km/h.
- Sa large cabine climatisée et confortable est de nature à séduire l’utilisateur dispensé de se vêtir spécialement comme la chose est courante sur avions à réaction. Son démontage par éléments donne une accessibilité exceptionnelle de tous ses organes et permet en particulier le remplacement des réacteurs en moins de 60 mn par trois mécaniciens.
- De nombreuses démonstrations des qualités de cet appareil à travers le monde ont conduit à la commande par différents pays étrangers de 57 exemplaires qui viennent s’ajouter aux 5o appareils commandés en France pour l’Armée de l’Air et l’Aéro-Navale.
- Signalons que cet appareil est, encore à l’heure actuelle, le seul quadriplace à réaction construit en série.
- J. Spincourt.
- Nouvelles techniques de fabrication de l’acide sulfurique
- Il y a quelques années, nous entreprenions dans cette revue l’examen de l’industrie chimique en France en commençant par l’étude de l’acide sulfurique (La Nature, février 1962) et en insistant sur l’évolution très rapide que connaît cette industrie. Bien que nous ayons déjà complété cette mise au point en exposant par la suite un nouveau procédé monté dans diverses usines françaises, le procédé Kachkaroff (septembre 1955), il nous paraît opportun de revenir aujourd’hui sur cette question, en montrant les modifications importantes qui se sont manifestées dans cette fabrication.
- Tandis que depuis 1952 un nouveau mode de grillage des pyrites s’est développé en France, la mise en exploitation récente du gisement de gaz de Lacq est en train de révolutionner notre économie du soufre et par conséquent la fabrication de l’acide sulfurique. Jusqu’ici, nous ne disposions pratiquement pas de soufre en France 0, et devions importer tout le soufre élémentaire qui nous était indispensable pour les besoins de notre viticulture, pour la vulcanisation du caoutchouc et pour la fabrication du sulfure de carbone. Dans ces conditions l’industrie de l’acide sulfurique était restée fidèle aux pyrites, que nous produisions dans les régions de Lyon et d’Alès (3oo 000 t environ) et que nous importions, d’autre part, d’Espagne, du Portugal, de Chypre et de Norvège. Or, l’épuration du gaz de Lacq, qui titre 16 pour 100 d’hydrogène sulfuré, va nous permettre de disposer de quantités considérables de soufre : alors que l’exploitation actuelle, portant sur environ 1 000 000 m3 de gaz par jour, fournit déjà 60 000 t de soufre par an, 1 Extension de l’usine doit permettre de traiter d’ici deux ans 20 000 000 m3 de gaz par jour et d’obtenir dans ces conditions plus d’un million de tonnes de soufre par an. Une telle production serait théoriquement suffisante pour satisfaire non seulement nos besoins en soufre élémentaire, indispensable au traitement de la vigne, à la vulcanisation et à la fabrication du sulfure de carbone (environ 100000 t), mais aussi pour assurer la production de notre acide sulfurique qui, de l’ordre de 2 000 000 t, exige environ 600 000 t de soufre.
- 1. L'exportation de Malvézy, près de Narbonne, qui fournissait la 000 t/an, a été arrêtée en 1953, le prix de revient du soufre étant trop élevé.
- Étant donné les avantages que présente dans cette fabrication la substitution du soufre aux pyrites, on pourrait en effet supposer que les usines françaises remplaceront le grillage des pyrites par la combustion du soufre. En fait, les problèmes économiques sont beaucoup plus complexes et il apparaît que cette substitution ne sera pas totale. Il est vraisemblable que, d’une part, nous continuerons à utiliser les pyrites françaises et que, d’autre part, nous continuerons à importer des pyrites étrangères, notamment des pyrites espagnoles, qui constituent la contrepartie de certaines de nos exportations... et dans ces conditions nous serons alors à même d’exporter du soufre.
- Compte tenu de ces considérations économiques, il nous paraît donc intéressant de donner quelques indications sur les nouveaux appareils utilisés pour griller les pyrites, de préciser dans quelles conditions on brûle le soufre, de montrer les modifications qu’entraîne la substitution du soufre aux pyrites dans la fabrication de l’acide sulfurique et enfin de dire quelques mots d’un nouveau procédé récemment appliqué en France : la catalyse humide.
- Méthodes modernes de grillage des pyrites. — Les
- fours à soles que nous avons décrits précédemment sont encore les plus répandus dans les usines françaises; nous avions toutefois indiqué que, devant la difficulté d’accroître leur capacité, on avait mis au point en Allemagne des fours rotatifs, véritables fours à ciment, dans lesquels la pyrite introduite à une extrémité se trouvait au contact de l’air amené par un jeu de tuyères et était brûlée complètement lorsqu’elle avait traversé le four. Un tel four avait été adopté après la guerre dans une usine du Nord de la France, un deuxième four Lurgi a été mis en service plus récemment dans la région lyonnaise et permet de griller de 80 à 100 t de pyrites par jour avec un minimum de main-d’œuvre.
- Dans ces fours comme dans les fours à soles on ne se souciait initialement pas de récupérer les calories libérées par la combustion des pyrites et ce n’est que devant la concurrence du système du grillage éclair qu’on s’est préoccupé de récupérer une partie de ces calories en envoyant les gaz qui sortent de ces fours, vers 8oo°, dans un faisceau tubulaire, générateur de
- p.83 - vue 86/558
-
-
-
- 84
- vapeur. Le grillage éclair, mis au point par Freeman au Canada dès 1927 et consistant, comme nous l’avons indiqué précédemment, à considérer la pyrite comme un combustible et à l’utiliser comme du charbon pulvérisé dans une chambre de combustion, en envoyant les gaz formés sur un faisceau tubulaire, s’est en effet développé après iq45 en France et dans le monde : on comptait, en iq5i, 5i installations pouvant traiter de 20 à 100 t de pyrites par jour, en produisant environ i,5 t de vapeur par tonne de pyrites.
- Mais aussitôt après la guerre, le développement des techniques de fluidisation, initialement appliquées par Winkler au gazogène, puis étendues durant la guerre sur une grande échelle au craquage dans l’industrie du pétrole, a conduit à substituer au grillage éclair des pyrites le grillage en lit fluidisé.
- Le procédé consiste à faire passer à travers un solide pulvérisé, disposé au-dessus d’une grille ou d’une paroi poreuse, un gaz à un débit tel que les particules de solide soient mises en suspension sans être entraînées, de telle sorte que la suspension se comporte comme un liquide en ébullition. Si, dans le cas des pyrites, l’air qui constitue le fluide gazeux utilisé est porté à une température suffisante, celles-ci s’enflamment et chaque grain entouré d’air brûle avec une vitesse comparable à celle qui caractérise le grillage éclair. Le débit gazeux optimal dépend de la nature et de la granulométrie de la pyrite et de la hauteur de la couche. Comme dans le grillage éclair, la teneur en S02 pourrait atteindre i5 pour 100 mais la température des gaz serait trop élevée et, pour limiter celle-ci, on recycle une partie des gaz ou l’on dispose au sein du lit un faisceau tubulaire parcouru par de l’eau; de toute façon les gaz, à 12 pour 100 environ de S02, traversent un faisceau tubulaire où l’on récupère une partie importante de la chaleur de combustion de la pyrite.
- Comparable à un liquide, la couche fluidisée est caractérisée par un coefficient de transfert élevé et l’on peut facilement construire des fours grillant 20 t de pyrites par mètre carré de grille et par 24 heures.
- Divers appareils ont été proposés ; nous décrirons l’appareil Lurgi B.A.S.F. utilisé dans certaines usines françaises, et constitué essentiellement (fig. 1) par un cylindre vertical de 5 m de haut et dont le diamètre est variable avec la capacité du four : 1,2 m pour 26 t/j; 2,5 m pour 90 t/j; il comporte une boîte à vent, une cuve et une chambre de post-combustion.
- La cuve briquettée (A) comprend une grille en fonte ou en fer forgé (B), qui supporte le lit fluidisé et dont la température ne doit pas dépasser 3oo°, grâce à l’arrivée d’air froid et aux éléments de réfrigération (C).
- zzzzzz
- Fig. 1. — Coupe de l’appareil Lurgi B.A.S.F.
- Explications des lettres dans le texte.
- Le lit fluidisé, dont la hauteur atteint o,5 m au repos et 0,75 m en marche, est alimenté en pyrites par l’arrivée (D) en relation avec le distributeur (E) et la trémie (F) ; la pyrite doit être broyée de telle sorte que les grains aient moins de 5 mm de diamètre ; une certaine proportion de fines est toutefois nécessaire afin que le lit présente une résistance suffisante; après un séjour moyen de 4o mn, les grains de pyrite, transformés en cendres, sont éliminés par le ti'op-plein (H) (3o à 5o pour xoo) ou entraînés par les gaz (5o à 70 pour 100). Avec les pyrites flottées toutes les cendres sont pratiquement entraînées. Les cendres se déposent dans des chambres (G), où des faisceaux tubulaires (I) permettent de récupérer la chaleur des gaz. La pression d’air sous la grille est de 700 à 800 mm d’eau et la température du lit de 85o° à 900°; on obtient des gaz à r4 pour roo de S02 et la dépense d’énergie varie de 29 a i3 kWh selon la capacité du four, tandis que la production de vapeur atteint 1 à i,3 t par tonne de pyrites.
- Ces appareils, très souples et d’une grande puissance, ont l’avantage de nécessiter un broyage moins poussé que le grillage éclair et de permettre l’utilisation de pyrites humides; ils entraînent peu de frais de main-d’œuvre et d’énergie et produisent des quantités importantes de vapeur. Ils sont adoptés de plus en plus dans les nouvelles installations de grillage de pyrites et de blendes.
- Combustion du soufre. — Les installations d’acide sulfurique qui brûlent du soufre utilisent de plus en plus des fours à pulvérisation horizontaux (fig. 2) ou verticaux, comparables à des fours à mazout.
- àir
- 7777777777777777177777777777777/7/7777/77^^
- '/ kmssl VA
- I
- 77I77Z7I7I7777j7L77^77777/////Y///771
- en ac/er
- Diatomite Réfractaire Pyromètr?
- Fig. 2.
- Coupe de four à pulvérisation.
- Ces fours sont alimentés avec du soufre liquide, obtenu par fusion du soufre dans un fondoir en maçonnerie comportant un faisceau tubulaire où circule de la vapeur; le soufre, porté à une température (i3o°-i4o°) où sa viscosité est faible et éventuellement filtré (sur des bougies en carbone par exemple), est pulvérisé grâce au brûleur placé à l’avant (four horizontal) ou au plafond (four vertical) du four. Celui-ci, constitué essentiellement par un cylindre comportant une virole en acier, une couche de diatomite isolante et une couche de réfractaire, comprend fréquemment une voûte à treillage qui complète le brassage des gaz. Un four de 20 t/j peut avoir i,3 m de diamètre et 7,2 m de long.
- Les gaz, quittant le four à 8oo°-x ooo°, sont envoyés dans une chaudière d’où ils sortent vers 4oo°, en produisant de l’ordre de 2,5 t de vapeur par tonne de soufre. Cette quantité déjà considérable de vapeur, c’est-à-dire d’énergie, peut être encore plus importante si le four à soufi'e considéré alimente une fabrication d’acide sulfurique par le procédé de contact. Si l’on a pris la précaution de filtrer et de sécher l’air de combustion (sur de l’acide sulfui’ique par exemple), les gaz ainsi obtenus sont suffisamment purs pour être envoyés à l’atelier de contact dans les caisses à catalyse, sans auti’e purification qu’un passage à travers une tour remplie de blocs de quartz, susceptibles d’arrêter les faibles quantités de cendres entraînées : dans ces conditions on évite la purification com-
- p.84 - vue 87/558
-
-
-
- 85
- plexe et coûteuse nécessaire avec les gaz qui proviennent de la combustion des pyrites (voir La Nature, août 1962, p. 248), purification qui, en refroidissant les gaz, exige ensuite de réchauffer ceux-ci par les gaz sortant des caisses de catalyse avant de les envoyer sur lesdites caisses où la température doit être d’environ 45o°. Ce procédé dit « dés gaz chauds » permet alors d’utiliser la chaleur dégagée par la réaction dans les caisses et entraînée par les gaz, pour préchauffer l’air de combustion du soufre et, en obtenant des gaz à une température plus élevée, pour produire davantage de vapeur dans le générateur que ceux-ci traversent.
- En Ira vaillant ainsi, la production d’une tonne d’acide sulfurique permet d’obtenir une tonne de vapeur sous i5 kg de pression. Si l’on considère un atelier de i5o t/j, on peut alors compter sur une production de 5 t/h de vapeur à 24 kg surchauffée à 34o° et faire alors tourner un turbo-alternateur de 65o kW. Les 760 kg/h de vapeur (sous une pression de 4 à 6 kg) nécessaires pour fondre le soufre peuvent être récupérés sur les turbines et la dépense en énergie nécessaire pour l’atelier ne dépasse pas 160 kWh : 5oo kWh sont alors disponibles et l’on a pu dire ainsi que l’atelier d’acide sulfurique devenait alors une centrale thermique...
- Ajoutons qu’on se préoccupe d’adapter à la combustion du soufre les appareils à lit fluidisé utilisés pour le grillage des pyrites, en alimentant ces appareils avec du soufre, qui arrive sur un lit fluidisé de sable porté à une température convenable.
- Procédé de catalyse humide. — La pénurie de soufre qui s’est manifestée dans le monde en 1950 a activement contribué au développement de la récupération du soufre, dont on parlait jusque-là beaucoup mais qu’on pratiquait peu. Tandis que diverses raffineries françaises récupèrent l’hydrogène sulfuré contenu dans les gaz de craquage, par un procédé comparable à celui qui est mis en œuvre à Lacq et basé sur l’emploi des éthanol-amines, quelques cokeries récupèrent également l’hydrogène sulfuré présent dans les gaz de fours à coke. Divers procédés, dont celui à l’ammoniac, permettent d’extraire ce gaz, souillé d’anhydride carbonique et d’acide cyanhydrique. Comme les cokeries utilisent de l’acide sulfurique pour fixer l’ammoniac contenu dans les gaz de fours à coke (2), il était intéressant de chercher à fabriquer l’acide sulfurique nécessaire à partir de l’hydrogène sulfuré ainsi récupéré. Ceci est théoriquement facile à réaliser; il suffit de brûler l’hydrogène sulfuré en anhydride sulfureux :
- H2S + 3/2 02 = S02 + II20
- et de diriger les gaz obtenus sur un atelier de contact : en
- 2. Aux États-Unis, quelques cokeries emploient l’acide pliosphorique et produisent du phosphate diammonique, engrais mixte.
- fait, ces gaz contiennent plus d’eau que n’en exige la formation d’acide monohydraté (H2S04) car, en dehors de l’eau formée par la réaction, ils renferment celle qui est contenue dans les gaz récupérés, en fait saturés en eau.
- Si, contrairement à ce que l’on a longtemps admis, cette vapeur d’eau ne gène pas la catalyse au vanadium, elle a pour inconvénient de former avec S03 des brouillards très difficiles à condenser. On peut éviter leur formation en faisant passer les gaz qui sortent des caisses de catalyse dans un condenseur à faisceau tubulaire en acier dont les tubes sont munis d’anneaux Rascliig et plongés dans l’eau; les anneaux se recouvrent alors d’une pellicule d’acide qui absorbe S03 et H30. Ce procédé, adopté dans diverses installations Lurgi, présente divers inconvénients, mauvaise tenue des condenseurs, séparation incomplète de l’acide, et Lurgi a été amené à mettre au point un procédé qui ne cherche plus à éviter la formation des brouillards : une fois formés on les condense.
- Pour cela les gaz, provenant de la combustion et amenés de 900° à 45o° par passage dans une chaudière, sont mélangés à l’air nécessaire à l’oxydation de S02 et envoyés sur le catalyseur qu’ils quittent à 4oo° ; on les dirige sur une tour d’absorption arrosée avec de l’acide provenant précisément de la séparation des brouillards : 5o à 60 pour 100 de l’acide sont condensés tandis que le reste subsiste à l’état de brouillard dont on provoque la condensation par passage dans un électrofiltre : les gaz résultants ne renferment plus que o,5 pour 100 de S02 + S03 tandis que l’acide condensé est envoyé au sommet de la tour d’absorption. Ce procédé, appliqué dans une douzaine d’usines allemandes, anglaises, belges, hollandaises, produisant de 8 à 55 t/j d’acide, permet de fabriquer dans le Pas-de-Calais, à Mazingarbe, 8 à 10 t/j d’acide.
- Signalons que la présence d’acide cyanhydrique à côté d’ammoniac, dans l’hydrogène sulfuré ainsi récupéré, ne serait pas gênante : ces gaz se transforment, lors de l’oxydation, en vapeurs nitreuses qui, dans les conditions de l’absorption, ne passeraient qu’en très faible proportion dans l’acide sulfurique : 0,2 à 2 g/l, teneur que l’on peut réduire par addition d'urée.
- *
- * *
- Comme nous l’indiquions précédemment, l’industrie chimique connaît à notre époque une évolution quasi continue, au rythme très rapide, et l’on risque de se faire un tableau assez erroné de ses techniques si l’on ne prend pas la peine de se tenir au courant des transformations multiples qu’elle connaît.
- Henbi Guérin,
- Professeur à la Faculté des Sciences de Nancy.
- Les projets Inga au Congo belge
- Le gouvernement belge a décidé la réalisation dé la première tranche du projet d’Inga appelé Inga I. Il s’agit d’édifier un barrage et une centrale électrique près de l’embouchure du Congo (on sait que le Congo est coupé de chutes et de rapides entre Léopoldville et la mer ; on sait également que le débit du fleuve (60 000 m3/s) le place au second rang mondial). La puissance installée serait de 1 370 000 kW, et l’achèvement de l’ensemble serait chose faite en 1964. Le coût total atteindra 1,5 milliard NF (15 milliards de francs belges).
- La création du barrage d’Inga I entraînera l’implantation d’un complexe industriel important dans le bas Congo : les investissements nécessaires sont également de l’ordre de 15 milliards F B, et le centre industriel ainsi créé prendra place, dans l'économie-congolaise, aussitôt après le® mines du Katanga.
- Ce complexe comprendra notamment les installations suivantes : une raffinerie d’aluminium (Compagnie belge de l’Aluminium), pro-
- duisant quelque 350 000 t par an ; .une usine d’engrais azotés (firme Azotinga), une usine de pâte de bois (Agrifor), une fabrique de ciment (Ciminga), une fonderie de titane. Éventuellement d’autres fonderies pourraient s’installer, traitant les minerais du Katanga. Enfin un groupe belge envisage une usine d’électrolyse du sel et une société américaine une usine de magnésium.
- Un nouveau port, d’une capacité de 1 Mt de marchandises par an, s’ajoutera près de -Borna aux ports du bas Congo, dont le plus important reste Matadi (capacité annuelle récemment portée à 2,6 Mt). On prévoit 2 km de quais et l’édification d’une nouvelle localité qui compterait 50 000 habitants dont 1 000 Européens.
- Ultérieurement, les travaux pourront* concerner une extension des possibilités du site d’Inga : le projet Inga II aurait une puissance de 4 M.kW et le projet Inga III une puissance de 25 M.kW 1 Ce dernier chiffre en ferait de très loin la première centrale hydroélectrique du monde 1 Sa réalisation n’est pas prévue avant 1990.
- p.85 - vue 88/558
-
-
-
- 86
- LE CIEL EN MARS I960
- SOLEIL : du lGr mars au 1er avril (à 0h) sa déclinaison croît de — 7°40' à + 4°28' et la durée du jour de 10h59m à I2h'i7m ; diamètre apparent le 1er = 32'19",S, le 31 = 32'3”,4. — LUNE : Phases : P. Q. le 5 à llh6m, P. L. le 13 à Sh26m, D. Q. le 20 à (jivilni, N. L. le 27 à 7h3Sm ; apogée le 6 à 2h, diamètre apparent 29'33”’ ; périgée le 19 à 7h, diamètre apparent 32'19". Principales conjonctions : avec Uranus le 10 è 18h, à 4°1' S. ; avec Neptune le 10 à 16h, à 1°56' N. ; avec Jupiter le 20 à llh, à 4049' N. ; avec Saturne le 21 à 14h, à 4°2b' N. ; avec Mars le 24 à 4h, à 4°» N. ; avec Mercure le 25 à 12h, à 0°42' N. ; avec Vénus le 25 à "12h, à 2°35' N. Principales occultations : le 4, de 75 Taureau (mag. 5,3) immersion à 20h43m,6, de 77 Taureau (mag. 4,0) immersion à 20ho2»,5 et de 2M B. Taureau (mag. 4,8) immersion à 2lh45m,l ; le 6, de 111 Taureau (mag. 5,1) immersion à 0h2m,9 ; le 11, de 14 Lion (mag. 3,8) immersion à 3h2ôm,l ; le 25, de Mercure (mag. 1,1) immersion à 1 ,5 et émersion
- à 13h6m,3, à observer en plein jour à la lunette. — PLANÈTES : Mercure, s’observe encore le soir au début du mois, puis devient invisible ; Vénus, devient peu visible le matin ; Mars, faible étoile du malin, se lève un peu avant Vénus ; Vesta, dans le Sagittaire se lève vers 3h, en conj. avec Jupiter le 12, à 4°lo' N., positions : le 1er, •17h47m et —18040', le 14 : 18*4» et — 18°45', le 21 : IS^O» et — 18°45', le 31 : IS^i™ et — 18°4', mag. 7,2 ; Jupiter, dans le Sagittaire, radieuse étoile du matin, mais basse au S-E, le 16,
- diamètre app. 34”,0 ; Saturne, dans le Sagittaire, étoile du
- malin se lève 1 h après Jupiter ; Uranus, dans le Lion, visible la plus grande partie de la nuit, le 16, position : 9h211,1
- et + 1G010', diamètre app. 3",8 ; Neptune, dans la Balance
- s’observe dès la fin de la soirée, le 16, position : li^S™ et
- — 12043', diamètre app. 2”,4. — ETOILES VARIABLES : minima observables il’Algol (2m,2-3m,5) le 3 à 0h,G, le 5 à 2lh,4, le S à 18h,4, le 20 à 5h,5, le 23 à 2h,3, le 25 à 23M, le 28 à 19h,9 ; minima de jî Lyre (3m,4-4P1,3) le 6 à 20h,0, le 19 à 18h,3 ; minima de 8 Balance (4m,S-5m,9) le 2 à 4h,3, le 9 à 3h,9, le 16 à 3h,5, le 23 à 3^,0, le 30 à 2h,6 ; maxima de R Bouvier (5m,9-13m,l) le 15, de R Chiens de chasse (6m,l-12m,8) le 17, de R Lion (4“,4-ll“,6) le 23. — TEMPS SIDERAL : au méridien de Paris à 0h (T. U.) : le 1er : 10h44m33s, le 11 : llh23P158s, le 21 : 12h3m24s, le 31 : 12h42“49s.
- Phénomènes intéressants.—Surveiller l’activité solaire.
- — Équinoxe de Printemps le 20 à 14h43m. — Le 13, éclipse totale de Lune, pratiquement invisible en France, entrée de la Lune dans la pénombre à 5h35m,3 (seule visible à Paris) ; dans l’ombre à 6h38m,l ; début de la totalité à 7M0m,7 ; milieu de l’éclipse à 8h27m,7 ; fin de la totalité à 9M4m,8 ; sortie de la Lune de l’ombre à 10h17m,4 ; de la pénombre à llh20m,l ; grandeur de l’éclipse : 1,515 ; à Paris, coucher de la Lune à 6hSm. — Le 27, éclipse partielle de Soleil, invisible en France, commencement à 5h28m,l ; maximum à 7h21m,7 ; fin à 9ll211“,3 ; grandeur de l’éclipse : 0,706. — Du 29 mars au 2 avril, lumière cendrée de la Lune, le soir. — On ne manquera pas d’observer à la jumelle les déplacements des planètes : Vesta, Uranus et Neptune aux positions indiquées. — Les belles constellations d’hiver, signalées le mois précédent, se couchent de plus en plus tôt.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur. L. Taiitois.
- VIENT DE PARAITRE
- Amateurs d’ASTRONOMIE, adhérez à la SOCIlTl ASTRONOMIQUE DE FRANCE COLLECTION « SCIENCE ET PROGRÈS »
- fondée eu 1887 par C. Feammarion, reconnue d’utilité publique en 1897 vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à votre disposition, une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc. IMAGES DU CIEL
- Demandez les programmes au Siège Social Hôtel des Sociétés Savantes, 28, rue Serpente, Paris-6* Permanence, tous les jours non fériés de 14 à 17 h par J. GAUZIT Astronome à l’Observatoire de Lyon
- Cotisations : Région Parisienne, 18 NF ; France, 1S NF ; Étranger, 23 NF ; Étudiants, 2,50 NF. Droits d’inscription, 2 NF ; Étudiants, 1,50 NF. vi-66 pages et 89 planches 21 x 27. Br. sous couvert, illustrée. 18,50 NF
- Spécimen gratuit de la revue sur demande. Demandez « Splendeur de l’Astronomie », les plus belles photographies astronomiques : 16 pages 13,5x20,5, tirage néogravure bleu nuit. 0,65 NF franco. En vente dans toutes les bonnes librairies et chez DUNOD Éditeur. 92, rue Bonaparte, Paris-6'. DAN 99-15.
- LES LIVRES NOUVEAUX
- Le calcul intégral et différentiel à la portée de tous, par Silvanus P. Thompson. Traduit de l’anglais par A. Eric Gérard. 4° édition revue et corrigée. 1 vol. 14 x 22, 232 p., 67 lig. Dunod, Paris, 1959. Prix, broché sous couverture illustrée : 9,60 NF.
- Quatrième édition, qui prouve le succès que ce livre a déjà rencontré auprès de ceux qui veulent s’initier au calcul intégral et différentiel. Les malhématiques y sont présentées simplement avec de nombreux exercices dont les solulions sont indiquées.
- Cours élémentaire de mathématiques supérieures. Tome F. Les équations différentielles et leurs applications, par J. Qoinet. 2° édition. 1 vol. 16 x 25, 228 p., 58 fig. Dunod, Paris, 1959. Prix : 11 NF.
- Après une étude théorique détaillée des équa-
- tions différentielles du 1er et du 2e ordre, un grand nombre d’applications, tirées des problèmes de physique les plus variés, permettent à Fauteur de montrer l’immense domaine d’utilisation des équations différentielles. Ceci l’a amené à développer essentiellement les équations les plus fréquentes et les plus utiles en pratique, sans trop s’attarder à des considérations purement théoriques. Cet exposé est donc assez éloigné des cours classiques de mathématiques mais son utilité semble incontestable. Liste récapitulative de toutes les formules du tome ; 300 exercices et problèmes.
- Principles of quantum electrodynamics, par
- Walter E. TinnniNG. Traduit de l’allemand par J. Bernstein. 1 vol. 15,5 x 23,5, xvr-234 p.. fig. Academie Press, New York et Londres, 1958. Prix, relié : 8 dollars.
- La théorie quantique du champ électromagné-
- tique est sans doute l’une des branches les plus avancées de la physique théorique. C’est un sujet délicat qui est abordé ici au niveau supérieur : l’ouvrage s’adresse aux spécialistes connaissant la dynamique relativiste et la mécanique quantique ordinaire.
- Solid State Physics, publié sous la direction de Frédéric Seitz et David Turnbull. Volume 9. 1 vol. 15,5 x 23,5, xvi-548 p., fig. Academie Press, New York, 1959. Prix, relié : 14,50 dollars.
- Plusieurs articles rassemblés dans ce volume traitent des aspects peu communs de la physique des solides : spectres électroniques des cristaux aromatiques et des ions dans une matrice cristalline, électrisation statique par frottement, correction des distributions angulaires de désintégration en phase solide, comportement oscillatoire de la conductivité électronique et de la susceptibilité magnétique à basse température. L’ouvrage contient deux articles importants sur les semi-conducteurs polaires du type PbS et les solutions solides imparfaites.
- Methods of Experimental Physics, publié sous la direction de L. Marton. Volume 1 : Clas-sical Methods, compilé par I. Estermann. 1 vol. 15,5 x 23,5, xii-596 p., fig. Volume 6 : Solid State Physics, 2“ partie : Electrical, magnetie and optical properties, compile par K. Lark-Hohovitz et Vivian A. Johnson. 1 vol.
- p.86 - vue 89/558
-
-
-
- 87
- 15,5 x 23,5, xiv-416 p., fig. Academie Press Inc., New York, 1959. Prix, reliés : vol. 1, 12,80 dollars ; vol. 6, 11 dollars.
- Ce très intéressant ouvrage en 6 volumes (le dernier en deux parties) sera une encyclopédie de tous les dispositifs et méthodes de mesure de la Physique expérimentale. Les auteurs font précéder chaque section d’une introduction théorique caractérisant les grandeurs physiques en question ; ils donnent à la suite la description succincte, le schéma et l’explication du fonctionnement des dispositifs expéri mentaux, ainsi que les références aux articles originaux où ces dispositifs sont décrits. Par l’ampleur du sujet traité, la clarté des descriptions, l’organisation parfaite des références bibliographiques (à jour jusqu’à 1958) et des index, cet ouvrage sera un outil essentiel pour toute bibliothèque de laboratoire de recherche ou d’enseignement. Le volume 1 (Physique classique) comprend la détermination des unités fondamentales et les mesures de mécanique des solides et des fluides, acoustique, thermodynamique, optique, électricité et magnétisme en général. Le volume 6 (2e partie) est consacré aux propriétés électriques, magnétiques et optiques des cristaux.
- The transuranium éléments, par Glenn T. Seaborg. 1 vol. 16 x 24, xxn-328 p., fig. Yale University Press, New Haven (Connecticut), 1958. Prix, relié : 7 dollars.
- Substance de quatre conférences données à l’Université de Yale en mai 1957 par Seaborg, prix Nobel, qui a découvert le plutonium. La première était consacrée aux travaux qui ont conduit à l’isolement du plutonium ; la deuxième aux propriétés chimiques des actinides, c’est-à-dire aux éléments à partir de l’actinium (n° 89) ; la troisième aux propriétés nucléaires des éléments Iransuraniens ; enfin la dernière aux futurs éléments synthétiques dont l’auteur prédit les propriétés chimiques.
- Steroids, par Louis F. Fieser et Mary Fieser. 1 vol. 16 x 24, xvm-945 p., fig. Reinhold Publishing Corp., New York, 1959. Prix, relié : 18 dollars.
- Le présent ouvrage trouve son origine dans un travail intitulé « Produits naturels en relation avec le phénanthrène » qui consacrait déjà 227 pages aux stéroïdes, c’est-à-dire au groupe d’alcools secondaires en C27-C9(t, d'origine animale ou végétale, qui sont solides (Deux autres édifions ont suivi ; la dernière, en 1949, consacrait 579 pages à ces produits). Excellente monographie bien à jour sur ces produits qui, déjà importants avec le groupe du cholestérol, ont pris une extension considérable avec la découverte des vitamines (ergostérol), des hormones œstradiol, testostérone), de la cortisone, e!c. bibliographie étendue. Instrument de travail de premier ordre.
- Précis de chimie biologique, par J. E. Courtois et R. Perlés. Tome I. Collection de « Précis de Pharmacie », publiée sous la direction du professeur Janot. 1 vol. 16,5 x 21,7, 454 p., 27 fîg. Masson, Paris, 1959. Prix, cart. toile demi-souple : 34 NF.
- Les auteurs ont rompu avec le plan traditionnel de la plupart des cours de biochimie qui, par souci didactique, séparent l’étude des composants de la matière vivante de celle des métabolismes. Le livre s’ouvre par un exposé très documenté sur les enzymes, leur structure, leur fonction, leur identification et leur dosage quand cela est possible. Tient ensuite un ensemble -de chapitres tout aussi importants sur l’eau, les électrolytes et les autres composants minéraux de l’organisme, traités aussi bien comme éléments analysables que comme agents métaboliques. Tout ce qui touche aux échanges d’eau et d’électrolytes, question dont la synthèse mentale est, de tradition, bien malaisée, se trouve clairement exposé. On trouvera un chapitre succinct sur les dérivés biologiques des hydrocarbures, puis une suite de chapitres très riches sur les glucides. Un livre bien adapté à la préparation de l’Internat en Pharmacie et des certificats complémentaires, des Facultés de Pharmacie, très utile aussi à tous ceux qui se destinent à la recherche biochimique.
- Engineering Manual, par John II. Perry et Robert H. Perry. 1 vol. 13 x 19,5, xn-655 p.; fig. McGraw-Hill, Londres, 1959. Prix, relié : 74 sh.
- Ce nouveau formulaire Perry est polyvalent ; il intéressera les différents ingénieurs : constructeurs, mécaniciens, chimistes, électriciens,
- architectes et atomistes car ses neuf chapitres sont respectivement consacrés aux sujets suivants : tables mathématiques, mathématiques, physique et chimie (en fait physique...), architecture, génie chimique, génie civil, électricité, mécanique et physique nucléaire'.
- Précis de pharmacodynamie, par G. Valette.
- Collection de « Précis de Pharmacie », publiée
- sous la direction du professeur Janot. 1 vol.
- 16,5 x 21,7, 520 p., 126 fig. Masson, Paris,
- 1959. Prix, cart. toile demi-souple : 42 NF.
- Les exposés groupés dans ce Précis répondent à d’autres préoccupations que celles qui inspirèrent des traités classiques de pharmacologie, comme celui de Richaud et Ilazard qui conserve d’ailleurs tout son prix, La pharmacodynamie s’est depuis plus de vingt ans constituée en discipline autonome ; elle a élaboré ses buts, scs méthodes et ses techniques. L’ouvrage du professeur Valette est plus qu’une énumération d’espèces moléculaires classées selon leurs activités thérapeutiques ; on y trouve clairement exposées les techniques fondamentales de laboratoire, tant de recherche que de contrôle des activités médicamenteuses. Les premiers chapitres consacrés à la pharmacodynamie générale, surtout celui qui expose l’essai biologique des médicaments et l'interprétation mathématique des résultats sont particulièrement à méditer. En pharmacodynamie spéciale, on trouve d’intéressants développements sur les découvertes thérapeutiques de ces dernières années : neuroplé-giques, ganglioplégiques, antihistaminiques... Indications bibliographiques fondamentales.
- Animal Ecology to~day, par F. S. Bouenhki-
- mer. 1 vol. 16 x 25, 276 p., 41 fig. W. Junk,
- La Haye, 1958. Prix, relié ; 28 florins.
- Il y a vingt ans que l’auteur publiait les Problèmes d'écologie animale, période pendant laquelle la science écologique a fait des progrès considérables. Aussi, le livre présenté aujourd'hui est-il entièrement nouveau, mettant le lecteur au courant des méthodes les plus modernes de l’étude des populations animales et de leur interaction avec le milieu. Un chapitre concernant l’influence possible du milieu sur l’hérédité montre les tendances très libérales de l'auteur qui écrit : « Il semble logique d’admettre que beaucoup de races géographiques héréditaires trouvent leur origine dans des variations phénotypiques qui sont devenues fixées génétiquement par suite de l’influence constante et prolongée de facteurs climatiques sur de nombreuses générations ». Le livre est terminé par un chapitre d’écologie humaine qui montre la détérioration des sols suivant les progrès de l’agriculture et les changements du milieu dus à l’activité de l’homme. Le grave problème démographique de la fertilité humaine dans un monde qui devient de moins en moins favorable à la survivance de l’homme est largement un problème humain de meilleure compréhension de nos propres réactions. L’auteur conclut qu’aucune science n’est plus importante pour l’avenir de l’humanité que l’écologie humaine. — L. G.
- de France, Paris, 1959. Prix, cartonné :
- 53 NF.
- L'auteur emploie le mot « primitif » à défaut d’un meilleur terme pour désigner « des groupes vivant près de la nature et fortement enracinés dans le passé préhistorique ». Une introduction substantielle définit les niveaux de culture, les caractères raciaux, révolution des types raciaux, l’évolution culturelle. Il nous introduit ensuite dans la familiarité de quatorze peuples au milieu desquels il a vécu et conduit des études approfondies. Ce sont les Esquimaux, les Aléoutes, cinq tribus de l’Amérique (Navajos, Lacandons, San Blas, Jivaros réducteurs de tetes, Camaguras), les Lapons, les Ovimbundus et les Boschimans d’Afrique, les Aïnos, les Lolos de rilimalaya oriental, les Australiens Aruntas, enfin les Samoëns, marins de l’âge de pierre dans les mers du Sud. L'auteur a su rendre vivants des récits et descriptions pourtant, assez condensés, pleins de notations précieuses qui bientôt peut-être appartiendront pour la plupart au passé. Illustration de premier ordre, empruntée à quarante photographes des plus renommés.
- Peuples primitifs d’aujourd'hui, par Edward Weyer Jr. 1 vol. 22 x 28,5, 286 p., 212 photos dont 58 en couleurs, 14 cartes. Horizons
- —— A NOS LECTEURS ................j
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6®
- se tient à la disposition des lecteurs de LA NATURE, pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- Expéditions françaises à l’Himalaya ; Aspect médical, par Jean Rivolier, avec la collaboration de P. Biget, F. Florence, A. Lapras et J. Oudot. 1 vol. 17,5 x 24, 230 p.. Actualités scientifiques et industrielles-, n° 1266. Hermann, Paris, 1959. Prix : 30 NF.
- Voici réunis, sur l’initiative du Club alpin français et du Comité de rilimalaya de la Fédération française de la Montagne, les rapports médicaux des grandes expéditions françaises en haute montagne. Le 1er chapitre présente un rappel des connaissances actuelles sur les problèmes médicaux posés par le séjour à haute altitude : mal des montagnes, accidents locaux ou généraux dus au froid, effets des rayonnements, des efforts, enfin adaptation et acclimatement. Les chapitres suivants concernent les observations médicales faites au cours des expéditions à l’Annapurna (1950). au Makalu (1954, 1955), à la Tour de Mustagh et au Jannu, et aux matériels médico-chirurgicaux de ces expéditions. Les connaissances ainsi acquises ne serviront pas seulement, aux alpinistes mais sont évidemment du plus grand intérêt pour la médecine aéronautique. Très importante bibliographie. Notons l’impeccable présentation de la collection des « Actualités scientifiques et industrielles » dans la nouvelle forme que l’éditeur leur a donnée depuis quelques années.
- Le déchiffrement des écritures, par E. Donuro-fkr. Traduit par Monique Bittebierre. 1 vol. 21 x 15,5, 350 p., 41 pi. h. t., 94 fig. Ar-
- p.87 - vue 90/558
-
-
-
- 88
- thaud, Paris et Grenoble, 1959, Prix, broché :
- 22 NF ; relié : 29,80 NF.
- On souhaite souvent s’initier aux principes des écritures antiques, faire la connaissance de leurs déchiffreurs ; un parfum de mystère attire, mais la technicité austère deo travaux consacrés à de telles questions éloigne les curieux. Ce sujet rébarbatif (pour le non-spécialiste) est traité ici avec agrément et compétence ; M. Doblhofer a exposé la grande majorité des déchiffrements intervenus jadis ou naguère, et même certains actuellement en cours (écriture clés tablettes de l'île de Pâques). Historique, problèmes, méthodes, biographie, anecdotes voisinent dans une synthèse de bon aloi. Un seul
- regret : pas un mot n’est dit d’un déchiffrement en pleine évolution qui, s’il se réalise, aura d’importantes conséquences dans plusieurs domaines : celui des hiéroglyphes maya. —• L. T.
- La paléogéographie, par R. Furon. 1 vol.
- 14 x 23, 406 p., 77 fig. et 12 pi. hors texte.
- Coll. « Bibliothèque scientifique ». Payot, Paris,
- 1959. Prix : 40 NF.
- Deuxième édition largement remaniée. L’auteur s’interdit de fonder les moindres déductions sur des hypothèses, telles que par exemple l’existence d’un continent gondwanien ou Un large déplacement des pôles. Ces hypothèses sont
- le dessin technique directement au net
- CRAYONS et MINES
- TECHNOGRAPH
- en graphite
- micronisé
- Un
- NOUVEAU PROCÉDÉ CARAN d'ACHE
- permet d'obtenir du graphite "fnin&hifC" au grain quasi
- colloïdal, donnant à la mine des qualités fort appréciées :
- • Pointe extra-fine • Trait onctueux
- • Résistance accrue • Usure minime
- • Reproductions photo et hélio aussi nettes qu'à l'encre de CHINE.
- Eti CûUÜlUhS, crayons et mines PRISMATEC offrent les mêmes avantages
- r
- r
- DISTRIBUÉ par CORECTOR-ADHÉSINE
- I
- I
- \
- donc signalées sans faire l’objet de commentaires étendus. Par contre chaque zone géographique est étudiée du point de vue stratigra-phique et des correspondances paléontologiques et paléoclimatiques qui se manifestent d’une zone à l’autre.. Ainsi .apparaissent, aux différentes périodes géologiques, un certain nombre de secteurs continentaux et marins, scientifiquement confirmés, et que l’on peut provisoirement relier en attendant l’observation de faits incontestables qui pourront enrichir la science paléogéographique.
- La conquête des fonds marins, par Y. Roma-novsky. 1 vol. 12 x 18, 189 p., 81 illustrations. Goli. « Le Rayon de la Science ». Éditions du Seuil, Paris, 1959. Prix : 4,50 NF.
- Ce petit ouvrage, largement et pittoresquement illustré, résume à l’intention du grand public l’historique de l’exploration sous-marine et passe en revue les techniques actuelles. Spécialiste de la plongée, l’auteur était particulièrement qualifié pour présenter ce domaine dont le côté spectaculaire n’exclut pas l’intérêt scientifique.
- Cités mortes et lieux maudits de France,
- par H. P. Eydoux. 1 vol. 14 x 19, 242 p., 30 fig., 15 pi. hors texte. Coll. « D’un monde à l’autre ». Plon, Paris, 1959. Prix : 13,50 NF. L’auteur a fait un choix parmi les villes ou les forteresses qui ont été le théâtre d’événements dramatiques et que le destin a vouées à la, destruction. C’est l’occasion d’évoquer des pages peu connues de l’histoire dé France. Les sources auxquelles ont été puisés les récits de ce livre attestent le sérieux avec lequel les faits ont été reconstitués.
- Histoire de l’avenir, par Pierre Rousseau. 1 Yçl. 15 x 2.1, 342 p., 29 fig. Hachette, Paris,. 1959. Prix : 9,90 NF.
- L’auteur s’est très honnêtement préoccupé d’envisager, à la lumière des connaissances actuelles, quel serait l’avenir de la civilisation, de l’Homme, de la Terre, de l’Univers. Dans l’avenir le plus proche, il prévoit une « saturation » qui freinera le progrès scientifique et technique, une relève de l’Occident par les peuples actuellement sous-développés... A plus lointaine échéance, il aperçoit un Homo futurus très différent de l’Homme actuel ; c’est la partie la1 plus discutable de son livre et on ne voit pas du tout où il a pu prendre que « la biologie est en train de pétrir un surhomme ». L’avenir du monde physique est beaucoup mieux traité et on note que l’auteur est bien plus prudent sur des questions qu’il connaît mieux. Sur les changements que Subira certainement la face de la Terre, sur l’évolution du Soleil et celle de l’Univers, il y a de bonnes pages qui résument les connaissances et les incertitudes de la science contemporaine.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- CONSULTATIONS TECHNIQUES pour la lutte contre le bruit : Isolation phonique, Correction acoustique, Vibrations.
- R. GRUZELLE, Ingénieur-Conseil Expert, 8, rue des Moines, Paris-17e. MAR. 92-07.
- JE RECHERCHE 1° Microscope polarisant avec accessoires, modèle même ancien ;
- 2° minéraux cristallisés,
- LOUP, 61, rue Froidevaux, Paris,
- Dans notre prochain numéro
- VActualité instrumentale
- sous la direction de R* Buvet
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : ier trimestre iqGo, n° 3528. — Imprimé en Frange
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 4o/j5 — 2-ï[)6o
- p.88 - vue 91/558
-
-
-
- N° 3299
- Mars I960
- NATURE
- La Nébuleuse du Crabe
- résidu de l5 explosion de la Supernova de 1054
- et son rayonnement synchrotron (,)
- Chacun sait aujourd’hui que le nom de nébuleuse à été attribué à deux catégories d’objets célestes très différents. Les uns sont des nébuleuses galactiques, de nature gazeuse et qui font partie de notre Galaxie, ou Voie Lactée; les autres (nébuleuses extragalactiques) sont elles-mêmes des galaxies, entre autres des spirales, dont la véritable nature n’a été reconnue que quand la puissance des instruments eut permis de les résoudre en étoiles, du moins les plus proches de nous. Au xvme siècle, avant que cette distinction ait pu être faite, l’astronome français Messier a établi le premier catalogue des nébuleuses, où l’on rencontre pêle-mêle des objets des deux catégories.
- Une des nébulosités galactiques a particulièrement frappé Messier par son aspect étrange, tout à fait unique dans le ciel, et il lui a attribué le numéro i dans sa classification. Il s’agit de la Nébuleuse du Crabe (M. i, ou N. G. C. igô^), située dans Ja constellation du Taureau près de l’étoile \ Tauri; cette petite masse de structure filamenteuse est de magnitude optique 9 et elle est donc bien visible dans un instrument moyen (voir photo de la couverture).
- Fig. 1. — Spectre de la Nébuleuse du Crabe (négatif).
- Les raies d’émission (en noir) sont fortement dédoublées et de structure irrégulière. La plus importante est [O II] 3727. Remarquer le spectre continu intense. ^
- (Photo N. U. Mayall ; cliché aimablement communiqué par L’Astronomie).
- Depuis Messier, la Nébuleuse du Crabe n’a cessé de susciter l’intérêt. Son spectre a été souvent photographié, en particulier par Mayall à l’observatoire de Lick, vers 1987 (fig. 1), Il est caractérisé par un fond continu anormalement intense sur lequel se détachent les raies d’émission habituelles de la matière interstellaire (raies de l’hydrogène, raies interdites de l’oxygène
- 1. Le présent article reproduit la substance d’un chapitre de La Radioastronomie,’ ouvragé de J. Lequetjx et J. L. Steinberc, à paraître prochainement chez Dunod (collection Science et Progrès)
- et de l’azote, etc.) qui sont fortement dédoublées. L’une des composantes provient de-s filaments situés à l’avant de la nébuleuse, l’autre de l’arrière. Ce dédoublement, manifestement dû à l’effet Doppler, est l’indice que les régions frontales se rapprochent de nous à une vitesse d’environ 1 100 km/s, tandis que les régions arrière s’en éloignent à une vitesse analogue : la Nébuleuse du Crabe est donc en expansion rapide.
- Cette expansion se manifeste d’ailleurs par un déplacement des filaments situés sur les bords, que. Laippland a décelé dès 1921 en comparant des photographies prises à quelques années d’intervalle. L’expansion annuelle atteint 0,23" sur le grand axe de la nébuleuse, ce qui est parfaitement mesurable.
- Connaissant l’expansion angulaire et la vitesse réelle des gaz, mesurée spectroscopiquement, on obtient, moyennant certaines hypothèses sur la symétrie de l’objet, une, estimation approchée de sa distance, soit x 100 parsecs environ (3 600 années-lumière), valeur qui peut être sujette à.révision. Mieux encore, on peut calculer la date approximative du début de l’expansion, en supposant que celle-ci s’est toujours poursuivie à la même vitesse : ce phénomène s’est produit au cours du xie siècle après J.-C.
- La Supernova de 1054. — Le 4 juillet io54 eut lieu dans le ciel une explosion spectaculaire : non loin de £ Tauri apparut brusquement une étoile extrêmement brillante, si brillante qu’elle était visible en plein jour. Par extraordinaire, on n’a pas retrouvé trace de ce remarquable phénomène dans les chroniques européennes. Mais les astrologues chinois attachés au service de l’empereur tenaient registre des apparitions qui survenaient dans le ciel, comètes, météores, étoiles nouvelles, et ne manquèrent pas de consigner celle-ci. Le sinologue Édouard Biot, fils du célèbre astronome Jean-Baptiste Biot, retrouva dans les annales impériales un texte fondamental dont voici la traduction, revue par Duyvandak :
- « Période Tchi-ho, première année, cinquième mois, jour Ki-tchéou, une étoile extraordinaire parut au Sud-Est de T’ien-kuan (£ Tauri ?). Elle pouvait en être éloignée de quelques dixièmes de degré. Après plus d’une année, elle devint peu à peu invisible. »
- D’autres textes permettent d’établir que l’étoile disparut au mois d’avril io56, et de préciser quelques points. L’un d’eux décrit ainsi l’étoile nouvelle : « Elle était visible en plein jour comme Vénus, des rayons pointus, partaient autour d’elle dans tous les sens (sic). Sa couleur était blanc rougeâtre. Elle fut tout à fait visible pendant 23 jours. » Cette dernière phrase signifie sans doute qu’elle fut visible en plein jour 23 jours après la première observation. » r . ; -
- Comme nous l’avons dit, personne en Europe ne semble avoir
- p.89 - vue 92/558
-
-
-
- 90
- Fig. 2. — Supernova extragalactique dans la galaxie NGC S66S.
- Photos prises par M. Ch. Bertaud à l’Observatoire de Meudon le 9 mai 1954 (pose : 43 mn) et le 26 mai 1954 (pose : 40 mn). La première photo (à gauche) correspond sensiblement au maximum de luminosité ; à ce moment la magnitude de la supernova était à peu près égale à celle de la galaxie tout entière, qui apparaît comme un nuage diffus.
- (Photos aimablement communiquées par M. Ch. Bertaud).
- relaté cet événement. Par contre, celui-ci a été observé au Japon et peut-être aussi par les Indiens de l’Arizona qui nous ont laissé des dessins rupestres qui ont de fortes chances de représenter une conjonction de la nouvelle étoile avec la Lune en croissant, conjonction qui s’est produite le 5 juillet io54-Tout dans les observations chinoises et japonaises incite à faire croire qu’il s’agit de l’explosion d’une supernova de notre Galaxie, comme on en observe quelquefois dans les galaxies extérieures (fig. 2). Pour des raisons encore mal connues, une étoile devenue subitement instable explose, peut-être par réactions nucléaires en chaîne, en éjectant à grande vitesse une enveloppe gazeuse. A ce moment, sa magnitude peut dépasser le chiffre énorme de — 16,5 (celle des étoiles les plus brillantes connues n’est que de — 6, et celle d’une Galaxie tout entière de l’ordre de — 17 à — 20). Son éclat décroît ensuite régulièrement, d’une magnitude et demie en 23 jours. L’énergie totale
- dissipée pendant l’explosion atteint io42 Joules : il n’est pas exagéré d’affirmer que nous connaissons peu de phénomènes aussi grandioses que l’apparition d’une supernova.
- Le rayonnement synchrotron de la Nébuleuse du
- Crabe. — La Nébuleuse du Crabe présente l’énorme intérêt d’être le résidu relativement jeune, proche et facile à étudier d’une telle explosion catastrophique. On devait y faire depuis 1940 des découvertes sensationnelles. En 1962, l’Américain Baade publiait des photographies remarquables de la nébuleuse (fig. 3). La première, obtenue avec un filtre coloré à bande étroite qui laisse principalement passer la lumière de quelques raies spectrales intenses, montre que celle-ci provient exclusivement d’une enveloppe filamenteuse. L’autre photographie, faite à l’aide d’un filtre à large bande située dans une région spectrale dépourvue de raies, est donc relative à la partie continue
- Fig. 3. — Photographies de la Nébuleuse du Crabe dans deux dom aines spectraux différents.
- Photos prises avec le télescope de 5 m. A gauche, dans le domaine 6 300-6 750 A, corespondant surtout aux raies Ha et [S II] à 6 724 A. A droite, dans l’infrarouge (7 200 à 8 400 A), on ne voit aucun filament (Photos Mount Wilson and Palomar Observatories).
- p.90 - vue 93/558
-
-
-
- 91
- du spectre : elle ne montre qu’une masse amorphe, à l’exclusion de tout filament. Il s’agit donc de deux régions entièrement distinctes dont les propriétés doivent être très différentes.
- Il paraissait impossible, il y a seulement quelques années d’expliquer l’origine du spectre continu qui est, nous l’avons dit, exceptionnellement intense : les hypothèses initialement proposées envisageaient des températures de plusieurs centaines de milliers de degrés dans toute la masse amorphe, températures dont on ne voit pas bien comment elles auraient pu se produire et se maintenir. En ig53, l’astrophysicien soviétique Chklovski suggéra que le rayonnement pourrait provenir d’électrons de très haute énergie se déplaçant dans des champs magnétiques. Une telle émission lumineuse (appelée émission synchrolron) avait bien été observée peu après la dernière guerre au synchrotron de la General Electric, mais comment admettre qu’elle puisse se produire dans la nature P A l’époque, l’idée de Chklovski paraissait révolutionnaire. Elle fut pourtant vérifiée peu de temps après ; nous comprendrons comment après avoir décrit les principales propriétés de ce nouveau type d’émission électromagnétique.
- Les physiciens américains qui découvrirent le rayonnement synchrotron observaient un faisceau d’électrons extrêmement rapides, qui décrivaient une trajectoire circulaire sous l’effet du fort champ magnétique qui règne entre les pièces polaires de l’accélérateur. Ils constatèrent (et Schwinger l’expliqua plus tard) que leur émission lumineuse se composait d’un spectre continu, à l’exclusion de toute raie : la longueur d’onde du maximum de ce spectre est d’autant plus courte que l’énergie de l’électron est plus grande. D’autre part, la lumière émise par ce processus est polarisée linéairement, le plan de vibration de l’onde électromagnétique se trouvant parallèle au plan de la trajectoire, donc perpendiculaire au champ magnétique. Enfin, l’émission s’effectue à chaque instant dans un cône de petit angle axé sur la trajectoire : la ligure 4 résume ces caractéristiques.
- Fig. 4. — Propriétés du rayonnement synchrotron.
- L’électron de haute énergie parcourt sous l’action du champ magnétique B une orbite circulaire avec la vitesse v très voisine de celle de la lumière. A. chaque instant, son émission électromagnétique est émise dans le cône de petit angle 2a avec une polarisation linéaire dans le sens indiqué par la flèche.
- Si l’on admet que l’émission du spectre continu de la Nébuleuse du Crabe est bien due au mécanisme que nous' venons d’examiner, on peut espérer y détecter une polarisation linéaire qui serait perpendiculaire au champ magnétique. Le Soviétique Dombrovsky découvrit en effet que la lumière continue de la Nébuleuse possède une forte polarisation linéaire : globalement, la proportion de lumière polarisée est de 9,2 pour 100, mais elle atteint par endroits 5o pour 100. Cette polarisation, qui a été étudiée avec un grand luxe de détails par Oort et Walraven en Hollande et Mme Martel en France, est bien visible sur les photographies obtenues par Baade avec des écrans polarisants d’orientation variée (fig. 5). On a pu déduire de ces mesures la direction du champ magnétique dans tous les points de la nébuleuse.
- L'émission radioélectrique de la Nébuleuse du
- Crabe. — Ayant établi presque avec certitude que l’émission optique de la nébuleuse est produite par le mécanisme synchro-
- Fig. 5. — Polarisation de la lumière de la Nébuleuse du Crabe.
- Ces deux photos ont été obtenues par Baade au télescope du Mont Palomar avec des écrans polaroïd. L’orientation du plan de polarisation est indiquée par les flèches. Remarquer la différence d’aspect des deux clichés.
- tron, il n’ÿ avait qu’un pas à faire pour attribuer au même processus son rayonnement radioélectrique : la Nébuleuse du Crabe est en effet une des radiosources les plus intenses du ciel, et l’objet radioélectrique a des dimensions très comparables à celles de l’objet optique (6' x 40 auquel il ressemble beaucoup. Pour vérifier cette hypothèse, beaucoup de recherches se sont attachées à montrer que le rayonnement hertzien est également polarisé : la détection d’une polarisation linéaire par Vitkevitch sur 3 cm, à la limite de la sensibilité de son appareillage, devait être confirmée en 1957 par Mayer, McCullough et Sloanaker à l’aide d’un radiotélescope de i5 m de diamètre, sur 3,x5 cm de longueur d’onde. La direction moyenne du plan de polarisation (x49°) et le taux de polarisation (7 pour 100) s’accordent bien avec les chiffres déterminés par Oort dans le visible (respectivement x6o° et 9,2 pour 100) : le rayonnement radioélectrique et le rayonnement continu optique sont certainement dus à la même cause. D’ailleurs le spectre continu optique prolonge bien le spectre radioélectrique (fig. 6).
- D’après Oort, le champ magnétique qui règne dans la Nébuleuse du Crabe est de l’ordre de xo~4 gauss, soit notablement plus que dans l’espace interstellaire où il ne serait que io~5 ou io-6 gauss. Il est vraisemblable que ce sont des électrons de haute énergie (io11 électron-volts environ) qui sont responsables de l’émission optique, tandis qu’il suffit d’électrons de io9 électron-volts pour expliquer le rayonnement radio.
- p.91 - vue 94/558
-
-
-
- 02
- 3000 A X
- 5m 30cm 3cm
- radio
- 10 10
- Spectre continu de la Nébuleuse du Crabe.
- Le spectre radioélectrique prolonge bien le spectre optique. Les points sont relatifs aux données de l’observation.
- (D’après L. Woltjer).
- L’aspect étrange des filaments qui entourent la nébuleuse n’a pas encore reçu d’explication parfaitement satisfaisante. Le Hollandais Woltjer imagine qu’ils sont la manifestation de courants électriques à grande échelle, en relation avec le champ magnétique. Sans doute la matière gazeuse de ces filaments est-elle ionisée, non par la lumière d’une étoile centrale (la nébuleuse ne contient que deux petits astres insuffisants pour assurer l’ionisation), mais par la lumière ultraviolette provenant de la masse amorphe elle-même. On avait pensé que les filaments émettent, outre les raies du spectre optique, une assez grande puissance sous forme d’ondes radioélectriques. Mais de récentes déterminations du diamètre de l’objet radioélectrique, en particulier celles, inédites, de l’auteur sur 21 cm, montrent qu’il n’en est rien : la zone d’émission hertzienne est plus petite que l’enveloppe filamenteuse.
- La Nébuleuse du Crabe, source de rayons cosmi= ques ? — L’étude de la Nébuleuse du Crabe a donc permis de montrer avec certitude que la production d’ondes électromagnétiques par effet synchrotron est un mécanisme très efficace qui se produit à grande échelle dans la nature. D’autre part, la présence de particules de grande énergie au sein de la nébuleuse laisse à penser quelle est un puissant émetteur de rayons cosmiques, qui sont constitués, rappelons-le, de particules chargées ti’ès énergiques, principalement de protons. Certains auteurs ont imaginé que les objets, analogues à la Nébuleuse du Crabe, qui seraient assez nombreux dans la Galaxie, pourraient suffire à expliquer la totalité du rayonnement cosmique observé. Bien qu’il soit très difficile d’évaluer, même grossièrement, tous les paramètres qui permettraient de confirmer ou d’infirmer cette théorie, il paraît maintenant probable que l’effet des supernovæ est insuffisant : mais on ne connaît pas encore d’autres sources de rayons cosmiques, à l’exception de certaines étoiles qui, à l’instar du Soleil, éjectent parfois des particules d’énergie moyenne pendant les éruptions. Par ailleurs, il serait fort souhaitable de déterminer directement, par des mesures de direction d’arrivée des particules de haute énergie dans le système solaire, si la Nébuleuse du Crabe est bien une source de rayons cosmiques : entreprise fort difficile car les particules chargées sont déviées par les champs maghétiques galactique, solaire et terrestre, mais que les progrès réalisés dans le domaine dès satellites artificiels ne rendent pas impensable. Des auteurs japonais pensent avoir découvert une source de rayons cosmiques dans Orion : est-ce la Nébuleuse du Crabe, qui en est assez proche ?
- L’origine des électrons très rapides qui participent au rayonnement de la Nébuleuse du Crabe est encore incertaine. Plu-
- sieurs hypothèses ont été avancées, entre lesquelles il est difficile de trancher :
- i° Ce sont les restes de l’explosion elle-même.
- 20 Ils résultent d’un apport continuel; cette idée est appuyée par le fait, observé en particulier par Baade, que les régions centrales de la nébuleuse éjectent encore périodiquement de petits nuages de matière animés de grandes vitesses.
- 3° Ils proviennent de réactions nucléaires provoquées par les collisions entre les rayons cosmiques et les atomes du gaz de la nébuleuse. D’après Burbidge, ce phénomène serait général et pourrait être à l’origine des électrons de haute énergie qui semblent nécessaires pour expliquer la plus grande partie du rayonnement radioélectrique de la Galaxie.
- De toutes façons, les électrons doivent être en partie accélérés par leurs collisions avec la matière en mouvement de la nébuleuse, où existent des zones turbulentes importantes.
- Que deviennent ces électrons après leur création ou leur accélération ? Ils perdent peu à peu leur énergie sous la forme de rayonnement hertzien ou optique. Beaucoup d’entre eux parviennent à sortir de la nébuleuse et se répandent dans la Galaxie. D’après Woltjer, l’ensemble des résidus de supernovæ présents dans la Galaxie pourrait suffire à créer assez d’électrons de grande vitesse pour expliquer la totalité du rayonnement radioélectrique galactique non thermique.
- Il reste, on le voit, beaucoup de travail à accomplir pour mettre tout le monde d’accord et élaborer une théorie complète et satisfaisante de la Nébuleuse du Crabe. Néanmoins l’étude de celle-ci a déjà fait progresser de façon surprenante nos connaissances en astrophysique.
- Les supernovæ de 1572 et 1604 ont laissé des vestiges moins visibles
- Si elle a été remarquablement brillante, la supernova de io54 n’est pas la seule dont on ait observé l’apparition dans la Voie Lactée : en moyenne, il apparaît une supernova tous les 3oo ans dans une galaxie normale. Il est passionnant de rechercher dans les anciennes chroniques des renseignements sur des phénomènes aussi exceptionnels. Ce travail est bien ingrat, car les objets signalés ont beaucoup plus de chances d’être des comètes que des étoiles nouvelles.
- Si les textes chinois contiennent de nombreux et précieux renseignements, ce n’est pas la seule source à notre disposition. Une étoile nouvelle a été observée par deux astronomes arabes en 827 dans la constellation du Scorpion. Toujours dans le Scorpion, une autre fut aperçue en 1006 par le moine de Saint-Gall Epidanus, ainsi que par Bar-IIebraüs en Syrie. Elle est également mentionnée dans les annales chinoises à la date du 3 avril 1006, ainsi que dans les chroniques japonaises. On ne sait pas, faute d’indication précise sur leur position, si ces deux super-
- 0 6 12 mois
- après le maximum
- Courbes de lumière des supernovae de 1572 et de 1604.
- Fig. 7.
- Ces courbes de lumière, très semblables, ont été tracées par Baade à partir d’observations anciennes. La magnitude visuelle est portée en ordonnées Remarquer la décroissance exponentielle caractéristique de la luminosité.
- p.92 - vue 95/558
-
-
-
- 93
- novæ peuvent être identifiées avec deux des radiosources qui appartiennent à la constellation du Scorpion. Par contre, les positions des deux dernières supernovæ apparues dans notre Galaxie sont connues de façon fort exacte car elles furent observées respectivement par le célèbre astronome danois Tyclio Brahé en 1572, et par Képler lui-même en i6o4; toutes deux ont fait également l’objet d’excellentes observations en Extrême-Orient et dans plusieurs observatoires européens, si bien que l’on a pu reconstituer leur courbe de lumière (fig. 7).
- Or deux radiosources assez puissantes correspondent exactement en position avec ces deux supernovæ. Le résidu optique fut plus difficile à découvrir. Celui de la supernovæ de i6o4
- î
- Fig. 8 et 9. — Aspect actuel des supernovae de 1604 et de 1572.
- En haut, dessin de la région de la supernova de 1604 dont la position, donnée par Képler, est indiquée par une croix. Parmi les étoiles du champ on distingue des filaments (hachures) dont on a pu mesurer la vitesse radiale (chiffres). Le centre de la radiosource se trouve à l’intérieur du cercle. En bas, région de la supernova de Tycho-Brahé (1572) : la position
- donnée par le célèbre astronome est indiquée par le petit cercle et celle de l’objet radioélectrique s’inscrit à l’intérieur du rectangle allongé. Quelques filaments très faibles forment les restes visibles de la supernova, dont la forme générale peut être elliptique ou sphérique. Tycho-Brahé a vraisemblablement 'commis une erreur importante en mesurant la position de la supernova.
- (D’après R. Miskovski).
- fut photographié par Baade le 18 juin 1941 à l’aide du télescope de 2,5o m du Mont Wilson, sous la forme de nébulosités filamenteuses disposées autour de la position donnée par Képler (fig. 8). Le diamètre du tout est de l’ordre de 2,5', et l’on a pu distinguer un déplacement des raies du spectre'qui correspond à une expansion. Le reste de la supernova de Tycho Brahé est encore moins visible : il a été photographié récemment au télescope du Mont Palomar par Baade et Minkowski (fig. 9), et aucune mesure de vitesse d’expansion n’a pu être effectuée. Il est probable que la faible luminosité de ces objets provient de ce qu’ils se trouvent dans des régions très absorbantes de la Galaxie. Il se peut cependant que les conditions physiques qui régnent dans les deux nébulosités soient assez différentes de celles de la Nébuleuse du Crabe, soit à cause d’une grande densité de la matière interstellaire environnante, soit à cause d!e leur âge moins avancé (35o ans au lieu de 900). D’ailleurs le spectre de leur rayonnement radioélectrique, que nous avons pu récemment préciser par des mesures vers 21 cm de longueur d’onde, est également différent : tandis que le flux hertzien de la Nébuleuse du Crabe varie comme v~°*2 (v étant la fréquence), celle de nos deux sources varie comme v-0,8, ce qui peut correspondre au rayonnement synchrotron d’électrons dont le spectre d’énergie est différent de celui de la Nébuleuse du Crabe : il y aurait peu d’électrons d’énergie élevée.
- Plusieurs autres radiosources sont sans doute aussi assimilables à des restes de supernova.: telles sont Cassiopeia A, la plus intense du ciel radioélectrique, qui se réduit optiquement à quelques filaments fort peu brillants; la célèbre Boucle du Cygne, la nébuleuse galactique I. C. 443; et deux ou trois autres nébulosités peu étudiées encore. Optiquement, il s’agit dans tous les cas de nébulosités filamenteuses disposées en arc de cercle et animées d’un mouvement d’expansion. Il est tentant d’attribuer leur émission radioélectrique au mécanisme synchrotron, encore que cette présomption ne soit pas étayée sur des arguments aussi solides que pour la Nébuleuse du Crabe. La grande abondance de ces objets, dont l’âge peut d’ailleurs être fort ancien, induit beaucoup d’astronomes à penser que la plupart des radiosources non thermiques sont des résidus de supernovæ. Il serait bien entendu passionnant d’observer ce qui se passe dans le domaine radioélectrique au moment de l’explosion elle-même. Mais de tels phénomènes sont rares à notre échelle, et nous avons bien peu de chances de voir apparaître bientôt une étoile nouvelle, et une nouvelle radiosource.
- J. Lequeux et J. L. Steinberg, Observatoire de Meudon.
- Le dessalage de l’eau de mer
- La plus importante installation existante pour le dessalage de l’eau de mer a été construite dans l’île hollandaise de; Balashi, située dans la Mer des Caraïbes, au large de la côte du Venezuela. Le volume d’eau fourni quotidiennement à la 'population de l’île (33 000 habitants) atteint le chiffre de 12000000 de litres, ce qui couvre très largement les besoins.
- Étant donné les vastes proportions de l’usine et les perfectionnements techniques apportés par son constructeur (une société américaine), le prix de revient de cette eau distillée a pu être largement réduit par rapport à celui des installations similaires. Il est de 0,0015 NF le litre et pourra sans doute être abaissé aux environs de 0,0010 NF. Ce prix, bien entendu, ne comprend pas les frais de distribution et ne peut servir que d’indication pour les autres' usines où des éléments tels que le prix du combustible, la situation de l’usine, les amortissements peuvent conduire à des prix de revient différents.
- Une autre usine de dessalage de l’eau de mer, dont l’énergie sera fournie par un réacteur nucléaire de 40 000 kW thermiques, sera construite d’ici janvier 1962 dans le Sud de la Californie. Elle fournira 4 000 m3 d’eau douce par jour.
- R. A.
- Nouvelles lignes de chemin de fer en Chine
- Sur l’invitation de l’Académie des Sciences de Chine, un groupe de savants soviétiques visita récemment plusieurs provihces jusqu’à présent à peine exploitées de la Chine centrale et occidentale. Ces provinces sont appelées à connaître un développement rapide, car, en dehors des possibilités agricoles qu’elles offrent (notamment la culture du coton), elles recèlent des richesses minérales appréciables, la présence du pétrole et du gaz naturel, pâü exemple, y ayant été détectée. D’après la revue soviétique Priroda, les autorités chinoises ont décidé de faire construire des voies ferrées dans ces régions qui en étaient entièrement dépourvues jusqu’ici. Ainsi, la voie ferrée Lan-Tchéou-Bao-Tou est déjà entièrement construite. Mais la ligne de beaucoup la plus importante sera celle qui reliera Pékin à Moscou à travers la Chine occidentale et le Kazakstan. Cette ligne passera par les villes de Lan-Tchéou et de Ouroumtchi, et se raccordera au réseau ferroviaire soviétique à la gare d’Aktogoï, à l’est du lac Balkhach ; en plusieurs endroits, elle traversera des déserts de sable. Jusqu’à présent,, les grandes villes chinoises n’étaient reliées à l’U. R. S. 8. que par la Mandchourie (ligne, déjà ancienne, passant par Moukden et Kharbine) ou par la Mongolie Extérieure" (ligné desservant Oulan-Bator, capitale de ce pays). C. M.
- p.93 - vue 96/558
-
-
-
- 94
- LE CLIMAT DU TIBET
- La revue soviétique Priroda (septembre 1959) a donné quelques résultats des travaux entrepris,- ces dernières années, au Tibet par une expédition scientifique chinoise. Ainsi, la présence de nombreux minéraux y a été décelée (par exemple le fer, le cuivre, le chrome, l’étain, le zinc, le molybdène, l’arsenic, le soufre, le graphite). Des gisements de charbon ont également été détectés dans les couches permiennes et jurassiques, non loin du versant septentrional de l'Himalaya. Mais c’est surtout au climat du Tibet qu’est consacré l’article de la revue soviétique. Bien que le plateau tibétain soit situé à une altitude comprise entre 3 600 et 4 5oo m, la température moyenne y est relativement élevée, surtout en été. Ainsi, à Lhassa, c’est-à-dire à 3 658 m au-dessus du niveau de la mer, la température moyenne dépasse io° C pendant les cinq mois les plus chauds, et le thermomètre ne descend pas au-dessous de zéro pendant 160 jours. A Tchilatszonga, située à l’altitude de 2 928 m, la période de végétation s’étend sur 190 jours. Par suite de la pureté et de la sécheresse de l’air, la radiation solaire est très intense au Tibet, et l’insolation croît environ de 1 pour 100 par 1 000 m d’altitude. Le plateau tibétain peut être considéré comme une source de chaleur en été, ce qui exerce une forte influence sur la circulation atmosphérique dans les pays limitrophes. A Lhassa et à Tchamdo, la variation journalière de la température atteint parfois 28 à 290 C, ce qui n’est pourtant aucunement défavorable à l’agriculture, car la forte insolation diurne favorise la photosynthèse, et il n’y a jamais de gelées précoces la nuit.
- Les précipitations, sur le plateau tibétain, sont liées à la mousson soufflant du sud-ouest. Le versant méridional des montagnes y est, en règle générale, beaucoup plus humide que le versant septentrional. Dans la vallée du Tzangpo, les précipitations, qui sont de l’ordre de x 000 mm à Toungma, au fond
- de la vallée, ne sont plus que de 45o mm à Lhassa. Au fond de la vallée, les pluies commencent en mars et persistent jusqu’en novembre, tandis qu’à Lhassa la saison des pluies ne dure que d’avril à septembre. Dans la région des lacs, au nord, les précipitations ne dépassent pas 200 mm.
- Au point de vue climatique, le Tibet pourrait être divisé en plusieurs zones distinctes. Dans la zone des toundras, aux altitudes de 4 5oo- à 5' 000 m, la température moyenne annuelle est égale et même inférieure à o° C. En hiver, le thermomètre y descend parfois à — 4o° C, et les précipitations annuelles n’y dépassent pas 200 mm. La végétation y est presque inexistante, sauf quelques herbes et quelques arbrisseaux particulièrement résistants. Dans la zone des steppes alpines, à l’altitude de 4 000 m et plus, la température moyenne annuelle est de 5° C, et les précipitations y varient entre 200 et 4oo mm. Ensuite vient une autre zone de steppes, située aux altitudes comprises entre 3 5oo et 4 000 m. La température moyenne annuelle y est de 5° C également, mais les précipitations y atteignent 3oo à 5oo mm. Ces deux zones sont surtout des zones d’élevage du bétail. Quant à la zone des forêts humides et des terres labourables, elle comprend des régions situées à des altitudes différentes. La température moyenne annuelle y oscille donc entre 5° et i5° C, et les précipitations entre 5oo et 1 5oo mm. On y rencontre des conifères et des arbres feuillus. Toutes les surfaces d’ensemencement du Tibet se trouvent pratiquement dans cette zone. Il est intéressant de relever, à ce propos, que le seigle, le froment d’automne, le maïs, le coton, le tabac, qui n’existaient pas au Tibet avant l’arrivée de l’expédition chinoise, semblent s’y être assez bien acclimatés depuis. Ainsi, la récolte du froment d’automne, par exemple, atteignit, en 1954, 3 320 kg/ha, et celle du seigle 8 490 kg/ha.
- C. M.
- Le climat et les glaces de ^Antarctique
- Une brochure publiée par l’Académie des Sciences de Moscou et intitulée Expéditions polaires soviétiques donne quelques renseignements sur le climat du continent antarctique et sur les conditions dans lesquelles les observations scientifiques y ont été effectuées. Les trois bases avancées les plus importantes installées par les Russes dans l’Antarctide sont : Yostok (78°27/ latitude sud, 107° longitude est, altitude : 3 420 m au-dessus du niveau de la mer); Sovietskaïa (78°24' latitude sud, 87°35' longitude est, altitude : 3 570 m) ; et Komsomolskaïa (74°o5' latitude sud, 97°29/ longitude est, altitude : 3 420 m). La station Vostok se trouve au voisinage du pôle géomagnétique. On sait que c’est à cette station qu’a été relevée, en août 1958, la température la plus basse qui ait jamais été enregistrée sur la Terre. Nous trouvons à ce sujet dans la brochure un tableau détaillé qui donne les températures et les vitesses du vent mesurées, à cette station, au cours de l’année ig58 (tableau I).
- A ces températures très basses, le travail était évidemment très pénible. Il a été constaté que les hommes ne pouvaient pas rester dehors plus de 20 à 3o mn, et cela en dépit de toutes les mesures de protection (masques, combinaisons chauffées électriquement, etc.). Ils toussaient, ils éprouvaient des accès subits
- - Tableau I.
- de suffocation et de tachycardie. La toux passait cependant assez rapidement dès que les hommes regagnaient leurs baraquements, où régnait, en général, une température de + 170 à -f 20° G (cette température ne descendait jamais au-dessous de + xo° G). Aux altitudes élevées, les hivernants souffraient de maux de tête et de vomissements, et leur tension artérielle baissait. Toutefois, on a remarqué que tous ces symptômes pathologiques s’atténuent, en général, à mesure que le corps humain s’acclimate et s’habitue aux nouvelles conditions ambiantes.
- L’épaisseur de la couche de glace a été trouvée égale à 1 780 m à la station Vostok, à 1 83o m à la station Sovietskaïa, et à 3 36o m à la station Komsomolskaïa. L’épaisseur minimale de la couche de glace dans la région explorée par les savants soviétiques a été relevée à i3o km au sud-ouest de la station Sovietskaïa : elle y est de 760 m. Signalons que des épaisseurs inférieures à 750 m et supérieures à 3 36o m ont été mesurées, dans d’autres régions de l’Antarctide, par les expéditions américaines, françaises ou britanniques (par exemple, 45o m entre le pôle Sud et la mer de Ross, et plus de 4 270 m entre les mers de Ross et de YVeddell).
- C. M.
- Température et vitesse du vent a la station Vostok en xg58
- Janvier Février Mars Avril Mai Juin Juillet . Août Septembre Octobre Novembre Décembre
- Température moyenne (°C). - 3i,3 — 44,6 — 55,9 -64 — 62,9 — 67,9 - 65,3 — 71.8 — 66,3 — 58,8 — 43,2 — 33.4
- » maximale (°C). — 23 — 29 — 47 -43 -43 — 47 -44 — 55 -45 — 4i -34 — 26
- » minimale (°C). Vitesse maximale du vent — 4i — 60 — 67 — 73 -78 80,7 — 81 - 87,4 — 82 — 71 — 60 -44
- (m/s) i4 9 10 10 i5 25 i3 ' i3 i3 12 i3 11
- p.94 - vue 97/558
-
-
-
- Le synchrotron à protons du C.E.R.N.
- Fig. 1. — Vue intérieure du bâtiment annulaire du synchrotron à protons du C.E.R.N. (Photo C.E.R.N.).
- Le synchrotron à protons du Centre européen pour la Recherche nucléaire (C.E.R.N.1) a été récemment inauguré à Genève en présence de nombreuses personnalités du monde scientifique. Prévu pour conférer à des particules une énergie de 25 GeV (25 milliards d’électron-volts), il a immédiatement donné toute satisfaction. Qui plus est, après quelques modifications, l’énergie a pu être portée à 28 GeV. Ce résultat brillant sur lequel les spécialistes ne comptaient pas atteste le soin dont ont fait preuve les constructeurs de la machine et la valeur des techniques employées.
- Le principe du synchrotron à protons est connu : une « bouffée » de particules, en l’occurrence une centaine de milliards de protons, est injectée dans un conduit circulaire où elle est accélérée. Les particules sont maintenues sur leur orbite par un champ magnétique dont la valeur croît au fur et à mesure que se déroule le processus d’accélération.
- Avant d’être introduits dans le synchrotron proprement dit, les protons sont deux fois « pré-accélérés ». Passant d’abord dans un accélérateur du type Cockroft-Walton, ils sont ensuite repris par un accélérateur linéaire, qui leur confère une vitesse équivalente aux deux tiers de celle de la lumière.
- Le synchrotron a une longueur de 628 m ; à chaque tour les particules y reçoivent 16 accélérations communiquées par autant de cavités accélératrices, l’impulsion donnée dans chacune des cavités étant commandée par le passage et le mouvement des protons dans la précédente. Les cavités sont réparties entre les 100 électro-aimants qui dispensent un champ magnétique égal, en fin de course, à 12 000 gauss. Ces électro-aimants ont un entrefer réduit : 14 x 7 cm de section.
- Particularité à laquelle la machine du C.E.R.N. doit pour une bonne part ses remarquables qualités, les électro-aimants sont disposés de telle manière qu’en les parcourant successivement les particules rencontrent à chaque fois un gradient magné-
- tique qui n’est pas orienté dans le même sens. Ce dispositif, dit « à gradient alterné », permet de focaliser le flux de particules d'une manière plus satisfaisante que les dispositifs usuels. Ces derniers, on le sait, cherchent à imprimer au faisceau une certaine convergence mais les particules continuent à être animées d’oscillations libres, ce qui fait obligation aux constructeurs d’utiliser des électro-aimants avec un entrefer important. Ce point est capital ; les électro-aimants entrent pour beaucoup dans le prix d’une installation de ce genre et le dispositif à gradient alterné permet de réduire dans des proportions substantielles le poids des installations : alors que le plus puissant accélérateur soviétique, qui permet en principe de conférer aux particules une énergie de 10 GeV, est équipé d’électro-aimants dont le poids en acier est de 35 000 t, la machine du C.E.R.N. permet d’atteindre des énergies deux fois et demie plus grandes avec un poids d’acier environ dix fois inférieur, tout en ayant un rayon supérieur de trois fois à celui de la machine russe.
- Deux autres problèmes ont particulièrement retenu l’attention de l’ingénieur britannique J. B. Adams qui a assumé la direction de l’entreprise : la stabilité de l’édifice en béton sur lequel le parcours circulaire est installé et la précision de montage des divers éléments de la machine. Pour en donner une idée, disons seulement que les unités (cavités accélératrices et électro-aimants) sont disposées sur un cercle de 100 m de rayon à 0,& mm près ; d’autre part, toutes précautions ont été prises pour que les microséismes ne perturbent pas le fonctionnement de la machine.
- Divers appareils d’exploitation, notamment des chambres à bulles, doivent encore être montés. Un programme de travail a été établi qui sera confié à des équipes internationales. Au nombre des observations auxquelles les physiciens comptent procéder figurent notamment celles des faisceaux d’anti-protons. On s’attend aussi à ce que la machine permette de découvrir des phénomènes nouveaux. N. V.
- p.95 - vue 98/558
-
-
-
- 96
- LA VISION DES INSECTES
- Entre l’œil des Insectes et celui des Vertébrés, il existe des différences anatomiques considérables. Dans l’œil des Vertébrés, un cristallin ajustable permet Vaccommodation, mise au point automatique de l’image rétinienne projetée sur les récepteurs, cônes et bâtonnets. Ceux-ci sont très nombreux, de l’ordre de ioo millions dans l’œil humain. Dans la seule fovéa, partie centrale de la rétine, plus de io ooo cônes, couvrant environ o,o4 mm2, assurent une discrimination extraordinairement fine des détails. Les yeux de tous les Vertébrés ressemblent, grosso modo, à l’œil humain.
- Le pouvoir de résolution de l’œil de l’Insecte, qui ne possède qu’une fraction infime du nombre des récepteurs de l’œil du Vertébré, paraît à première vue très inférieur à celui de la plu-
- Fig. 1. — Schéma d'art œil composé d’insecte.
- La coupe montre les sections médianes des ommatidies. La distance d définit deux points pouvant être tout juste distingués par l’œil immobile. Ce pouvoir ,de résolution est (exprimé en angle visuel)’ l’angle d’ouverture de l’ommatidie. C, cornée ; Cr, cône cristallin ; P, couche pigmentaire ; JR, rétinule.
- part de ces derniers. Néanmoins, des considérations grossièrement anatomiques ne suffisent pas nécessairement pour nous permettre de savoir comment voient les Insectes; il est indispensable d’analyser également du point de vue physiologique et psycho-physiologique le fonctionnement de cet œil, si foncièrement différent de celui des vertébrés.
- • î , '
- Les yeux primitifs. — Depuis longtemps, on a constaté que lés performances visuelles de certains insectes sont bien meilleures que ne le ferait supposer l’anatomie peu complexe de leurs yeux. Un exemple particulièrement frappant de la simplicité anatomique d’un appareil visuel est fourni par les yeux de l’écrevisse Copilia, décrits déjà par Exner, à la fin du dernier siècle. La petite rétine de cet œil contient quelques cellules réceptrices seulement, probablement trois. Elle se trouve dans le plan de focalisation d’un gros cristallin, à une distance relativement grande de celui-ci. La quantité de lumière projetée sur la rétine êst donc assez élevée, mais une discrimination même rudimentaire serait impossible sans un dispositif d’exploration dynamique. La rétine de Copilia exécute des mouvements de va-et-vient de grande amplitude, tandis que le cristallin demeure immobile. Si l’information instantanée/recueillie par cet œil est insuffisante, l'exploration spatiale rapide permet de la multiplier en mettant à profit le tèmps. Le système nerveux central de Copilia doit ainsi synthétiser des messages sensoriels successifs pour obtenir un équivalent de l’information qu’une rétine plus différenciée peut transmettre instantanément au cerveau des animaux supérieurs.
- Il existe des yeux d’insectes encore moins différenciés que ceux- de Copilia. Ën effet, presque toutes les larves d’insectes
- possèdent 6 à 8 ocelles dont chacun ne peut fournir qu’une seule information, à un moment donné. Les ocelles sont disposés de telle manière que leurs axes longitudinaux forment entre eux un très grand angle solide (généralement proche de 2 tz). L’animal possède donc un champ visuel très étendu qui lui permet de saisir toute proie mobile qui passe à proximité. Le processus employé ici consiste donc à signaler le passage d’une ombre d’un champ visuel partiel à un autre. Cette signalisation est bien visuelle mais non plus oculaire, car elle se produit au système nerveux central.
- Hundertmark a étudié une chenille (Lymantria monacha) qui, à la sortie de l’œuf, dispose déjà d’une rudimentaire vision des formes. Si cet animal possède 12 ocelles disposés systématiquement à droite et à gauche de la tête, il est pourtant établi que chacun d’eux ne peut fournir qu’une seule information à la fois. On pourrait qualifier de prodigieuse la vision des formes de cette chenille, vu la simplicité anatomique de son appareil oculaire. En effet, un certain rapport longueur/largeur d’objets rectangulaires est apprécié à 25 pour 100 près]
- L’œil composé. — Anatomie. — La figure 1 constitue un schéma de principe de la constitution d’un œil composé d’Àrthropode (Insecte, Crustacé ou Arachnide). Chacune des ommatidies qui le composent peut recevoir de la lumière provenant d’un angle solide très grand, mais sa constitution interne est telle que la stimulation lumineuse maximale des rétinules qu’elle contient (fig. 2 et 3) ne se produit que lorsque cet angle est égal ou inférieur à l’angle solide qui renferme l’ommatidie en question. La distance d qui définit sur la figure 1 le seuil de la discrimination visuelle de l’insecte possède en réalité un caractère très académique, car l’insecte en
- Fig. 2 (d gauche). — Les huit rétinules de l’ommatidie de l’Abeille
- ( schéma).
- Rh, rhabdome ; R, rétinule ; N, noyau ; F, libre nerveuse. Le rhabdome est la partie centrale de l’œil ; il se compose de 8 rliabdomères.
- Fig. 3 (à droite). — Deux ommatidies en coupe longitudinale (schéma).
- Chaque ommatidie, élément fondamental des yeux des Arthropodes (Insectes, Crustacés, Arachnides), contient plusieurs cellules (rétinules) groupées autour d’une formation centrale, le rhabdome. Le nombre des rétinules varie d’espèce en espèce mais est toujours petit, souvent 6 ou 8. La fibre nerveuse sortant de l’ommatidie se compose de libres plus Unes provenant des rétinules, au moins dans certaines espèces. Pour d’autx-es espèces, la question de savoir si la libre nerveuse centrale est ou non la prolongation du rhabdome est encore controversée, car souvent une cellule dite excentrique mélange son axone aux libres qui terminent les rétinules.
- p.96 - vue 99/558
-
-
-
- 97
- vol reçoit des informations plus détaillées que l’insecte au repos. Pour l’Abeille, d correspond à un angle visuel de x,6°. Cela signifie que l’Abeille au repos peut certainement percevoir à r m de distance la structure d’un réseau dont les barres seraient distantes de 3 cm. Cela est peu par rapport à l’acuité de l’œil humain qui permet de faire largement ioo fois mieux. La fibre nerveuse qui relie l’ommatidie aux centres nerveux supérieurs est d’ailleurs composée de 8 fibres individuelles provenant des rétinules, cellules dont chacune possède un noyau individuel.
- On croit que le rhabdome, partie centrale de l’ommatidie, est le lieu où se produit la réaction photochimique qui est à la base de l’excitation'visuelle. Par la suite, des signaux électriques atteignent le noyau optique du système nerveux central qui interprète leur ensemble. Des études sur le crustacé Limu-lus faites par 'Hartline montrent que des voies nerveuses, formant un plexus, lient entre elles les ommalidies. Mais ces voies se branchent sur la fibre nerveuse de l’ommatidie, après sa sortie de cette dernière. Il demeure donc que l’ommatidie constitue bien un œil complet de l’Arthropode.
- La figure 3 montre comment des cellules pigmentaires aident — avec la disposition des éléments optiques (cornée et cône cristallin) — à limiter l’angle de réception visuelle de l’ommatidie isolée. L’ensemble paraît constituer un véritable système de guidage canalisant la lumière vers le rhabdome, mais la preuve n’en est pas faite.
- Les yeux composés des Insectes possèdent bien moins de récepteurs que ceux des Vertébrés. Celui de l’Abeille, par exemple, contient environ 9 000 ommatidies. Ces yeux sont généralement bien plus petits que ceux des Vertébrés, mais c’est surtout la taille de leurs récepteurs qui limite leur pouvoir de discrimination au repos.
- Vision des couleurs. — Les remarquables travaux de von Frisch sur le comportement de l’Abeille nous ont appris que cet insecte distingue assez finement les couleurs. Il est vrai que la gamme des radiations électromagnétiques perçues par l’Abeille n’est que partiellement superposable à celle de l’Homme, par exemple. Ainsi, l’Abeille et en général beaucoup d’insectes voient l’ultraviolet qui nous est invisible et sont même particulièrement sensibles à cette radiation. Au contraire, le rouge n’existe plus dans leur gamme des couleurs. Si à l’Homme un mélange de rouge et de bleu fournit la sensation du pourpre, couleur qui ne correspond à aucune radiation pure contenue dans le spectre solaire, l’Abeille et beaucoup d’autres insectes perçoivent un mélange de jaune et d’ultraviolet comme une qualité nouvelle qu’on a appelé pourpre d'abeille. La couleur complémentaire existe également dans le registre des sensations des Insectes; deux couleurs spectrales mélangées peuvent produire une sensation d’absence de couleur, que nous appelons le blanc.
- Pourquoi l’Insecte peut-il voir l’ultraviolet auquel nos yeux sont insensibles ? L’œil composé n’accommode pas, l’image n’est pas mise au point. Dans l’œil des Mammifères, la mise au point est opérée par le cristallin et c’est lui qui absorbe la lumière ultraviolette. C’est pourquoi un récepteur de l’ultraviolet ne servirait à rien dans un tel œil. Au contraire, cette réception est possible dans l’œil des Arthropodes et s’y produit effectivement.
- Vision des formes. — A cause de la directivité de la réception lumineuse par l’ommatidie, le pouvoir de séparation dépend peu de la distance entre l’œil et l’objet. En effet, la seule information possible reçue par l’ommatidie consiste en une variation de la quantité lumineuse qui la frappe au. cours d’un élément de temps M donné. Cet œil est particulièrement apte à la vision du mouvement des objets, ou encore à la vision au cours du mouvement. Plus le passage de la stimula-lation d’une ommalidie à celle d’une autre est rapide et plus
- l’impression de mouvement relatif s’accentuera chez l’insecte. Or, la vitesse apparente du passage d’un objet ennemi en puissance diminue avec sa distance de l’insecte, car diminue également le nombre d’ommatidies stimulées par élément de temps Lt.
- D’un autre côté, toute information parvenant à l’Insecte de loin a peu de chances d’attirer son attention. Puisque ses ommatidies ne peuvent réagir qu’à la variation de la quantité de lumière reçue, l’intensité de la stimulation varie avec l’inverse du carré de la distance entre l’œil et l’objet. Cela explique pourquoi, par exemple, la Mouche ne réagit guère aux mouvements des objets qui sont éloignés de quelques décimètres. Lorsque la main approche de la mouche, elle lui paraît de plus en plus claire et stimule un nombre croissant de ses ommatidies. C’est alors la variation rapide du nombre et de l'emplacement des ommalidies stimulées qui ont une signification pour l'insecte.
- Nous approchons là un problème fondamental de la vision tout court. Pour les animaux supérieurs, mais également pour nombre d’animaux inférieurs, la vision des formes est une nécessité vitale. On sait que l’œil humain n’est jamais immobile mais exécute des mouvements de va-et-vient de faible amplitude. On a cru longtemps que ces mouvements devaient améliorer l’acuité visuelle, mais des recherches récentes ont montré qu’ils servent à empêcher une adaptation nerveuse. En effet, on a réussi à stabiliser l’image rétinienne par rapport à l’œil, par un dispositif de type feed-back comportant un miroir collé sur le globe oculaire. Résultat : l’image s’évanouit rapidement. La perception d’une forme est donc liée à un mouvement relatif entre l’œil et l’objet.
- Fig-. 4. — Vision des formes chez l'Abeille.
- Les dessins de gauche sont distingués spontanément par les Abeilles ; mais celles-ci confondent les dessins de droite et il n’est même pas possible de les dresser à les distinguer. On remarque que la longueur des contours des trois dessins de droite est identique.
- Bien que la vision des formes de.l’Insecte paraisse très différente de celle de l’Homme, dans l’essentiel les deux visions reposent sur le même principe : perception de l’image mue sur la mosaïque des récepteurs visuels.
- Les nombreuses expériences de dressage exécutées surtout avec des abeilles ont permis d’analyser assez correctement la vision des formes chez l’Insecte (bien entendu, nous parlons d’insectes pas trop différents de l’Abeille, car ce phylum compte des espèces extrêmement différentes les unes des autres). Un type d’expériences consiste à offrir aux abeilles des dessins (associés, bien entendu, à de la nourriture) de formes différentes, en leur laissant la liberté du choix. On peut aussi bien les dresser à chercher leur nourriture sur ou près de l’un de deux dessins présentés. Si l’animal préfère systématiquement l’un des dessins à l’autre, ou s’il est possible de le dresser à le faire, c’est évidemment qu’il peut les distinguer. Le résultat de ces expériences nous paraît étrange. La figure 4 montre, à droite, trois dessins que les abeilles confondent spontanément. Au contraire, elles distinguent les trois dessins de gauche, car il est possible de les dresser à se diriger toujours sur l’un d’eux. Il est, par contre, impossible d’obte-
- X O
- • =
- + +
- p.97 - vue 100/558
-
-
-
- 98
- nir ce résultat avec les trois figures de droite. On remarque que les contoui’s des dessins de droite ont la même longueur; cette longueur diffère pour chacun des dessins de gauche. La longueur des contours n’est pas seule à influencer l’Abeille. Lorsqu’il s’agit de choix spontané, elle accuse une prédilection pour les contours longs et pour une structuration interne
- A
- 360<
- •I#
- 580
- 280(
- Fig. 5. — Le choix spontané des formes par VAbeille.
- Les Abeilles préfèrent spontanément approcher des dessins très structurés. Aussi bien la longueur des contours que la discontinuité du dessin jouent. Lorsque cette dernière est à peu près constante, le dessin aux contours très longs emporte leur choix. Mais lorsque longueur de contours et discontinuités sont en compétition, celles-ci l’emportent sur la première.
- A : Ces trois dessins attirent également les Abeilles.
- B : Le dessin de damier en attire 15 fois plus que le carré plein.
- C : Les dessins de droite attirent les Abeilles davantage que ceux de gauche, bien que leurs contours soient moins longs que ceux de gauche (les nombres indiquent les longueurs des contours).
- lumineuse pendant un laps de temps qui dépend de l’ouverture angulaire de l’ommatidie, de la vitesse de vol et de l’angle visuel sous lequel l’objet est vu par l’ommatidie. Cet angle dépend de la taille de l’objet et de sa distance de l’insecte. Pour qu’un tel objet puisse être perçu individuellement et ne soit pas confondu avec un autre objet proche, il est nécessaire que le temps qui s’écoule entre le début de l’entrée dans le champ de vision du premier objet et le début de l’entrée du second objet soit suffisamment long. Si la cadence de passage d’un dessin, disons de barres parallèles, devient trop rapide, il y a fusion des excitations visuelles individuelles à l’intérieur de l’ommatidie; le niveau de l’excitation demeure alors constant pendant le passage au-dessus du dessin et l’insecte n’en peut percevoir la structure. La figure 7 A illustre ce cas. La stimulation exercée sur l’ommatidie en question par une barre survolée forme un trapèze sur l’axe du temps; elle croit avec la quantité de lumière rayonnée (ou soustraite si l’objet est plus foncé que les alentours) dans l’ommatidie et elle diminue lorsque l’objet sort progressivement du champ de vision de celle-ci. La ligne verticale en traits-points indique le temps f0 critique; c’est le temps de sommation totale, approximativement l’inverse de la fréquence de fusion. Nous admettons que le vol de l’insecte est assez rapide pour que f0 soit un peu supérieur au temps durant lequel l’image d’une barre traverse
- â
- accusée des dessins; la figure 5 montre que ces deux principes peuvent entrer en opposition. Ce comportement des abeilles nous amène à l’étude du mécanisme nerveux sous-jacent et particulièrement aux relations spatio-temporelles.
- Relations spatio-temporelles. — Aulrum a étudié le pouvoir de résolution temporelle des Insectes et surtout de la mouche Calliphora. Il constate que les réponses électriques fournies par l’œil à la suite de stimulations lumineuses rythmiques demeurent distinctes jusqu’à des fréquences de stimulation très élevées (de l’ordre de 3oo par seconde). On appelle fréquence de fusion cette fréquence limite. La fréquence correspondante pour l’œil humain n’est que de l’ordre de 5o/s, ce qui signifie que l’inertie de l’œil d’insecte est bien plus faible que celle de l’œil humain. La figure 6 montre le résultat d’une série d’expériences sur Calliphora. Tous les insectes ne possèdent pas un œil aussi dépourvu d’inertie. Cette qualité est réservée aux insectes qui se déplacent rapidement et ne se retrouve-pas-chez ceux qui se meuvent lentement sur le sol ou dans l’eau.
- Autrum a vérifié que les réponses électriques rapides de l’œil d’insectes du type Abeille, Mouche, Libellule, etc., sont dues à la constitution particulière de l’appareil nerveux post-récepteur et que le fonctionnement photochimique des cellules réceptrices de l’œil de l’Insecte ne se distingue pas essentiellement de celui qu’on observe dans l’œil des Vertébrés.
- La transposition spatio=temporelle dans la vision des insectes volants. — Considérons les signaux lumineux qui frappent une ommatidie bien déterminée d’un insecte en vol et les ipessages nerveux qui s’ensuivent. Supposons que l’axe de cette ommatidie ne soit pas dirigé selon la direction du vol, mais latéralement, ce qui simplifie notre démonstration. Un objet survolé par l’insecte envoie un maximum d’énergie
- WvW\r
- d
- Fig. 6. — Réponses électriques de l’œil de la mouche Calliphora à la stimulation lumineuse à intensité constante (a) et à intensité rythmiquement interrompue ( papillotement).
- Sous chaque enregistrement figure le type de stimulation lumineuse qui a provoqué la réponse électrique. Le début de la stimulation est marqué par un crochet vers le haut, sa fin par un crochet vers le bas. Les points sont distants de 0,1 s. On constate qu’en d la fréquence de fusion n’est tout juste pas encore atteinte.
- , (D’après Autrum).
- p.98 - vue 101/558
-
-
-
- 99
- Fig. 7. — Schéma, en fonction du temps, des distributions de stimulation et d’excitation dans l’œil d’un Insecte survolant un dessin de barres.
- En trait continu, la courbe de la stimulation ; en trait interrompu, la courbe de l’excitation. Le trait vertical marque le temps critique tc pour lequel la sommation de la stimulation est totale. A., pour un angle d’ouverture d’ommatidie étroit a 1 B, pour un angle d’ouverture quatre fois plus grand (3.
- (D'après Autrum) .
- l’ommatidie. La ligne en trait interrompu indique alors le niveau de l’excitation de l’ommatidie; après une montée initiale, il demeure constant jusqu’à la baisse progressive finale. Cela se traduit pour l’insecte par l’apparition et la disparition progressive d’un champ uniformément gris.
- Au lieu d’une ommatidie à l’angle d’ouverture a considérons maintenant une ommatidie à l’angle d’ouverture = 4 a (fig. 7 B). On constate que l’excitation ne demeure plus uniforme mais acquiert une structure temporelle qui avertit l’insecte de la non-uniformité du dessin survolé.
- Un pouvoir de résolution statique diminué permet ainsi d’améliorer le pouvoir de résolution en vol.
- Cet exemple démontre que, pour l’insecte en vol, un pouvoir élevé de discrimination spatiale constitue effectivement un désavantage. Il y a antagonisme entre le pouvoir de résolution spatiale pour objets au repos (aussi élevé que possible) et le pouvoir de résolution temporelle pour objets en mouvement (d’autant moins élevé que le vol est rapide).
- En raisonnant sur cet antagonisme, on peut interpréter nom-
- I I
- bre de particularités anatomiques de l’œil de l’Insecte. Nous ne citerons ici que celle de la taille particulièrement élevée des ommatidies situées sur les bords ventraux de l’œil composé. Ces ommatidies servent donc surtout à la discrimination au cours du vol.
- Ernest Baumgardt,
- Maître de recherches au C.N.R.S.
- I
- Biogéographie et écologie en Australie
- Les origines de la faune australienne
- Tout le monde connaît les singularités et l’intérêt que présentent, dans la nature actuelle, la faune et la flore australiennes. Aussi accueillera-t-on avec faveur la publication d’un livre consacré à la biogéographie et à l’écologie en Australie (1). Cet important travail ne se présente pas comme un traité d’ensemble de la faune de la région australienne, mais comme une série d’articles traitant chacun d’un sujet d’écologie ou de biogéographie. Ainsi sont abordées par des auteurs qualifiés des questions aussi variées que l’écologie humaine, le climat méditerranéen de l’Australie, les fluctuations climatiques passées et leur influence sur la végétation actuelle, la flore des hautes montagnes, la question du baguage des oiseaux en Australie. Sont également envisagées des questions qui se rapportent à l’économie rurale comme l’élevage du mouton mérinos, les myiases produites sur ce mouton par différents diptères, ou des questions touchant à la conservation de la nature, comme les conséquences de la myxomatose, l’invasion de l'Opuntia inermis et son contrôle par l’introduction d’un papillon, le Cactoblastis cactorum; le résultat de cette introduction a été tel dans le Queensland que des étendues énormes de terrains sans valeur ont pu être transformées en riches prairies. Les auteurs considèrent aussi le problème des réserves pour la préservation de certaines espèces menacées d’extinction : certaines plantes (Eucalyptus rognans, Ranun-culus anemoneus, Danthonia frigida, Telopea speciosissima), l’ornithorhynque, le koala et plusieurs autres Marsupiaux,
- 1, Biogeogmphy and Ecology in Australia, édité par A. Keast, R. L. Croc-ker et C. S. Christian, 1 vol. 16 x 24,5, 640 p., 18 pl. W. Junk, La Haye. Prix, relié : 65 florins.
- l’émeu et le casoar, le busard austral, certains perroquets. Le cas des kangourous est plus discuté car certains d’entre eux sont encore considérés comme animaux nuisibles, les uns (Macropus agilis) par la concurrence qu’ils font aux moutons dans les herbages, les autres (Setonix brachyurus) par les dégâts qu’ils produisent dans les plantations de pins, surtout pendant les mois secs d’été. On a cependant calculé, par des captures dans des trappes, que toutes les familles de Marsupiaux, sauf les Phalangers, sont en diminution; sur 52 espèces, 44 pour ioo doivent être considérées comme rares ou même éteintes car certaines n’ont pas été vues depuis 1910; les espèces de forêt résistent mieux aux causes de destruction que les formes qui habitent les prairies.
- Mais c’est l’écologie animale et la biogéographie qui tiennent la plus grande place dans ce volume, Des articles sont consacrés aux oiseaux, aux reptiles, aux batraciens, aux poissons d’eau douce, aux insectes, aux mollusques et crustacés d’eau douce. Dans la plupart de ces articles, les auteurs ont montré l’originalité de la faune australienne, les adaptations aux différents milieux, particulièrement au désert, et ils ont exposé leurs idées sur l’origine possible de cette faune. Parmi les faits intéressants signalés, indiquons que les oiseaux présentent des adaptations qui leur permettent de réparer plus ou moins rapidement les désastres qui résultent de terribles périodes de sécheresse; dès la meilleure saison revenue, le nombre des nichées augmente et elles contiennent un plus grand nombre d’œufs; certaines espèces nichent alors pratiquement toute l’année. D’autre part si, avec Mayr, on admet que 172 espèces de Passereaux australiens sur 356 appartiennent
- p.99 - vue 102/558
-
-
-
- —.......... 100 ..............—r—................:... —
- au groupe des Muscicapidés, on constate qu’ils offrent un exemple de radiation adaptative aussi remarquable que ceux qui sont connus chez les Marsupiaux. Cè même fait est reconnu chez les reptiles, particulièrement les Agamides Amphibolorus, et les mollusques d’eau douce. Comme particularités présentées par les poissons, il faut citer la présence de formes très anciennes, véritables fossiles vivants, comme Neoceratodus, Sclero-pages, Gadopsîs; parmi les espèces les plus spécialisées, on remarque un goujon aveugle (Melyeringa) trouvé dans un puits mais on ne connaît pas de cavernicoles.
- Les Marsupiaux, qui sont sans conteste les animaux les plus caractéristiques de la faune australienne, occupent naturellement une place importante dans ce volume et trois longs articles leur sont consacrés qui étudient leur écologie générale, leur distribution actuelle et passée, leur reproduction. Les Marsupiaux montrent l’exemple le plus remarquable de radiation adaptative. A l’arrivée des Blancs en Australie, en 1788, seuls existaient parmi les mammifères euthériens les rats, les chauves-souris, et le chien sauvage dingo, introduit par les indigènes. Au contraire, les Marsupiaux qui, dans le monde actuel, ne sont plus représentés hors de l’Australie que par les familles des Didel-phidés et des Cénolestidés, avaient différencié neuf familles comprenant un grand nombre d’espèces. En l’absence de compétition avec les mammifères euthériens, ils ont réussi à exploiter tous les milieux, produisant de remarquables convergences avec les placentaires insectivores, édentés, rongeurs, carnivores et, jusqu’à un certain point, même les ongulés et les lémuriformes. Le Thvlacine « loup marsupial », actuellement relégué en Tasmanie, montre un des plus remarquables exemples de cette convergence, dans sa forme générale, qui est celle d’un chien, sa marche digitigrade et l’aspect du crâne et de la denture. La transformation carnivore des molaires et prémolaires est telle que s’il 11’existait 8 incisives supérieures au lieu de 6, tout observateur non spécialisé serait trompé par l’aspect du crâne. Le très important chapitre sur la reproduction donne de nombreux détails sur l’anatomie des organes génitaux, sur le cycle reproducteur, la gestation, le développement des jeunes dans la poche marsupiale. L’auteur, M. G. B. Sharman, précise certains caractères mal connus des jeunes à la naissance; leur
- longueur varie suivant les espèces de 7 à i4,5 mm et leur poids de 12,5 mg à i,25 g chez une grande espèce comme le Macropus; ce dernier est le seul dont le poids soit supérieur à celui d’un souriceau nouveau-né, qui pèse environ un gramme. Quelques caractères anatomiques sont également précisés; chez les Dasyurus les poumons ne possèdent ni bronchioles, ni alvéoles et ont la forme de sacs à parois minces; les globules rouges de leur sang sont nucléés à la naissance, comme ceux des oiseaux; enfin, leur mésonéphros ou rein primitif est fonctionnel quelque temps après la naissance et les gonades sont indifférenciées.
- En ce qui concerne l’importante question de l’origine de la faune australienne, il est difficile de tirer des conclusions générales des idées apportées par les auteurs des différents articles; heureusement, une brillante introduction rédigée par le regretté Bodenheimer apporte quelque clarté dans cet ensemble. C’est que les opinions des auteurs sont bien variées à ce sujet. L’analogie de certains éléments avec les animaux qui habitent l’Amérique et l’Afrique du Sud a conduit à l’idée d’une faune antarctique hypothétique acceptée par certains. Par contre, Darlington, dont les conclusions (ig55) ont été acceptées par la plupart des mammalogistes et ornithologistes, cherche les homologies de la faune australienne plutôt chez les homéothermes du nord, venus par l’Asie. Il semble que l’erreur consiste à vouloir traiter tous les groupes de la même façon. Si, avec Troughton, on peut admettre l’origine septentrionale des Marsupiaux, beaucoup d’entomologistes et de botanistes suivent Jeannel, acceptant pour la plupart des insectes et des plantes une origine méridionale. Les lignées les plus récentes seraient venues du nord; les autres sont de vieilles lignées qui peuvent provenir de formes autrefois largement répandues, ou dont l’origine doit être cherchée dans une faune antarctique maintenant dispersée, ou sur le continent de Gondwana.
- Dans l’ensemble, ce volume très bien édité et de belle présentation est indispensable pour tous ceux qui s’intéressent à la situation si particulière du continent australien et aux particularités de sa faune et de sa flore.
- L. Chopakd.
- Un papillon qui se nourrit de sang
- On sait depuis longtemps que certains papillons sont attirés, à la façon des mouches, par les liquides normalement sécrétés par les grands mammifères ou suintant de leurs blessures. Un cas particulier est beaucoup moins connu et n’a été bien décrit que récemment, en ig54 par D. S. Fletcher et E. T. M. Beid (Proc. R. ent. Soc., B, 20, p. 200). Il s’agit de quelques espèces de noctuelles africaines appartenant au genre Arcyophora, de la sous-famille des Westermanniinæ. Ces insectes volent la nuit autour des groupes de buffles et de chevaux et viennent se poser sur la tête de ces animaux près des yeux ou des naseaux; de toute façon c’est toujours vers les yeux qu’ils se dirigent et ils viennent se poster en général dans leur angle interne. Ils étendent alors leur trompe et la font pénétrer entre l’œil et la paupière : le corps s’incline souvent sur le côté, ce qui facilite l’introduction de la trompe qui s’allonge d’un centimètre environ. L’insecte absorbe alors pendant quelques minutes la sécrétion qui lubrifie normalement l’œil et l’on voit la trompe se contracter rythmiquement pendant ce temps. Souvent le mammifère réagit par des mouvements de l’œil et des clignements de paupière qui dérangent le papillon; celui-ci fait alors le tour de l’œil pour chercher une autre place et reprendre sa succion. Les mouvements de la trompe sur l’œil provoquent un abondant larmoiement; le
- papillon a même été vu se déplaçant et promenant sa trompe sur la cornée pour provoquer un afflux de sécrétion, puis revenant dans l’angle de l’œil pour s’en repaître.
- Un article récent de W, Buttiker (Nature, Londres, 10 octobre 1959) rapporte un cas très comparable mais encore plus remarquable. Le papillon dont il est question est encore une noctuelle, Lobocraspis griseifusa, se trouvant au Cambodge mais appartenant au même groupe que les Arcyophora africains. W. Buttiker a observé les manœuvres de cet insecte, tout à fait analogues à celles des Arcyophora, mais le fait nouveau est que l’auteur, ayant disséqué des papillons venant de se repaître sur l’œil des bœufs, a trouvé dans leur tube digestif des traces de sang et des hématies en partie digérées; en outre, des essais de précipitine se sont montrés positifs pour les bovins. L’auteur n’indique pas si ce sang peut provenir d’une légère blessure provoquée par le contact de la trompe du papillon ou d’une irritation pathologique de l’œil. De toute façon cette constatation donne beaucoup de valeur à l’hypothèse formulée par les auteurs précédents concernant le rôle possible de ces papillons parasites dans la transmission des ophtalmies contagieuses qui frappent les bestiaux dans les pays tropicaux.
- L. C.
- p.100 - vue 103/558
-
-
-
- L’étude de l’ozone atmosphérique
- pendant l’Année géophysique internationale
- L’ozone 03 (molécule triatomique cl’oxygène) est formé dans l’atmosphère par l’action des ultraviolets solaires de courte longueur d'onde sur Voxygène 02 normal ; il est lui-même détruit par des ultraviolets de plus grande longueur d’onde. Son rôle d’écran protecteur contre les ultraviolets lui confère une grande importance biologique. Ces faits sont bien connus dans leur généralité, beaucoup moins bien dans leur détail. Des résultats nouveaux ont été acquis récemment, en particulier grâce à la coopération internationale instituée à l’occasion de l’Année géophysique. Mme Ai'lette Vassy, qui a apporté une grande contribution personnelle à l’étude de cette question, a bien voulu en résumer l’essentiel pour nos lecteurs dans l’article que nous publions ci-après.
- Le vaste programme de recherches réunies sous le vocable d’Année géophysique internationale (A.G.I.) était particulièrement orienté vers l’étude de l’atmosphère terrestre, et parmi les nombreuses disciplines qui y figuraient, l’ozone atmosphérique avait une place non négligeable. ,
- Dans le cas de l’ozone, l’A.G.I. n’apportait d’ailleurs qu’une intensification des recherches car il existait déjà un organisme permanent, la Commission internationale de l’Ozone, qui, au sein de l’Union internationale de Géodésie et de Géophysique, se chargeait de grouper les données recueillies en divers points du globe, d’étalonner certains instruments et de réunir périodiquement la plupart des chefs de service ou chercheurs isolés engagés dans des recherches sur l’ozone.
- Il existait déjà un réseau de stations d’observations de l’ozone, mais développé surtout en Europe, et d’importantes lacunes à la surface du globe ne permettaient pas de saisir les phénomènes dans leur ensemble. A l’occasion de l’A.G.I., on équipa de nombreuses stations nouvelles et un certain nombre d’entre elles continuent encore à fonctionner.
- De plus, cet effort de coopération internationale en vue d’obtenir un aspect mondial de la question, qui s’est poursuivi du ier juillet 1957 au 3i décembre ig58, venait à son heure car il pouvait bénéficier de techniques toutes récentes dans un domaine où précisément le besoin de données nombreuses se faisait sentir, par exemple celui de la répartition verticale de l’ozone atmosphérique.
- En tout, 90 stations, appartenant à 27 nations, ont effectué des mesures; sur ces go stations, i3 se trouvaient dans les régions voisines des pôles (latitude plus grande que 6o°), 8 dans l’Arctique et 5 dans l’Antarctique. Le programme comportait des mesures journalières de l’épaisseur réduite et de la concentration au niveau du sol; quant à la répartition verticale, elle était obtenue soit indirectement grâce à des mesures optiques, soit directement par des radio-sondages spéciaux, comme nous le verrons plus loin.
- On répondait ainsi aux recommandations des divers organismes qui avaient la • charge de tracer un programme de recherches et dont les activités étaient coordonnées au sein du Comité spécial pour l’A.G.I. : Commission internationale de l’Ozone, Organisation Météorologique mondiale, Comité spécial pour la Recherche dans l’Antarctique, etc.
- Parmi les 90 stations de l’A.G.I. où l’on a étudié l’ozone, la France en a équipé 8 :
- Station Latitude Longitude Programme
- Tamanrasset Port - aux - Français 22°48' N 0o°3t ' E complet
- (Iles Kerguélen).. Terre Adélie (Base 49°21 ' S 70° 13' E complet
- d’Ùrville) 66°40' S 140°01' E complet
- Nouvelle-Ame terdam 37°oO' s 77°34' E radio- sondages spéciaux
- Obs. Haute-Provence 43°oo' N Oo°4» E épaisseur réduite
- Paris-Val Joyeux .. 4S°49' N 02°01' E concentration au sol
- Paris-Montsouris .. Paris-Magny-les-Ha- 4S°49' N 02°20' E épaisseur réduite
- meaux V* O GO N 02°04' E radio- sondages spéciaux
- Ces trois dernières stations, très voisines, se partagent un programme complet de mesures, c’est-à-dire qu’il y a 6 régions d’observation, dont 2 n’ont qu’un programme partiel, l’Observatoire de Haute-Provence et l’île de la Nouvelle-Amsterdam.
- L'ozone dans l’atmosphère terrestre. — Avant d’aller plus loin dans l’examen des recherches effectuées pendant l’A.G.I., il me paraît indispensable de rappeler très brièvement l’essentiel du problème de l’ozone atmosphérique.
- L’ozone est un gaz qui se trouve dans l’atmosphère en très faible proportion ; l’épaisseur réduite de ce gaz, c’est-à-dire l’épaisseur sous laquelle il se présenterait s’il était ramené à pression et à température normales, épaisseur qui fut mesurée pour fil première fois par Ch. Fabry en igi3 à Marseille, est comprise entre 1 et 4 mm en moyenne; comparé aux 8 km d’épaisseur réduite de l’atmosphère totale, cela donne une proportion de l’ordre de io~7. La répartition de ce gaz n’est pas uniforme en altitude et varie d’autre part avec les coordonnées géographiques ; géographiquement, l’épaisseur réduite croît en moyenne quand la latitude augmente; en altitude, la répartition est très particulière (fig. 1), la quantité d’ozone croissant
- >/ LATITUDE f 78® 0‘
- l—LONGYEARBYEN —69®40'TR0MSÔ
- latitude
- latitude
- LATITUDE
- —10® 14' KODAIKANAL —18® 31’ POONA
- 47° 0' AROSA
- 35® 12' FLAGSTAEF
- 0 20 40 60 80 100 120
- 0 20 40 60 80 100 120 0 20 40 60 80 O 20 40 60 80 100
- OZOnE En t'/Km
- Fig. 1. — Répartition verticale de l’ozone dans l’atmosphère terrestre, mesurée dans six stations.
- p.101 - vue 104/558
-
-
-
- 102 --
- L erwick .
- Oxford , 'f5?W
- 300 —
- ------300
- Notation 1926 A /927 • J928 o 2929 x
- —s250
- Ca/iforn/e(35°Nl
- Ch fit [22*S) —225
- Notation 1926 A /927 • /928 O /929 x
- J-J- L
- Fig. 2 (ci-contre). — Variations saisonnières de l’épaisseur réduite de l’ozone atmosphérique au-dessus de diverses stations.
- Fig. 3. — Coefficient d’absorption de l’ozone entre 2 300 et 2 900 angstrœms (bande de Hartley).
- (D’après Vighotjx).
- <135
- 0,50
- d’abord depuis le sol jusqu’à un maximum pour décroître ensuite; l’altitude de ce maximum varie entre 20 et 3o km, ou même davantage, suivant la latitude; enfin, épaisseur réduite et répartition verticale subissent des variations en fonction du temps, et parmi les variations d’un jour à l’autre on a pu mettre en évidence une variation saisonnière de l’épaisseur réduite présentant un maximum au printemps et un minimum en automne (fig. 2). Les variations journalières, elles, sont nettement liées aux variations de la situation météorologique, comme l’ont montré les travaux de Dobson, en Angleterre.
- Propriétés optiques de Y ozone. — L’ozone possède des propriétés optiques remarquables, grâce auxquelles on a pu l’étudier, et qui commandent son rôle en biologie, en géophysique et en astrophysique. Il absorbe dans presque tous les domaines de radiations depuis l’infrarouge jusqu’à l’ultraviolet extrême; le maximum se situe à 2 55o  où le coefficient (pour 1 cm) atteint la valeur considérable de 125 qui ne se compare qu’à l’absorption des métaux; cela veut dire qu’une épaisseur de 24 p. suffit pour réduire l’intensité du rayonnement 2 55o  à la moitié de sa valeur (fig. 3). De plus, certaines bandes d’absorption, celles de Huggins (fig. 4) vers 3 000 Â, celles de Chappuis dans le visible, sont sensibles à l’action de la température, d’où la possibilité d’atteindre ainsi la température de ce gaz; d’autres bandes, telles celle de 9,6 p. dans l’infrarouge (fig. 5), sont sensibles à la pression, ce qui ouvre encore d’autres possibilités d’étude des régions de l’atmosphère où se trouve l’ozone. Grâce à ces précieuses propriétés, l’ozone est donc un indicateur des conditions de température et de pression des régions de l’atmosphère où il se trouve concentré., Ajoutons enfin que la quantité d’ozone présente résulte principalement d'un équilibre photochimique dû aux rayonnements
- c 0,25
- O
- Fig. 4. — Coefficient S 0,20 J0 ' XD ;S Q«
- d’absorption de l’ozone CL
- entre les longueurs *3
- d’onde 3 2S0 et 3 450 a/o
- angstrœms ( bandes de Huggins). (D’après Vighoux). 0,05
- 0,00
- Y
- 3400 3500 3200
- ( À) Longueurs d’onde —
- 5 yu 10 fj 15/a 20/*
- Longueur d’onde
- I
- Transparence de l’ozone pour l’infrarouge entre 1 et 20 il.
- Fig. 5.
- p.102 - vue 105/558
-
-
-
- 103
- Fig. 6. — Ozonomètre Vassy.
- L’air ozonisé, issu du compteur volumétrique que' l’on voit à droite, traverse la petite cuve à réaction (un peu à gauche du centre de la photo) contenant de l’iodure de potassium, qui provient du flacon surélevé ; l’iode libéré par la réaction polarise une paire d’électrodes dont le courant déclenche le mécanisme d'enregistrement.
- actifs pouf sa formation (vers 2 000 Â) et pour sa destruction (3 5oo Â) dont la pénétration dans l’atmosphère est différente.
- Rôle de l'ozone en géophysique. — Il en résulte que l’intérêt des recherches sur l’ozone est double. On peut d’abord l’étudier pour lui-même, voir comment il se répartit dans l’atmosphère et étudier ses variations, afin de rechercher comment il se forme et se détruit sous l’influence du rayonnement solaire, car on ne possède pas encore de théorie approfondie de la formation de l’ozone atmosphérique qui puisse rendre compte de toutes ses variations et en particulier de celles de la répartition verticale. De plus, il ne faut pas oublier les autres sources de production d’ozone dans l’atmosphère. Si l’on a renoncé à faire appel aux électrons auroraux, par contre les orages, ainsi que je l’ai montré il y a quelques années, sont une source importante, bien que locale, et la question demande à être encore examinée.
- On peut ensuite utiliser l’ozone comme indicateur et le champ des recherches météorologiques ainsi ouvert est très vaste. L’ozone permet d’abord de connaître la température et la pression de la haute atmosphère. Si aujourd’hui d’autres méthodes sont utilisables, grâce aux fusées d’une part et à l’amélioration des ballons-sonde d’autre part, il ne faut pas oublier qu’il n’y a pas si longtemps (en 1986), c’est grâce à l’ozone qu’Ëtienne Vassy a pu confirmer et préciser l’existence d’une couche chaude vers 5o km d’altitude. Nous avons pu ensuite découvrir les importantes variations de température que subit la stratosphère dans l’Arctique entre l’hiver et l’été, variations confirmées récemment à l’aide d’engins mixtes (rockoons).
- Les propriétés de l’ozone inclus dans une masse d’air se conservant pendant quelques jours, l’ozone permet de suivre les grands mouvements atmosphériques, invasions d’air polaire, déplacement du front intertropical, et même dans certains cas de prévoir ces mouvements 48 heures d’avance, comme c’est le cas dans les invasions d’air saharien.
- Enfin, le problème des échanges verticaux peut s’éclairer grâce à l’étude comparée de la concentration au sol et. de l’épaisseur réduite; une telle étude, faite au laboratoire de Phy-
- sique de l’Atmosphère de la Faculté des Sciences de Paris, a nettement mis en évidence le rôle des inversions de température.
- Nous voyons donc tout l’intérêt que présente l’étude de l’ozone en géophysique et en météorologie.
- N’oublions pas non plus que l’ozone, en arrêtant toutes les longueurs d’onde plus courtes que 3 000 Â, joue le rôle d’écran protecteur pour tout ce qui vit sur la planète, et le rôle d’écran nuisible pour les astrophysiciens désireux de connaître les rayonnements de courte longueur d’onde émis par les astres.
- Méthodes et instruments. — Le problème ainsi posé, voyons rapidement quels instruments ont été utilisés pendant l’Année géophysique internationale.
- Dans le cas de la concentration au niveau du sol, concentration très faible, qui au niveau de la mer est de l’ordre de io~8, les instruments en usage sont tous basés sur la même réaction chimique : destruction de l’iodure de potassium par l’ozone avec libération d’iode. Seule cette réaction a été reconnue utilisable pour ces faibles teneurs; en effet, si le dosage de l’ozone en proportion plus forte, io-3, io~4, ne pose depuis longtemps aucun problème, pour des concentrations de io~* les chimistes ont du faire de longues recherches avant de trouver une méthode correcte. Ce dosage peut se faire sur des prélèvements individuels comme le faisait le docteur Ehmert, en Allemagne. Plus intéressants sont les instruments qui fonctionnent automatiquement et de manière à peu près continue; tels sont les ozonomètres réalisés indépendamment par le docteur V. Regener aux États-Unis, et par moi-même pour les stations françaises (fig. 6).
- Pour mesurer l’épaisseur réduite, ou épaisseur totale, de l’ozone contenu dans l’atmosphère, de toute évidence nous devons employer une méthode optique utilisant l’absorption d’un rayonnement extra-terrestre par l’atmosphère, en choisissant un domaine spectral où l’absorption est surtout due à l’ozone. Le domaine spectral pratiquement utilisé, en fait le seul utilisé pendant l’A.G.I., est celui des bandés de Huggins qui limitent le spectre des astres; les sources utilisées sont le Soleil, la Lune, les étoiles, directement, ou encore la lumière
- p.103 - vue 106/558
-
-
-
- 104
- solaire diffusée par le ciel zénithal. Toutes les méthodes dérivent de la méthode de Bouguer-Langley, employée par Ch. Fabry lors des premières mesures qui ont permis de connaître l’épaisseur réduite de l’ozone atmosphérique.
- La méthode consiste à obtenir des spectres de l’astre choisi pour différentes distances zénithales de cet astre j et par des mesures photométriques on peut obtenir à la fois l’énergie du rayonnement de l’astre en dehors de l’atmosphère et l’absorption atmosphérique pour différentes longueurs d’onde et pour un parcours vertical (autrement dit pour la « masse d’air .» unité). Dans cette absorption, on fait la part de l’ozone et celle des autres facteurs, aérosols, diffusion moléculaire, absorption propre d’autres éléments présents dans l’air. Connaissant les coefficients d’absorption de l’ozone, on en déduit son épaisseur réduite et aussi sa température moyenne. A partir de ce principe on a pu élaborer des méthodes dites « courtes », plus rapides, ne nécessitant qu’une seule observation sous la réserve de .çpnserver des conditions instrumentales bien déterminées, et qui ne peuvent être précisées et contrôlées que par l’emploi de la méthode de Bouguer-Langley dans toute sa rigueur.
- Deux sortes d’instruments mettent cette méthode en œuvre; un appareil photoélectrique qui donne le résultat immédiatement, le spectrophotomètre Dobson, dont les nombreux exemplaires constituent un important réseau à eux seuls; et des spec-trographes à optique de quartz qui enregistrent sur plaque photographique f ils exigent un physicien qualifié et un dépouillement plus long, mais peuvent apporter des résultats plus complets et surtout entièrement à 1’abri des causes d’erreur dues aux conditions atmosphériques (nuages, brume, etc.); c’est pour cela que nous avons choisi des spectrographes pour la station de la Terre Adélie.
- Ajoutons pour être complets que nous avons réalisé un appareil simple et léger, à filtres optiques, pouvant donner une précision de quelques pour-cent, et qui est en service dans certaines stations françaises pour la prolongation de l’A.G.I., appelée « Coopération géophysique internationale ».
- Mais si nous examinons le problème de la répartition verticale de l’ozone, la plus grande variété règne encore dans ce domaine où l’expérience n’a pas encore eu le temps de faire la décantation nécessaire.
- Dans une méthode, historiquement la première utilisée, la mesure est indirecte. On utilise le phénomène curieux appelé effet Gotz, qui se présente lorsque l’on observe le ciel zénithal (par temps clair) au moment où le Soleil descend sur l’horizon et en dessous, enti'e 75 et g5 degrés de distance zénithale; ce phénomène dû à la variation d’altitude de la couche diffusante permet, par tâtonnements successifs, d’obtenir une approximation de la répartition de l’ozone en altitude. La méthode est longue et peu précise, mais peu coûteuse et n’exige qu’un spectrographe ou un spectrophotomètre; malheureusement, elle n’est guère capable de déceler les répartitions singulières.
- Une autre méthode indirecte, doute récente, utilise le fait que la bande infrarouge à 9,6 p. possède un coefficient variant avec la pression; si l’on connaît par ailleurs l’épaisseur réduite au moment de la mesure et la quantité de vapeur d’eau (nécessaire pour introduire un terme correctif), on peut, également par tâtonnements et en décomposant l’atmosphère en tranches comme dans le cas précédent, obtenir une répartition approximative de l’ozone atmosphérique. Cette méthode, très perfectionnée par Adel aux États-Unis, exige des observateurs entraînés, mais elle a l’avantage d’éliminer les corrections de diffusion. Cette méthode a pu encore être perfectionnée et Vigroux, qui a beaucoup étudié, en collaboration avec Migeotte, l’absorption infrarouge de l’ozone, a montré que l’on peut obtenir une répartition verticale tout aussi satisfaisante que par des méthodes directes; la comparaison a été faite à Arosa et la méthode de Vigroux a permis de mettre en évidence les
- Fig. 7. — Radio-sonde pour la mesure de la répartition verticale de l’ozone dans l’atmosphère.
- Au-dessous de la sonde à ozone, la sonde météorologique. Une affichette donne les indications nécessaires aux personnes qui trouveront le ballon-sonde et son chargement quand ils seront revenus à terre, en vue de la récupération éventuelle du matériel.
- variations de la répartition verticale au cours d’une même journée.
- Les autres méthodes en usage durant l’A.G.I. utilisaient des radiosondages ; deux types en ont été mis au point : des sondes optiques (utilisant des filtres) et des sondes chimiques. Pour les sondes optiques, deux modèles voisins ont été réalisés, celui que j’ai mis au point pour les stations françaises, et celui du docteur Paetzold, en Allemagne. Pour les sondes chimiques, l’une a été réalisée en Angleterre par Brewer, l’autre aux États-Unis par V. Regçner. Nous dirons quelques mots de notre réalisation. On utilise comme source la lumière du Soleil qui, après diffusion sur une sphère creuse de silice, traverse un filtre qui isole l’extrémité de l’ultraviolet puis tombe sur une cellule photoélectrique; un deuxième filtre permet de couper cet intervalle en deux et du rapport on déduit, après étalonnage, l’épaisseur réduite; la valeur du courant de cellule est transmise au sol par le moyen de l’émetteur de la radio-sonde météo à laquelle la sonde ozone est associée, et l’on obtient ainsi en même temps la température et la pression indispensables pour restituer l’altitude. L’instrument donne à chaque instant l’épaisseur réduite d’ozone au-dessus de la sonde, d’où l’on déduit la distribution verticale. La figure 7 représente l’ensemble sonde ozone et sonde météo prêt à être lancé.
- Bien que ces méthodes n’aient pas été utilisées pendant l’A.G.I., nous signalerons encore deux autres méthodes directes de mesure :
- p.104 - vue 107/558
-
-
-
- 105
- i° L’utilisation des fusées qui ont permis de connaître la répartition jusqu’à 80 km d’altitude;
- 2° L’envoi d’un ballon équipé d’un spectrographe qui enregistre le spectre solaire à différentes altitudes et que l’on récupère en fin de descente.
- Premiers résultats. — Nous avons vu que la plupart des mesures sur l’ozone atmosphérique sont des mesures optiques et il est .donc nécessaire de connaître les coefficients d’absorption avec précision et exactitude. De nombreuses recherches avaient été faites depuis le début du siècle et à plusieurs reprises un effort a été déployé pour que, dans les différents domaines spectraux, les résultats fussent cohérents. Mais cela ne suffisait pas car les bandes d’absorption de l’ozone n’étant pas résolues en raies, la dispersion de l’instrument modifie le coefficient à utiliser. Il importait particulièrement pour l’A.G.I. d’avoir des résultats homogènes en divers points du globe, et au programme d’ozone de l’A.G.I. figurait la comparaison de divers types d’instruments. Ce travail sans gloire était la condition même de la valeur des résultats obtenus; il a été fait par diverses équipes. Nous pouvons maintenant voir ce que l’A.G.I. nous a apporté, du moins dans la mesure où les dépouillements sont avancés.
- En effet, il est encore bien tôt pour se faire une idée d’ensemble des résultats obtenus; les données brutes sont rassemblées dans un centre mondial qui doit les publier; mais toutes ne sont pas encore parvenues, car les données recueillies dans les stations antarctiques et sub-antarctiques, quand elles ne sont pas transmises par radio, ne sont rapportées en France qu’une fois par an; ensuite les résultats, lorsqu’ils sont enregistrés sur émulsion sensible, doivent être dépouillés, et cela peut être long, avant de connaître le nombre qui exprime la concentration ou l’épaisseur réduite. Ceci n’est pas encore achevé pour certaines stations.
- Puis, une fois les données brutes obtenues, .on doit en faire l’analyse et comparer avec d’autres phénomènes géophysiques pour rechercher s’il existe des corrélations; c’est un travail de quelques années. Et cependant, en raison de l’intérêt extrême que l’on attache actuellement à ces régions antarctiques, c’est un des points sur lesquels l’effort de dépouillement a été le plus grand et quelques résultats ont déjà été exposés au dernier symposium sur l’ozone atmosphérique, à Oxford en juillet dernier. La deuxième question d’actualité était les résultats apportés par les radio-sondages. C’est donc à ces deux domaines que nous nous limiterons. .
- Disons tout de suite que si l’Arctique ne nous a pas apporté de grandes surprises, sans doute parce qu’il avait déjà été exploré assez longuement, l’Antarctique, par contre, semble présenter de nombreuses anomalies.
- C’est ainsi qu’à Halley Bay, l’épaisseur réduite présente un maximum important à la fin de novembre, c’est-à-dire seulement un mois avant le solstice d’été; le maximum de printemps serait donc plus tardif que dans les autres régions du globe. Les mesures de surface présentent un maximum en plein été avec maximum secondaire en juin, soit au cœur de l’hiver. Mais à la station française, dont la latitude est un peu plus basse, nous av'ons un fort maximum de septembre à décembre, avec des teneurs très importantes qui atteignent en moyenne 6.io“8; un maximum secondaire s’observe en mars. Une autre station de l’Antarctique observe un maximum de surface en pleine nuit polaire. Il est donc nécessaire de mettre de l’ordre dans ces résultats; mais leur variété montre tout l’intérêt que présente la poursuite de recherches dans les régions antarctiques; c’est pourquoi l’A.G.I. se continue actuellement sous une nouvelle forme, la « Coopération géophysique internationale », et qu’un comité spécial pour les recherches antarctiques a été créé, à la fois sur le plan national et sur le plan international. On ne saurait en effet déduire une variation annuelle d’obser-
- vations échelonnées sur une seule Année géophysique, fût-elle de 18 mois.
- Dans le domaine de la répartition verticale, un résultat qui apparaît immédiatement est le suivant-.: les mesures directes montrent que la répartition type (avec un maximum entre 20 et 3o km) ne s’observe que dans la moitié environ des cas; on observe souvent deux maximums nets, le maximum secondaire se situant dans la troposphère ou plus exactement au-dessous de 18 km; ce maximum peut se réduire à un épaulement marqué; les mesures indirectes ne pouvaient le mettre en évidence, la méthode d’analyse étant basée sur l’existence d’un seul maximum; elles ne peuvent que montrer l’insuffisance de l’hypothèse faite, donc l’existence possible d’un accident sur la courbe.
- Signalons à ce propos que la méthode de Vigroux, utilisant l’émission infrarouge, est capable d’indiquer nettement l’existence d’un maximum à une altitude anormalement basse mais ne permet pas de voir plus haut, la couche elle-même faisant en quelque sorte écran. Les mesures directes ont donc un très net aArantage sur les mesures faites à partir du sol.
- Le nombre de sondages d’ozone actuellement effectués, s’il peut paraître important au total, n’est pas encore suffisant pour des études statistiques car les sondes ont été lancées en différentes stations. Ce qui ressort clairement c’est la supériorité de cet instrument sur les anciennes méthodes; ainsi la sonde chimique n’exigeant pas le concours du Soleil, on peut obtenir une répartition verticale en pleine nuit polaire. De plus, les sondes optiques fonctionnent aussi bien par temps couvert que par temps clair car les nuages ne dépassent guère io km de hauteur et c’est dans la stratosphère surtout que la connaissance de l’ozone présente de l’intérêt.
- Jusqu’à présent les sondages n’ont pu que confirmer et préciser la variation de la hauteur du maximum avec la latitude; à l’équateur le maximum se situe vers 27 km, dans les régions polaires vers 22 km.
- On doit s’attendre à une relation entre la variation journalière de la répartition verticale et la situation météorologique, mais pour cette étude les sondages doivent être faits en série; les séi’ies sont encore très peu nombreuses et l’on ne peut conclure.
- Aussi en considérant l’ampleur de la tâche qui reste encore à accomplir dans le domaine de l’ozone, et le précieux auxiliaire que ce gaz peut être pour la météorologie, l’Organisation météorologique mondiale a décidé de lui consacrer une partie de son activité; un de ses services s’occupe de concentrer les résultats et de veiller à l’homogénéité des mesures et des publications. Des réunions périodiques permettront la continuation de l’effort dans ce domaine.
- Arlette Vassy,
- Maître de recherches au C.N.R.S., Laboratoire de Physique de l’Atmosphère de la Faculté des. Sciences de Pari®.
- Pendule miniature à quartz
- La Société Patek Philippe, à Genève, a construit une pendule miniature à quartz dont ies dimensions (134 x 94 x 66 mm, soit un volume inférieur à 1 dm3) font probablement la plus petite pendule de ce type dans le monde. Le cristal de quartz utilisé comme étalon de fréquence a une précision de + 1.10-* sur une période de 24 h, dans un domaine de température de 0° à 50° C ; la fréquence de ce cristal, de l’ordre de 10 kHz, est divisée par 600 pour l’alimentation de l’amplificateur qui fournit à son tour la puissance nécessaire pour commander un micromoteur synchrone. La pendule comporte 16 transistors, sa consommation totale est de 15 mW sous 1,25 V fourni soit par un accumulateur incorporé, soit par une batterie solaire ou toute autre source d’énergie. La précision de cette pendule est de 0,1 s en 24 h.
- p.105 - vue 108/558
-
-
-
- 106
- Masques animaliers
- Une exposition au Musée
- Guimet
- Un grand film récent, Les Seigneurs de la Forêt, dont un album édité par Arthaud présente les meilleures images, offre des scènes exceptionnelles de la vie des animaux d’Afrique les plus rares et les plus remarquables. Il montre avec quelle intensité les primitifs observent cette vie animale, la respectent jusque dans leurs chasses et l’intègrent à leurs croyances et à leur vie sociale. Rien de plus évocateur, à cet égard, que les danses qu’inspirent les grues couronnées aux jeune filles Watusi, ou les calaos aux Banyangas. Ces danseurs sont entièrement vêtus de raphia et arborent une sorte de cagoule emplumée où pointe le bec énorme et étrange de l’oiseau : .vision hallucinante (fig. 5). C’est l’ensemble d’un tel costume et de ses accessoires que l’Afrique noire appelle, parfois avec effroi, un « masque ». Mais le nom ne s’applique souvent qu’à ce qui déguise un visage.
- Fig. 2 et 3. — Le dieu Horus, à tète de faucon, en train de faire une libation (à gauche) ; la déesse Bartet, à têtë de chatte (à droite). Bronzes de l’époque saïte. Musée du Louvre. Le vase que tenait le dieu Horus est perdu (Photos Giraudon).
- Dans presque toutes les sociétés archaïques, le masque joue un rôle essentiel au cours des cérémonies et des réjouissances. Stylisé ou réaliste, il évoque la tête d’un homme, ou souvent celle d’une bête. Nous voudrions évoquer rapidement ces masques animaliers à l’occasion de l’exposition sur « Le Masque » qui s’est ouverte au Musée Guimet, à Paris, en décembre dernier et s’y tiendra jusqu’en mai. Il s’agit d’une réunion d’une richesse exceptionnelle où la muséographie la plus moderne, par ses éclairages savants, rend à des objets de collection leur mystère presque oppressant.
- Figr. 1. — Crotte des Trois Frères :
- Homme revêtu d’une peau de bovidé.
- *
- * *
- La maschera italienne, qui a donné « masque », de même que larva, en latin, signifiait « spectre », « création démoniaque », avant de désigner cet instrument de sorcellerie originelle qui est passé à la kermesse (mascarade) et à la décoration (mas-caron). La persona latine n’était elle aussi, à l’origine, que le masque de théâtre, mais ce visage artificiel devait exprimer la nature profonde de l’être représenté, se substituer à celle de l’acteur.
- De même, encore aujourd’hui, l’IIomme-panthère, avec l’aspect, la démarche et les cris, s’est approprié la force et la cruauté sanguinaire du fauve. Ceux qu’il terrorise oublient en lui l’homme, le simple voisin, protégé qu’il est sous l’anonymat, et comme possédé. Ainsi, la tête de la Gorgone coupée par Persée « médusait » au sens propre Ulysse en pei'sonne... Ces « Méduses » durent être à l’origine des masques animaliers qu’a évoqués Racine :
- ... Pour qui sont ces serpents qui sifflent sur vos têtes?
- Le masque est donc jugé si redoutable qu’il ne peut être obtenu qu’à grand prix (en échange avec des cochons aux Nouvelles-Hébrides...) ou par des initiations souvent pénibles. Il recevait de nombreux égards, voire de la nourriture, et le danseur qui le perdait pendant les cérémonies pouvait être puni de mort.
- Fig. 4. — Masque « Kôk-kô » d’initiation des jeunes garçons chez les Indiens Zuni (Nouveau-Mexique).
- Cylindre de parchemin à bec de bois, peint, et collerette de plumes de ' corbeau (Collection André Breton, photo Jean Lavaxjd).
- p.106 - vue 109/558
-
-
-
- 107
- Fig. 5. — La danse des hommes-calao chez les B any angas du Congo.
- Les hommes portent un grand masque ornementé muni à sa partie supérieure d’un bec de caLao tandis que tout le corps est dissimulé sous un long revêtement de raphia.
- (Photo extraite des Seigneurs de la Forêt, Ar-thaud, Paris).
- Le masque animalier apparaît dès les premières images que l’homme nous a données de lui-même : ainsi, l’extraordinaire sorcier de la Grotte des Trois-Frères (Ariège) (fig. i). Les célèbres fresques du Tassili étudiées par la Mission Henri Lhote en fournissent d’autres exemples.
- Cette préhistoire n’est malheureusement pas évoquée au Musée Guirnet.
- On y montre, par contre, quelques-unes de§ nombreuses divinités égyptiennes à tête d’animal. Chacune était un « masque » qui conférait au dieu la force incarnée dans la bête. Comme l’a supposé Maspero, en 1899, des masques animaliers •étaient arborés dans les cérémonies. C’est déjà le cas d’un personnage figuré sur le temple du roi Saliourê (yers 25oo .avant J.-C.). Plus tard, le visage félin du dieu Bès est porté par un bouffon de jeux populaires et dans un ballet royal. Souvent, les prêtres « prenaient » la tête du faucon Horus, .de l’ibis Thot, du chien Anubis, etc. Ces têtes sont toujours .celles d’animaux réels, et reproduites avec une fidélité et souvent un art consommés (fig. 2 et f<).
- Un cortège d’êtres coiffés de tête d’âne (ou de loup ?) se trouve sur une fresque de Tiryntlre, d’époque mycénienne. Des bas-reliefs et des bagues étrusques montrent des hommes à tête de taureau, de lièvre ou d’oiseau. Devant ces images composites, on peut souvent hésiter entre un personnage masqué
- et un monstre fantastique. Certains voient là les ancêtres des Minotaui’es, Satyres, Pans et Silènes, Centaures, etc.
- Ce sont surtout les images en terre cuite parvenues de l’Égypte (une seule), de la Grèce et de Rome qui nous permettent d’imaginer les masques antiques. Peut-être donnaient-ils leurs noms aux jeunes filles qui célébraient les déesses archaïques du Péloponèse : colombes ou cavales blanches. Le manteau de la Demeter hellénistique de Lycosura est brodé de musiciennes-danseuses à tête d’âne, de porc, de brebis. La Demeter de Phigalie avait une tête de cheval. De son côté, Acheloos, dieu des eaux mugissantes, arborait des cornes de taureau.
- L’Amérique précolombienne a fait un usage impressionnant du masque : tête de chien pour le dieu Quetzalcoatl ou, chez les Nazcas, de félin, ce dernier parfois recouvert en partie d’un masque d’or, et surmonté d’un serpent à épines et d’ailes d’oiseaux.
- Le masque est souvent fait de matériaux et surtout d’ornements peu résistants : à côté des métaux et du bois, graines, feuilles, lianes, fibres, coton, paille, écorce, papier; d’autre part, peaux, fourrures, cheveux, piquants, griffes, becs, dents, ivoire^ cornes, ramures, coquilles, perles, etc. Ses peintures peuvent être effacées à la longue ou intentionnellement. Cette fragilité rend plus remarquable encore la conservation parfaite
- p.107 - vue 110/558
-
-
-
- 108
- des masques de l’exposition Guimet, qui nous propose, pour finir, un rapide tour du monde.
- Sur les masques des Indiens Pueblos, de l’Arizona, les
- Fig. 7. — Le caribou-morse, masque en bois peint des Esquimaux
- de l’Alaska.
- (Collection Robert Lebkl, photo Jean Lavaud).
- Fig. 6. — Masque du rituel d’hiver, dit « Hamshamtses » ; Kwakiutl, côte Nord-Ouest du Pacifique (Amérique du Nord).
- Fermé, le masque représente le corbeau : ouvert, c’est le personnage cannibale mythique Baxbakvalanuxsiwaé. Bois polychrome.
- (Collection Georges Duthuit, photo Jean Lavaud).
- têtards symbolisent les pluies de printemps, les libellules celles d’été, les grenouilles celles d’automne. Les Iroquois arborent des masques parmi les plus compliqués : de savantes articulations ouvrent la tête du Corbeau mythique en deux ou quatre volets qui dévoilent une face humaine (fîg. 6). Des oiseaux claquent du bec ou battent des ailes. D’autres divinités (aux noms interminables...) se présentent ainsi sous leur .aspect alternativement humain et animal : Aigle, Faucon, Épaulard, Cerf, Ours, etc.
- Ces Indiens ont certainement influencé leurs voisins esquimaux de l’Alaska. Chez ces derniers, l’animal et son double humain, l'irma, peuvent également être présentés successivement par une habile mécanique : elle traduit un changement d’apparence, mais non d’essence. Il y a retour à l’état primitif où l’on pouvait apparaître homme ou animal, selon les croyances des indigènes.
- Fig. 8. — « Cygne conduisant au chasseur ta Baleine blanche au printemps », masque, en bois polychrome et plumes, des Esquimaux de la Kuskokvim (Alaska).
- (Collection André Breton, photo Jean Lavaud).
- p.108 - vue 111/558
-
-
-
- 109
- Fig. 9. — Masque-cloche en bois représentant une tête d’antilope-cheval, de Léopoldville (Congo belge).
- (Musée royal du Congo belge, Tervuren).
- Les Chamans prétendent avoir conservé ce pouvoir de métamorphose !
- D’autre fois, le masque juxtapose deux demi-tètes : homme-oiseau, homme-morse, poisson-morse, caribou-morse (fig. 7).
- Parfois des planchettes en pendeloques représentent les animaux victimes de l’espèce principale représentée. Particulièrement poétique est l’histoire du « Cygne conduisant au Chasseur la Baleine Blanche au printemps » et, particulièrement curieux, le masque qu’elle a inspiré (fig. 8).
- Une grande planchette semble représenter une tète d’ancêtre décorée d’animaux et de scènes de chasse en mer, et destinée à assurer le succès au chasseur (fig. 10).
- En Sibérie, les masques sont rares, sporadiques, ou élémentaires comme ceux de la tête de l’Ours. En Nouvelle-Calédonie, il n’existe qu’une représentation du dieu Pidjeuva, masqué en requin ou en lézard.
- Fig. 10. — Tête d’ancêtre ( ? ) sur planchette décorée d’animaux et de scènes de chasse en mer (Esquimaux de l’Alaska méridional).
- Bois peint en bleu, rouge et vert sur tond blanc, exposé sans doute pendant les cérémonies destinées à assurer de bonnes chasses.
- (Collection A. Pinart ; Musée des Beaux-Arts et d’Archéologie de Boulogne-sur-Mer).
- Dans le Sud-Est asiatique, les masques ont leur place obligée au théâtre ou au temple : les barong sont souvent des animaux très stylisés. A Bali, tigres, lions, sangliers, ours, etc. Sur la scène, le thème de la Belle et la Bête est fort répandu : le prince Ngo perd son masque simiesque quand la Princesse devine la beauté de l’âme sous la laideur des traits. Dans les danses bugaku. du Japon se portent des masques de Dragons ou d’oiseaux fantastiques.
- En Afrique Occidentale, pour encourager les travailleurs aux champs, des jeunes dansent masqués : ainsi les élégantes antilopes multicolores de Kouroumba. Chasses et pêches donnent lieu aussi à des sorties spectaculaires. Certains masques sont aussi chargés de motifs que de symboles. Le kanaga n’est qu’un oiseau pour le profane. Pour les initiés, il évoque aussi, entre autres, un insecte d’eau, « le baramkamza dullogu qui amarra de ses pattes de devant l’arche descendue du ciel, contenant les prototypes des animaux et des végétaux et les ancêtres de l’humanité, lors de son impact sur terre ». Un humble masque du Soudan cherche ainsi à évoquer tout le tourbillon d’une cosmogenèse.
- Ce voyage à travers le monde fascinant du masque nous a ainsi suggéré son rôle magique chez presque toutes les sociétés primitives. Roger Caillois estime qu’il contribue fortement à leur unité, et que sa disparition chez les peuples témoigne de leur accession à l’histoire.
- Au milieu des innombrables apparitions d’une variété confondante, l’animal tient une place exceptionnelle, ce qui ne saurait surprendre chez des peuples chasseurs.
- Ce souvenir se perpétue dans les monstres de la mythologie, ornements de tant d’édifices ou de bibelots, dans les animaux enchantés de nos contes, qui redeviennent un homme comme le danseur qui baisse son masque, chez l’écolier du mardi gras ravi d’ « être », pour quelques heures, le grand méchant loup ou le petit cochon rose...
- Michel Rousseau, Docteur vétérinaire.
- p.109 - vue 112/558
-
-
-
- Anvers et Rotterdam
- Associés ou rivaux ?
- Fig:. 1. — Chargement de produits sidérurgiques à Anvers (Photo F. Glaes).
- Rotterdam et Anvers, respectivement premier et second ports du continent européen, figurent.également parmi les tout premiers ports mondiaux. Longtemps rivaux, ils se trouvent aujourd’hui devant des perspectives nouvelles, imposées à la fois par l’union Benelux et par l’entrée en vigueur du Marché Commun. La géographie n’oblige-t-elle pas, en i960, à reconsidérer une rivalité aux racines surtout historiques ?
- Des rivaux séculaires. — Dès la fin du xie siècle, des marchands anversois étaient établis à Coblence. Au xme, des négociants allemands et italiens sont signalés sur les rives de l’Escaut, que Londres choisit peu après comme entrepôt des laines anglaises sur le continent. Délaissant Bruges qui s’envasait, le trafic maritime fit rapidement la fortune d’Anvers. Au xvi6 siècle, ce port était devenu la grande hase commerciale du continent, important bois et fourrures du Nord, métaux d’Europe centrale, épices des tropiques... « Paris excepté, écrit Guichardin, à peine trouverez-vous cité qui surpasse Anvers en richesse et puissance. »
- A la même époque, la petite bourgade de pêcheurs qui s’était fondée à l’embouchure de la Botte dans la Meuse (d’où son nom de Rotterdam) était loin de pouvoir rivaliser avec la métropole scaldienne. Tout au plus trafiquait-elle avec la Scandinavie et les pays de la mer du Nord.
- La ruine d’Anvers, à la fin du xvie siècle, le « sac » de la ville par les Espagnols, la mainmise des Hollandais devenus indépendants sur les bouches de l’Escaut ne profitèrent pas à Rotterdam ;
- c’est Amsterdam, à la puissance financière beaucoup mieux établie, qui accapara alors le commerce des Indes, ces « océans d’or des paradis lointains » dont parle le poète Verhaeren.
- La Révolution industrielle du xixe siècle et l’essor des économies des États européens démontrèrent la nécessité d’un débouché maritime, pour la Ruhr notamment. Rotterdam réussit à s’imposer, grâce au creusement, à travers polders et dunes, d’un chenal en direction de la mer du Nord : la ISieuwe Waterweg ou « Nouvelle voie maritime » (1880). Pendant ce temps, profitant de l’essor économique belgo-luxembourgeois, Anvers reprenait vie, après avoir réussi à éliminer la douane néerlandaise de l’Escaut. Les chiffres de 1938 donnaient 4a mégatonnes de marchandises manipulées à Rotterdam, 3o Mt à Anvers.
- Les destructions de 1940-1944 écrasèrent Rotterdam sous les ruines; la moitié de ses quais et de son outillage était inutilisable; le trafic de 1947 ne dépassait pas 10 Mt, moins du quart d’avant-guerre.
- A 100 km de là, miraculeusement intact, Anvers avait servi de base de ravitaillement pour les Alliés à la fin de la guerre. En dépit des Vi et V2, le port « tournait à plein » dès la Libération : en 1947, avec près de i5 Mt, il surclassait nettement son rival.
- Mais que s’est-il passé depuis douze ans ? « Streker door strijd », plus forte par le combat, la ville d’Erasme s’est mise au travail, modernisant son outillage, reconstruisant ses docks, agrandissant ses bassins (fig. 3). Grâce à la haute conjoncture
- p.110 - vue 113/558
-
-
-
- 111
- économique qui a suivi 1900, Rotterdam a sans cesse accru son trafic, battant en 1967 tous les records précédents avec 74 100 000 t de marchandises (ig58 et 1959 ont vu un léger recul, avec respectivement 72 et 69 Mt; phénomène de récession enregistré partout). 23 000 navires entrent chaque année dans le port, lequel aujourd’hui a distancé Londres et talonne New York.
- Anvers, n’ayant pas à « faire du neuf », s’est contenté en revanche de renouer ses liens traditionnels d’échanges. Cette politique prudente, jointe au taux élevé du franc belge, limita la progression du trafic. Celui-ci s’acci'ut dans des proportions régulières, mais faibles : 37000000 t de marchandises en igôfi, quelque 35 Mt en 1908 (16 000 navires de mer).
- L’écart est aujourd’hui du simple au double en faveur du
- port néerlandais. Il doit à peu près demeurer tel, si se révèlent justes les prévisions des experts, au cours des prochaines années (roi Mt contre 57, en ïg65).
- Équipement et trafic. — Pourtant l’examen de l’outillage de chacun ne semble pas être particulièrement défavorable à Anvers (tableau I). Il importe toutefois de faire intervenir des facteurs tels que distance de la mer, facilités d’accès, puissance du matériel. Ainsi Rotterdam reçoit les navires a toute heure, même par temps de brouillard, grâce au système de radar installé en 1957. Anvers, au contraire, doit faire attendre les gros bateaux à l’entrée de l’estuaire, le chenal de l’Escaut n’étant pour eux praticable qu’à marée haute. L’amplitude des mai’ées atteint ici plus de 4 nr, au lieu
- p.111 - vue 114/558
-
-
-
- de i m seulement dans la Nieuwe Waterweg. La rotation des navires est donc plus rapide à Rotterdam, dont les bassins s’ouvrent librement sur le fleuve, sans écluses comme à Anvers.
- Tableau I. — Équipement comparé de Rotterdam et d’Anvers
- Rotterdam Anvers
- Éloignement de la mer . . . . 3o km 88 km
- Profondeur du chenal à marée haute, donnant accès aux navires tirant.... n,3 m 10,8 m
- Superficie des bassins 615 ha 462 ha
- Longueur des quais 34 km 52 km
- Grues de quai 335 55q
- Grues flottantes 123 25
- Ponts transbordeurs . . 20 8
- Élévateurs à céréales . 33 24
- Superficie des entrepôts 925 000 m2 1 34o 000 m2
- Voies ferrées dans le port. . . 3oo km 800 km
- Lignes régulières de navigation .... 220 270
- Nombre de dockers i3 000 i5 000
- C’est pour gagner du temps sur les opérations d’éclusage que les Belges ont construit en ig55 l’écluse Baudouin, longue de 36o m, la seconde du monde par ses dimensions. Quatre autres écluses relient l’Escaut aux bassins. Il n’en faut pas moins trois heures pour passer des quais à la mer, alors que 90 mn suffisent à Rotterdam. On notera qu’une solution technique identique a été adoptée dans les deux cas pour éviter de construire un pont : un tunnel routier sous le fleuve.
- De sensibles différences apparaissent entre les deux ports si l’on étudie la répartition et la nature de leur trafic. Rotterdam,
- par exemple, est port de voyageurs vers les Amériques et l’Exti'ême-Orient, et vers l’Angleterre par son annexe de Hoek van Holland. En face de ses 600 000 voyageurs annuels, les 60 000 d’Anvers comptent peu; presque tous ceux-ci utilisent la ligne de Matadi (Congo belge).
- Mais les nuances essentielles concernent le mouvement des marchandises. En premier lieu, Anvers est un port équilibré entre importations et exportations, ce que n’est pas du tout Rotterdam. En 1957 (année record) le trafic total des marchandises à Anvers (36,6 Mt) se répartissait ainsi : importations, 21,9 Mt; exportations, i4,7 Mt. Le trafic de Rotterdam (74 Mt) comprenait : importations, 56 Mt; exportations, 18 Mt.
- Si l’on défalque les chiffres du trafic pétrolier, on constate même que les exportations anversoises dépassent les importations, fait exceptionnel chez les ports européens. Ajoutons une nuance en ce qui concerne les pavillons. La flotte néerlandaise est importante (4,5 Mt) et assure le quart du trafic rotterdamois, tandis que la marine belge est insignifiante (o,5 Mt) et n’entre que pour 5 pour 100 dans le trafic anversois.
- En second lieu, Rotterdam est, plus que son voisin, intéressé par le transit (essentiellement avec l’Allemagne) ; la part du transit y est de 46 pour 100 au lieu de 28. Il est vrai que cette proportion a fortement diminué depuis l’avant-guerre, où elle atteignait respectivement 76 et 4o pour 100. Cette différence entre les deux ports s’explique par la situation meilleure de Rotterdam par rapport à l’Allemagne; tandis que le port belge est surtout intéressé par une industrie nationale plus développée.
- Varrière-pays. — Ainsi se pose la question des liaisons avec l’hinterland. Rotterdam apparaît d’emblée plus favorisé, puisque fixé exactement à l’embouchure du Rhin (l’ancien enchevêtrement des estuaires explique que le nom de Meuse se soit conservé dans la traversée du port, bien que la Nieuwe
- p.112 - vue 115/558
-
-
-
- Fig. 4. — Travaux de l’ « Europorte » dans File de Rozenburg (Photo Nijhof).
- Waterweg ne roule plus que des eaux rhénanes). À Dordrecht, endroit où les péniches bifurquent soit vers Rotterdam soit vers Anvers, la distance n’est que de 20 km pour le premier de ces ports, mais de i35 pour le second. Aussi n’est-il pas étonnant de voir le trafic fluvial du Rhin s’orienter surtout vers les ports hollandais, surtout depuis l’achèvement du canal d’Amsterdam à Tiel (i953) : à la frontière allemande, ni 000 chalands sont passés dans les deux sens, en 1957, à destination ou en provenance des ports néerlandais, 27 000 seulement à destination ou en provenance des ports belges (fig. 5).
- La voie d’eau idéale du Rhin reçoit des péniches lourdes : 3 000 t jusqu’à la Ruhr, 2000 t jusqu’à Strasbourg et Bâle; le Main est remonté jusqu’à Würzburg par des chalands de
- I 5oo t, le Neckar jusqu’à Stuttgart par des péniches de 1 200 t. Mais Rotterdam redistribue également ses produits d’importation à travers tous les Pays-Bas grâce à un magnifique réseau de canaux, le plus dense du monde : long de 7 000 km, parcouru par i5 000 bateaux, il dessert aussi bien la Frise que le Limbourg et transporte annuellement 120 Mt de marchandises !
- Le problème rotterdamois ne provient pas du Rhin (quoique la ville soit attentive aux projets de liaison Rhin-Main-Danube, Bâle-Constance, ou bien au plan de canalisation de la Moselle).
- II est posé par l’absence de raccordement entre la Meuse hollandaise et la Meuse belge, ce qui ôte au port hollandais toute possibilité de capter le trafic industriel de la zone liégeoise.
- En effet, entre le moderne canal Juliana, accessible aux navires de 2 000 t, et desservant le Limbourg houiller, d’une part, et d’autre part la Meuse belge où circulent des bateaux de 1 35o t, un hiatus existe à la frontière, le « bouchon de Lanaye », constitué par une écluse au gabarit de 45o t seule-
- Fig. 5. — Voies d’eau belges et hollandaises (Cartographie La Nature).
- 100km
- p.113 - vue 116/558
-
-
-
- 114
- ment. La solution est facile à exécuter : trois ans de travaux suffiraient, au prix modeste de 20 millions NF ; mais les Belges ne se décident pas à l’entreprendre, puisque c’est Rotterdam qui en retirerait profit.
- La desserte ferroviaire et routière de Rotterdam n’offre pas de lacune grave : réseau ferré dense, 3oo km de voies dans le port, 1 600 wagons chargés quotidiennement; système d’autoroutes modernes à double chaussée, s’étendant en direction d’Amsterdam, d’Utrecht et de la Ruhr, de Breda et Bois-le-Duc. La Hollande possède 700 km d’autoroutes, ce qui lui donne la seconde place en Europe après l’Allemagne.
- Du côté anversois, la desserte ferroviaire est excellente, puisque l’on ne compte pas moins de 800 km de voies dans la zone portuaire. Dès i844, le port belge était relié à Cologne par chemin de fer, « le Rhin de fer »; avec plus de xo Mt trans-poxdées annuellement, Anvers apparaît comme le premier port ferroviaire du continent.
- La desserte routière s!amélioïe rapidement : autoroute vers Bruxelles, tunnel et grande route vers Gand, autoroute en cours de construction vers Liège et Aix-la-Chapelle (le prolongement en territoire allemand est quasiment terminé vers Cologne).
- Fig. 6. — Le canal Albert (Photo P. Wagret).
- 20 pour 100 du trafic anversois en direction ou en provenance de l’intérieur se sont effectués en iq58 par transports routiers; cette proportion n’était qùe de 5 pour 100 en ig53. Aussi tout un plan de dégagement de l’agglomération anversoise par autoroutes semi-circulaires de contournement a-t-il été établi, sur le modèle de celui qui fut réalisé à Bruxelles à l’occasion de l’Exposition de 1958.
- Les liaisons fluviales demeurent néanmoins primordiales : elles se répartissent à peu près par tiers entre le Rhin, le canal Albert et l’Escaut fluvial. Achevé en 1939, le canal Albert (fig. 6) relie directement Anvers à la Meuse liégeoise; long de i3o km, coupé seulement de six écluses, accessible aux chalands de 2 000 t, il transporte annuellement 7 Mt de marchandises (minerais vers Liège, produits sidérurgiques vers Anvers). Son but avoué était de capter au profit d’Anvers le trafic de l’industrie wallonne : ainsi détournait-on artificiellement les éléments que la géographie semblait imposer.
- Quant à l’Escaut fluvial, prolongé vers Bruges et Lille p£*r des canaux et rivières aménagées, vers Valenciennes par l’Escaut supérieur, vers Bruxelles par la Rupel, il demande des améliorations sensibles en amont de Gand et sur la section Bruxel-les-Charleroi (canal de Clabecq). Ces diverses sections, importantes par les relations qu’elles ouvrent vers le Nord de la
- 10 km-
- Moerdijk
- Moerdijk
- '“Wn\¥ Benedensas H 03iL LANDE
- . î» Roosendaa!
- Oinlelsas
- H 0\L/L A N D E B / RoosendaaI
- Bergenop Zoom
- Bergen opZoom
- ^ ANVERS
- ANVERS
- Fig. 7. — Les projets pour le canal de Moerdijk.
- 1, 2, 3, projets hollandais ; 4 projet belge.
- (Cartographie La Nature).
- France et vers le Borinage, doivent être mises au gabarit de r 35o t. Le trajet Gharleroi-Anvers exige en effet une semaine I (Anvers-Liège : deux jours).
- Reste l’épineuse question des liens enti'e Anvers et le Rhin. 8 Mt empruntent chaque année les « eaux intermédiaires » de Zélande, au prix d’une navigation parfois dangereuse (19 janvier i960 : naufrage de la péniche belge Vinotra), et via le vieux canal de Zuid-Beveland : minerais, pétrole, charbon à la î-emontée, produits sidérurgiques et chimiques à la descente. Incontestablement le port belge, plus éloigné du Rhin, est défavorisé en face de Rotterdam.
- Aussi les Belges demandent-ils le creusement d’une voie plus directe, à travers le territoire néerlandais (analogue à ce que les Hollandais ont fait avec le canal Amsterdam-Tiel). Ils ne manquent pas d’arguments : tempêtes et mer agitée dans les cc eaux intermédiaires » de Zélande, lenteur des éclusages à Beveland, co-navigation dangereuse dans l’Escaut entre chalands et. gros navires. L’exécution du Deltaplan (voir La Nature, février 1959, p. 71), en créant une écluse supplémentaire dans le détroit du Volkerak et en aménageant un lac d’eau douce plus facilement pris par les glaces, risque d’entraver encore le trafic.
- De là une vieille réclamation anversoise : celle du canal de Moerdijk (fig. 7), long de 55 km seulement, et dont la réalisation ferait gagner plus de 80 km sur le trajet actuel entre le Rhin et Anvers. Mais les Hollandais ne sont pas pressés d’en-, tamer les travaux : leurs experts n’ont-ils pas calculé (conclusions d’ailleurs vivement contestées par les Belges) que l’exécution du canal profiterait pour les 2/3 à la Belgique, pour
- p.114 - vue 117/558
-
-
-
- 115
- 16 pour ioo à l’Allemagne, et pour i4 pour ioo à la Hollande ? Au surplus, elle ferait perdre i 200 ha de terres fertiles, et coûterait plus de i5o millions NF. Aussi, sans grande conviction, les Néerlandais ont-ils présenté plusieurs contre-projets. Depuis quarante ans, les négociations n’ont guère avancé; la dernière étude commune remonte à 1954.
- Devant la mauvaise volonté de leurs voisins, les Anversois tirent des cartons un ancien projet de liaison Liège-Cologne : ce canal « Vent-debout » (ainsi dénommé parce que les péniches y chemineraient contre le vent d’Est), prôlongeant le canal Albert, concurrencerait sérieusement Rotterdam dans l’attraction du trafic allemand, suisse et français de l’Est.
- Les Anversois craignent en effet également que la canalisation de la Moselle, qui doit être achevée au début de ig63, profite à leur rival et les prive d’une partie des exportations françaises de produits sidérurgiques. Aussi ont-ils été relativement hostiles à cette réalisation, et mettent-ils en avant de leur côté un projet d’aménagement Moselle-Meuse qui joindrait Thionville à Sedan et Givet : les autorités belges ont entamé les travaux de mise au gabarit 1 35o t de leur section de Meuse (jusqu’à Givet).
- Ces divergences entre les deux ports expliquent en partie la hâte marquée par chacun en vue d’étendre et de moderniser ses installations.
- Rotterdam et V « Europorte ». —- Le complexe portuaire rotterdamois déborde en amont vers Dordrecht (minerais, bois); en aval vers Ylaardingen (pèche, minerais), Schie-dam (chantiers navals), Maassluis, Hoek van Holland. De vastes agrandissements ont été réalisés sur la rive sud de la Nieuwe Waterweg, au port pétrolier de Pernis (Royal Dutch-Shell, Caltex) et à Botlek (nouveau port pétrolier, raffinerie Esso, chantier naval, industries chimiques). Tout cet ensemble fait de Rotterdam le premier centre européen de déchargement et de traitement du pétrole brut (capacité annuelle : 25 Mt). Un oléoduc est en cours d’achèvement vers Cologne.
- Mais les perspectives d’avenir s’ouvrent sur un accroissement considérable du trafic. L’institution du Marché Commun, le développement de l’économie européenne, l’aménagement des voies de communication dans l’hinterland permettent d’escompter une augmentation de la demande de matières premières, en même temps qu’un accroissement des exportations européennes de produits fabriqués. Sans compter l’élévation régulière de la consommation de produits pétroliers, pour laquelle l’Europe occidentale est encore loin d’avoir atteint le niveau américain. Pour 1965, les prévisions de l’O. E. C. E.
- tablent sur un trafic total rotterdamois de 101 Mt, pour 1970 de 124 Mt (dont la moitié constituée de produits pétroliers).
- La nécessité d’installations nouvelles apparaissait donc comme urgente. La municipalité — comme à Anvers, c’est la ville qui gère le port — mit à l’étude un plan d’extension, dénommé « Porte de l’Europe », Europoort. Le projet était axé sur l’aménagement de bassins nouveaux accessibles aux très grands navires, d’espaces de stockage d’hydrocarbures et de minerais, et enfin d’industries lourdes. Le problème de l’accès des gros navires et la recherche de la place encore disponible conduisirent à adopter le site, très proche de la mer, de l’extrémité occidentale de l’île de Rozenburg, au terminus de la Nieuwe Waterweg.
- Approuvé à la fin de 1967, le plan a vu son exécution démarrer au printemps ig58; les premiers arrivages sont attendus au début de 1961, et l’achèvement total interviendra en 1962-1963. Le coût des travaux atteindra quelque 2Ôo millions NF (fig. 4 et 8).
- Le plan « Europorte » s’étend sur environ 1 600 ha, dont 4oo concernent des bassins : ceux-ci accueilleront les navires de 80000 tdw (port en lourd), longs de 225 m, tirant i3 m; aucune écluse n’interrompra la navigation. La navigation fluviale s’effectuera sur un canal particulier creusé parallèlement à la Niemve Waterweg : une écluse large de 22 m autorisera ici le passage des convois de chalands-poussés.
- 1 000 ha sont réservés à des établissements industriels, chimiques, mécaniques (un chantier de réparation pour très gros navires) et sidérurgiques. Sont notamment prévus un haut fourneau, une cokerie, une aciérie; le minerai de fer viendra du Canada. Construits avec la participation de Krupp, ces établissements produiront d’abord o,3 Mt d’acier; mais la production pourra ultérieurement être portée à 2ou3Mt; les investissements dépassent 35o 000 000 NF. Quant aux installations de stockage d’hydrocarbures, elles alimenteront les raffineries de Botlek -Pernis et celles de la Ruhr et de Cologne : l’oléoduc souterrain de 3oo km est prévu pour transporter 7,5 Mt par an, capacité susceptible d’accroissement ultérieur.
- Enfin une deuxième phase du plan « Europorte » est d’ores et déjà à l’étude : un ensemble de bassins, protégés par des jetées s’avançant en mer, accueillerait les supertankers et les navires géants de demain, jaugeant 100 000 t et tirant i5 et 16 m (fig. 8).
- Anvers et le plan décennal. — Malgré son essor, la cité de l’Escaut n’a pas progressé aussi rapidement que sa rivale du Nord. Les installations semblent même tout juste capables de
- Fig. 8. — Le plan de V « Europorte
- p.115 - vue 118/558
-
-
-
- 116
- faire face au volume actuel du trafic ; par rapport à ses voisins rééquipés depuis la guerre, l’outillage du port est en partie périmé.
- Depuis 1945, d’importants travaux ont pourtant été effectués, davantage, il est vrai, dans le secteur privé que dans le secteur public : édification de raffineries de pétrole (Esso, S. I. B. P.), reconstruction et extension des usines Ford et General Motors, creusement de cales sèches, etc.; les principales réalisations du secteur public concernent l’écluse Baudouin (1955) et la modernisation d’une partie de l’outillage.
- Station Anvers-Nord
- %KÊREN
- D’EXTENSION
- w p okm.
- Usine' Gare de For< Voyageurs l
- Raffineries,
- ESSO
- frigo Sues
- iassm pour Allèges*;
- Ie Darse Usine G.
- Port actuel Travaux d’extension Voies ferrées
- Station
- Anvers-I
- Installation: ' Pétrolières Atlas ’ÿ. Albatros.**-;
- Fig. 9. — Le port d’Anvers et la zone d’extension.
- Devant l’accroissement du trafic, et l’essor spectaculaire de rivaux comme Rotterdam, il devenait cependant urgent d’envisager de nouveaux plans d’extension. Après des études approfondies et des négociations entre ville et gouvernement, un projet de loi détaillé fut finalement déposé, et voté en juin 1956 par le Parlement belge.
- Un total d’investissements de 4 200 millions FB (soit 4ao millions NF), fournis pour les 5/6 par l’État, doit s’échelonner sur dix ans (1956-1965). Il s’agit de mettre à la disposition des armateurs de nouveaux points d’accostage. Une 5? darse est déjà ouverte au trafic, offrant plus de 3 000 m de quais; un bassin industriel la prolonge à l’ouest (fig. 9).
- Une 6e darse est commencée en i960; son achèvement est attendu pour 1963. Dès 1961 débutera le creusement du bassin-canal en direction de la frontière hollandaise : large de 300 m., divisé en deux sections, il doit être terminé en 1 q65 et constituer l’amorce du futur canal de Moerdijk. Une écluse géante reliera ce bassin-canal directement à l’Escaut. Des implantations d’industries sont envisagées dans tput ce secteur qui, depuis 1958, a été annexé au territoire municipal anversois.
- Indépendants du plan décennal, d’autres travaux doivent être réalisés, en vue de permettre la remontée à Anvers des navires de plus en plus lourds. La course au tonnage impose au port de recevoir demain les bateaux de 5o 000 t (limite actuelle : 4oooo), et davantage : les pétroliers et minéraliers, atteints par ce gigantisme, constituent précisément un élément important du trafic d’Anvers.
- L’ingénieur Bonnet a déposé un rapport détaillé qui tend à opérer des travaux d’approfondissement dans le chenal de l’Escaut. Des aménagements ultérieurs (endiguement du schorre de Saeftinge) permettraient l’accès des navires de 100000 t à marée haute.
- Ce plan sera-t-il suffisant pour accueillir les 67 Mt prévus par l’O. E. C. E. en 1965 ? Où en seront alors les autres ports européens ? Certains milieux belges ne cachent pas leur inquiétude.
- Rivalité OU association ? — Entre ces « frères ennemis » que sont le premier et le second ports du continent, se pose donc finalement la question difficile de leurs rapports mutuels.
- Pourtant, ces rivalités lointaines ne semblent-elles pas aujourd’hui dépassées ? « Le temps n’est plus où nos villes s’opposaient en conflits permanents, à propos de tout et de rien, à chaque changement de saison. Il faut calmer un patriotisme de clocher qui se manifeste trop facilement. Nous nous trouvons dans un milieu plus vaste... Des tensions internes subsisteront toujours, mais c’est là un stimulant nécessaire. Pourquoi Rotterdam et Anvers ne pourraient-ils être grands tous les deux? Pourquoi, distants de 100 km à peine, ne formeraient-ils pas une seule zone portuaire, sur un plan élargi, tel que nous devons le voir ? w (O. Leemans, directeur du port d’Anvers).
- La zone des estuaires Rhin-Meuse-Escaut apparaît en effet comme un ensemble géographique unique : Rotterdam, Anvers, Amsterdam, Gand constituent un complexe portuaire dont la richesse repose sur des bases communes : leur trafic (i38 Mt de marchandises en 1967), 1/7 du mouvement maritime mondial, les place nettement en tête de tous les organismes similaires mondiaux : tous les ports français réunis ne totalisent que 81 Mt, les ports allemands 61 Mt. A l’heure où le Marché Commun efface les frontières et égalise les charges, Anvers et Rotterdam peuvent s’associer au lieu de rivaliser sans profit.
- Les deux ports peuvent se spécialiser : déjà Anvers est plutôt tourné vers l’hinterland belgo-luxembourgeois et français, Rotterdam vers l’hinterland germanique. Le port néerlandais est avant tout importateur, et accorde une part importante au pétrole; Anvers exporte autant qu’il importe. Enfin Rotterdam se spécialise dans le transbordement des produits lourds en vrac (grains, combustibles, minerais) (fig. 2), tandis que la manutention des marchandises emballées et de certains produits particuliers (engrais chimiques, fers et aciers) est davantage le lot du port belge. C’est ainsi que la C. E. C. A. importe charbon et minerais via Rotterdam, mais exporte les produits sidérurgiques via Anvers (fig. 1).
- #
- * *
- Tous les ports se rééquipent et « voient grand » : Wilhelms-haven, Hambourg, Bremerhaven, Dunkerque, Le Havre étendent leurs installations, créent de nouvelles industries... Une coopération fructueuse et rationnelle peut et doit s’établir entre tous : les irritations d’autrefois appartiennent à un stade révolu. L’association des ports du Benelux, pour le bien commun de l’Europe, acquerrait une valeur de symbole.
- - - ; ; / Paul Wagket,
- Agrégé de l’Université.
- p.116 - vue 119/558
-
-
-
- 117
- Quelques aspects scientifiques et techniques
- de la bombe
- A française
- Fig. 1. — Une Vue des installations de Reggane aménagées en vue de l’explosion (Photo du Service cinématographique des Armées).
- Pour faire exploser le io février à 7 heures 4 à Reggane (Sahara) la première bombe atomique française, les spécialistes du Commissariat à l’Énergie atomique et du Ministère des Armées ont dû fournir un important effort. Le secret qui entoure tout ce qui, de près ou de loin, touche aux applications militaires de l’énergie nucléaire leur a fait obligation de ne compter que sur eux-mêmes pour entreprendre et mener à bien des études longues et délicates. De plus la fabrication de l’explosif nucléaire, en l’occurrence le plutonium, a nécessité la réalisation d’un grand ensemble industriel : le centre de Marcoule.
- ' Les études préalables à la fabrication d’une bombe atomique présentent dette particularité qu’elles ne peuvent être vérifiées par l’expérience ou plus exactement qu’aucune expérience ne permet de se faire une idée tout à fait précise des phénomènes avant celle qui consiste à provoquer la formation d’une masse « surcritique », c’est-à-dire avant de susciter une réaction en chaîne explosive. Tout le problème doit donc être traité par le calcul, à l’aide des machines les plus puissantes. Bien entendu la façon dont ce calcul a été conduit est tenue secrète mais on devine aisément que l’une des questions qui ont le plus retenu
- l’attention des mathématiciens est celle de la détermination de cette masse surcritique pour l’explosif considéré. On pouvait être tenté, pour être sûr que le nombre de neutrons formés par la réaction en chaîne fût supérieur au nombre de neutrons perdus, de choisir pour cette masse une valeur franchement élevée, mais ç’eût été se résigner à ne pas tirer le meilleur parti possible de la quantité de plutonium disponible et d’autre part ç’eût été courir le risque que des phénomènes parasites vinssent compromettre le bon fonctionnement du dispositif. Une autre considération devait encore entrer en ligne de compte : une bombe ne donne satisfaction à ses constructeurs que dans la mesure où elle donne naissance à un dégagement d’énergie maximal. Pour cela il faut que la réaction en chaîne puisse se prolonger le plus longtemps possible avant que le dégagement d’énergie n’occasionne la volatilisation de l’explosif qui n’a pas encore été fissionné. C’est, on le sait, le pourcentage d’explosif effectivement fissionné qui constitue le « rendement » de la bombe. On peut songer à augmenter le rendement en entourant la bombe d’une enveloppe particulièrement résistante qui puisse retarder d’un temps extrêmement court
- p.117 - vue 120/558
-
-
-
- 118
- mais non négligeable le moment où la bombe éclatera. On doit aussi chercher à donner à la masse surcritique une géométrie telle que la réaction en chaîne qui s’y déclenche ait les plus grandes chances d’intéresser rapidement une fraction importante de la matière fissile.
- Mais il ne suffit pas de déterminer l’importance de la masse surcritique, sa géométrie et la vitesse avec laquelle la réaction en chaîne s’y propagera. Il faut également calculer dans quelle mesure les facteurs extéi’ieurs à cette masse de matière fissile (qualité de la matière; caractéristiques de 1’ « amorçage » de la réaction par l’injection d’un flot de neutrons produits artificiellement; nature du réflecteur chargé de diminuer les « fuites » de particùles) interviendront sur le volume d’énergie qui
- Fig. 2. — Générateur de choc pour installation de radiographie éclair.
- (Photo du Service cinématographique des Armées).
- sera dégagé. C’est en perfectionnant ces dispositifs annexes que l’on arrive à accroître le rendement de l’engin.
- Demander aux mathématiciens de mener à bien de tels calculs suppose que l’on peut leur fournir les données chiffrées indispensables. Avait-on une connaissance suffisante des neutrons rapides ? Les techniciens du Commissariat à l’Énergie atomique avaient de longue date entrepris des études poussées sur la « criticalité », mais ces études portaient essentiellement sur des systèmes où intervenaient seulement des neutrons lents. Aussi lorsqu’on a commencé à se demander dans quelle mesure il serait possible de procéder à la fabrication d’une bombe, a-t-il fallu commencer un examen détaillé des systèmes sans ralen tisseur.
- Une polémique qui ne semble pas prêt de s’éteindre, faute d’élément décisif, oppose ceux qui pensent que ces études étaient dénuées d’intérêt scientifique et ceux qui, tout au contraire, estiment qu’elles en avaient un. Les partisans des deux thèses ne manquent pas d’arguments. Les premiers affirment que des recherches sur les neutrons rapides auraient de toute façon été entreprises pour faire progresser nos connaissances en matière de pile couveuse. Les autres, mais sans trop
- insister, laissent entendre que la masse des connaissances accumulées est loin d’être négligeable, ne serait-ce que parce qu’on a toujours intérêt à manier des appareils de physique et à faire des mesures, Mais quelle que soit leur opinion sur cette question, les physiciens tombent tous d’accord pour admettre que la fabrication de la bombe a été l’occasion de substantiels progrès techniques.
- La fabrication de Vengin. — Ce n’est pas tout d’être parvenu à une connaissance théorique satisfaisante du mécanisme d’une bombe. Il faut encore la réaliser... A ce stade se rattachent des entreprises de nature tout à fait différente. Il faut d’abord former la masse surcritique. Deux procédés peuvent être employés : on peut provoquer la réunion brutale de deux ou de plusieurs masses sous-critiques ; on peut aussi donner à un corps doté d’une géométrie sous-critique une géométrie surcritique. Mais chercher à rassembler rapidement deux ou plusieurs masses sous-critiques ou imaginer un dispositif qui permette une « implosion » revient à entreprendre des études sur la nature des explosifs à utiliser, et sur la façon de les disposer.
- Fort heureusement, la nature même des problèmes à résoudre permettait ici non seulement de recourir au calcul mais aussi d’utiliser largement l’expérimentation : on pouvait construire des maquettes, expérimenter les dispositifs imaginés, formuler des conclusions... Encore fallait-il pouvoir observer avec minutie des phénomènes qui se déroulent à des vitesses extrêmement élevées. De nombreux appareils (caméras à très grande vitesse de prise de vue, dispositifs de radio-éclair) (fig. 2) ont dû pour cela être mis au point.
- Second problème : arriver à une parfaite maîtrise de l’explosif. Le plutonium est un corps fantasque dont la métallurgie présente des difficultés considérables, et d’autre part il présente cette fâcheuse particularité d’être d’une extrême toxicité : il suffit d’un millionième de gramme pour attenter gravement au bon fonctionnement de l’organisme humain. Les humoristes ne pouvaient manquer de se livrer à une comparaison entre 6es deux propriétés : la fission d’une livre anglaise d’explosif nucléaire provoque un dégagement d’énergie équivalant à celui que suscite l’explosion de 9 000 t de trinitrotoluène, mais il n’est pas certain, ont-ils dit, que le meilleur parti destructif que l’on puisse retirer du plutonium consiste à en faire une bombe...
- Ces études préliminaires doivent en fin de compte se solder par la fabrication des masses sous-critiques. Mais l’expérimentation ne pouvait porter que sur de très faibles quantités de métal : or, passer de la manipulation de quelques grammes, voire de quelques milligrammes de matière fissile à la confection de masses de plusieurs kilogrammes pose des problèmes délicats.
- Les physiciens français avaient de bonnes raisons de ne manipuler le plutonium qu’en petites quantités : non seulement il fallait à toute force éviter qu’à un moment ou un autre, des conditions de criticalité soient réunies, mais surtout la production française de plutonium n’a démarré que tout récemment, et longtemps les masses de plutonium disponibles ont été très faibles.
- C’était le troisième problème à résoudre : produire du plutonium en quantité suffisante pour entreprendre la fabrication en petite série d’un armement nucléaire. On sait qu’il a été résolu grâce à la construction à Marcoule d’un centre industriel comprenant trois réacteurs de puissance à l’uranium naturel modérés au graphite et une usine destinée à l’extraction du plutonium à partir de l’uranium irradié. Si ce centre n’avait pas vu le jour, la fabrication de la bombe eût été impossible. Aussi faut-il voir dans le premier plan quinquennal adopté en ig52 l’amorce et la base du programme militaire dont certains éléments viennent seulement d’être portés à la connaissance du public.
- p.118 - vue 121/558
-
-
-
- 119
- Fig. 3. — Un des
- nombreux appareillages d’expérimentation qui ont servi à la construction de la bombe : microsonde électronique pour analyse d’alliages ; installation en boite à gants.
- <Photo du Service ciné-matographique des Armées).
- L’explosion. — La fission de chaque noyau de plutonium sous l’action d’un bombardement neutronique provoque la formation d’une certaine quantité d’énergie qui se dégage sous la forme de rayons gamma et de radiations thermiques. Naturellement tous les neutrons émis lors de la réaction en chaîne ne percutent pas des noyaux de plutonium : ils vont heurter les noyaux des matériaux qui composent la bombe et ceux des gaz environnants. Dans le premier cas, ils provoquent la formation de substances radioactives dont la période est plus ou moins grande. Dans les deux cas et dans certaines conditions de choc, ils pourront seulement susciter l’excitation des atomes percutés et l’émission, lors du retour de ces derniers à un état stable, de rayons gamma « secondaires ». Ces derniers seront d’ailleurs pratiquement les seuls à quitter l’environnement immédiat de la bombe, puisque ceux qui sont issus directement de la fission des noyaux de plutonium sont en règle générale absorbés par les constituants de la bombe dans l’instant qui précède leur volatilisation.
- Effet thermique. — Sous l’effet du considérable dégagement d’énergie, tous les matériaux de la bombe sont volatilisés et l’air environnant est porté à l’incandescence. La température atteinte est alors de quelques millions de degrés. Ainsi se forme une boule de feu dont le diamètre va progressivement croître au fur et à mesure que l’air qui la touche sera lui-même porté à très haute température. Naturellement cette boule de feu émet des radiations thermiques qui provoquent une élévation brutale de la température autour du lieu de l’explosion. Dans le cas d’une bombe d’une puissance de 2o> kt explosant à quelques centaines de mètres d’altitude, la température au sol est instantanément portée à quelque 5 ooo° C. On estime que ces radiations thermiques représentent 35 pour ioo de l’énergie développée par l’explosion de la bombe.
- Effet de souffle. — L’accroissement de la température provoque une augmentation rapide de la pression : aussitôt se forme une onde de choc qui initialement coïncide avec les contours de la boule de feu. Mais la propagation de la sur-
- pression est plus rapide que celle de la boule de feu. Cela tient à ce que le libre parcours moyen des photons (qui se déplacent à la vitesse de la lumière) est extrêmement court : après un trajet très limité, un photon rencontre un noyau d’atome qui l’absorbe en devenant « excité »; au bout d’un certain laps de temps seulement, le noyau restitue cette énergie sous la forme d’un autre photon qui lui-même ne parcourra qu’une très faible distance avant d’être absorbé et de provoquer une nouvelle émission.
- Au bout de quelques millièmes de seconde, l’onde de choc se détache donc de la boule de feu. C’est peu de temps après que cette dernière apparaît le plus brillante : la surpression diminuant, la température engendrée par le passage de l’onde de choc diminue aussi et bientôt la couronne d’air qui entoure la boule de feu et qui initialement était également portée à l’incandescence sera, toutes proportions gardées, suffisamment « froide » pour laisser sortir de la boule de feu des radiations qui jusqu’alors en étaient prisonnières. La température apparente de la surface est, lors de ce maximum, de l’ordre de 8 ooo°.
- Si la bombe a explosé au-dessus du sol, l’onde émise ne tardera pas à s’y réfléchir. L’onde directe et l’onde réfléchie, en interférant, provoqueront alors la formation d’un « front de Mach » qui se déplacera parallèlement au sol, suivi d’un vent qui exercera une « pression dynamique ». Toute construction située aux alentours du lieu de l’explosion sera donc soumise successivement à la surpression de.l’onde de choc puis à la dépression qui la suit immédiatement, et enfin à la pression dynamique due au vent. 5o pour ioo de l’énergie développée par l’explosion est ainsi diffusée.
- Radiations. — Les radiations émises lors de l’explosion proprement dite sont, on l’a vu, de deux sortes : des neutrons, et des rayons gamma foi'més par l’interaction des neutrons et de la matière qui avoisine la bombe.
- Les rayonnements (5 pour ioo de l’énergie totale de la' bombe) se propageront naturellement d’autant mieux que l’air leur sera plus transparent et, si la visibilité est satisfaisante, ils provoqueront des irradiations élevées : à i 5oo m du lieu
- p.119 - vue 122/558
-
-
-
- 120
- Fig. 4. — Le « champignon » de l’explosion de Réggane.
- (Photos du Service cinématographique des Armées).
- de l’explosion d’une bombe de ioo kt, la dose absorbée est de près de 4oo rœntgens pour les rayons gamma et de 200 rems pour les neutrons. Ces chiffres, à vrai dire, tiennent compte de la radioactivité émise aussitôt après l’explosion par les noyaux qui résultent de la fission des matériaux de la bombe. Nombre de ceux-ci ont en effet une période courte et « lâchent » dans les quelques secondes qui suivent leur formation un pourcen-' tage élevé d’énergie dont ils sont dépositaires. Aussi groupe-t-on, habituellement, pour évaluer les irradiations enregistrées lors de l’explosion d’une bombe, les neutrons et les rayons gamma issus directement de la réaction en chaîne et les radiations (surtout, ici, des rayons gamma) issus des corps radioactifs de très courte période qui sont alors présents.
- Radioactivité résiduelle et induite. — La boule de feu atteint en quelques millisecondes son diamètre maximal qui évidemment est fonction de la quantité d’énergie dégagée. Dans ie meme temps elle commence à s’élever rapidement, puisque les gaz dont elle est faite sont portés à très haute température. Ce faisant, elle provoque un appel d’air et un refroidissement local. Au cas où la boule de feu a touché le sol avant de commencer à s’élever, un cratère s’est formé, dont le pourtour est vitrifié, et des poussières, rendues radioactives par l’action des neutrons et des rayons gamma, sont aspirées. Mais de toute façon le refroidissement consécutif au mouvement ascendant de la boule de feu provoque la formation d’une colonne de vapeur; bientôt un nuage en turbulence viendra entourer la boule de feu et la masquera dans le même temps qu’elle s’éteindra d’elle-même.
- Le nuage en forme de champignon, qui s’élève ainsi jusqu’à 10 000 m pour une bombe de puissance moyenne, contient donc :
- — Les produits issus de la fission des matériaux de la bombe dont la période est supérieure à 1 mn ; ce sont eux qui détiennent la « radioactivité résiduelle » (10 pour 100 de l’énergie totale de la bombe) ;
- — Éventuellement, les poussières aspirées du sol, porteuses d’une radioactivité « induite »;
- — De la vapeur d’eau qui a été soumise à un fort bombardement de neutrons et de rayons gamma.
- Les poussières aspirées, plus lourdes, auront tendance à retomber rapidement souvent à proximité immédiate du lieu de l’explosion. Elles constituent les « retombées locales », dangereuses par le haut niveau de radioactivité de la matière qui les compose. Les autres résidus seront entraînés avec le « nuage atomique » par les vents. Un certain pourcentage, qui est directement fonction de la hauteur du nuage et des conditions météorologiques, en retombera dans les heures qui suivront l’explosion, mais tant du fait de l’éparpillement que de la décroissance de la radioactivité, ces retombées seront progressivement de moins en moins dangereuses. Les produits restants se trouvent dans un état tellement divisé qu’ils ne peuvent retomber eux-mêmes par gravité : ils ne feront retour sur terre que dans la mesure où ils pourront être entraînés par des précipitations atmosphériques. C’est ce phénomène qui est généralement connu sous le nom de te retombées radioactives ». Les corps les plus dangereux pour l’homme que l’on y décèle sont le strontium 90 et le césium 187 : leurs périodes sont respectivement de 19,9 ans et de 33 ans; ils sont donc encore présents dans les retombées qui se font au bout de quelques années; on sait qu’ils peuvent facilement pénétrer dans la chaîne alimentaire et parvenir par cette voie dans l’organisme humain où ils sont assimilés.
- Fig. 5. — Mesure de la contamination radioactive d’un véhicule.
- Si l’activité mesurée dépasse un certain seuil, le matériel sera décontaminé
- p.120 - vue 123/558
-
-
-
- 121
- Fig. 6. — Vue aérienne du « point zéro » après Vexplosion (Photo du Service cinématographique des Armées).
- Ces substances ne sont pas les seules à agir à long terme ; des neutrons émis lors de l’explosion et propulsés dans l’air environnant ont percuté des noyaux d’atomes d’azote et provoqué la formation, par transmutation, de carbone i4 qui, se combinant à l’oxygène, peut pénétrer dans l’organisme humain par la voie respiratoire, Il s’agit là d’un corps dont la période est très longue (5 900 ans) et qui est susceptible d’occasionner des dommages génétiques. On sait qu’il se forme naturellement en très petite quantité dans l’atmosphère et qu’on l’emploie pour la datation des produits anciens d’origine organique.
- L'expérimentation. — Quelque intérêt que l’on porte du point de vue scientifique à une explosion atomique, il convient de chercher à en retirer le maximum d’enseignements.
- Ces enseignements peuvent d’abord être techniques. Le pylône de quelque 100 m de haut où était installée la bombe française à Hamoudia, à proximité de Reggane, en plein Sahara, avait été transformé en laboratoire : des appareils divers y avaient été disposés, qui devaient permettre de se faire une idée du comportement de l’engin dans la fraction de seconde qui sépare la mise à feu de l’explosion de la bombe. A ce « diagnostic », les techniciens ont voulu ajouter des prises de vue portant sur la formation de la boule de feu et des « ultra-caméras » (un million d’images à la seconde) ont été montées à proximité. Mais les renseignements que l’on peut retirer d’une telle observation sont déjà plus « scientifiques » qu’à proprement parler « techniques ».
- Il en est de même pour l’étude de l’onde radioélectrique émise • lors de l’explosion, et qui, contrairement aux autres effets, a été peu étudiée aux États-Unis, du moins d’après ce que l’on peut en savoir au vu des documents publiés. Mais c’est là aussi une question qui chevauche les deux domaines puisque la détection de l’onde radioélectrique constitue un des moyens
- utilisés pour le repérage à distance des expériences clandestines. En outre, tout un dispositif d’ultra-sismographes .avait été installé tant à proximité du « point zéro » qu’en des lieux très éloignés, afin d’étudier la propagation des ondes sismiques et les structures géologiques.
- Les plus nombreuses expériences réalisées à Reggane étaient de caractère militaire; des matériels variés avaient été exposés à des distances diverses du « point zéro » : superstructures de navires de guerre montées sur des blocs de béton oscillant (pour tenir compte de la possibilité qu’ont les bateaux soumis à un « souffle » de s’incliner), avions protégés par des parpaings, chars d’assaut, constructions, abris antiatomiques, casques de combattant, etc.
- Dernière série d’expériences : celles effectuées par les services de santé et destinées tant à essayer des appareils de mesure (dosimètres) qu’à juger de l’effet des fortes doses de radiations sur des cobayes ou sur des stocks de vivres et d’eau.
- On ne sait rien, pour le moment, des résultats des observations qui ont été effectuées : les matériels exposés au souffle et aux radiations thermiques devaient être filmés et les appareils les plus sensibles situés dans les alentours du pylône devaient être relevés dans les minutes qui suivaient l’explosion par des équipes spécialement protégées, tandis que des mesures de la radioactivité devaient être effectuées à l’intérieur du nuage atomique par un avion sans pilote, au voisinage du nuage et au ras du sol à l’aide d’hélicoptères. Mais il est prévu que ceux de ces résultats qui n’intéressent pas directement la défense nationale seront rendus publics. On pourra alors savoir dans quelle mesure ils confirment les indications qui ont déjà été fournies par les autorités américaines et si, de ce point de vue, il était utile ou non de procéder à une expérience du genre de celle qui vient de se dérouler. »
- Nicolas Vichney.
- p.121 - vue 124/558
-
-
-
- 122
- L’avenir des moteurs d’avion
- Depuis la guerre, les constructeurs de moteurs britanniques ont toujours été à la pointe du progrès. Aussi est-il intéressant de connaître le point de vue d’un des principaux représentants de cette industrie, le docteur Hooker, directeur technique de la Bristol Siddeley Engines sur le développement du moteur d’avion au cours des années à venir. Cette opinion a été présentée en décembre dernier au cours d’une conférence devant l’Institution of Mechanical Engineers.
- Au cours des vingt dernières années, la poussée des moteurs à réaction a été multipliée par 20, mais on ne peut pas s’attendre à ce que cette évolution se maintienne, car des moteurs de 10 t de poussée sont largement suffisants pour presque toutes les applications. Pour certains usages militaires, la post-combustion permet de tirer d’un moteur du type de l’Olympus une poussée de i5 t qui, à la vitesse de Mach 2,2, correspond à la puissance fantastique de 100 000 ch. Il semble donc que les premières améliorations doivent porter sur la consommation spécifique. Les premiers turboréacteurs à compresseur centrifuge étaient limités par un rapport de compression de 4, d’01'1 il ressortait une consommation spécifique supérieure à x kg/kg poussée/heure. Les premiers moteurs à compresseur axial ayant un meilleur rendement permirent de descendre à 0,8 kg/kg poussée/heure ; enfin, le compresseur à deux étages, tel qu’il existe sur l’Olympus déjà cité, permettant d’atteindre un rapport de compression de i5, fit tomber la consommation au-dessous de 0,7 kg/kg poussée/heure.
- Depuis peu de temps, le moteur à double flux a fait son apparition. Rappelons que son principe consiste à prélever à un étage de compression intermédiaire un certain flux d’air qui circule autour du moteur et vient se mélanger dans la tuyère aux gaz de combustion ; la vitesse et la température du jet de sortie sont ainsi réduites, ce qui améliore le rendement de propulsion. En augmentant le rapport du flux d’air prélevé au flux total admis dans le moteur et en augmentant parallèlement le rapport de compression, on peut espérer faire descendre la consommation spécifique aux alentours de o,5 kg/kg poussée/heure. L’utilisation de la post-combustion sur de tels moteurs permettrait de les utiliser à la fois aux vitesses subsoniques et supersoniques.
- Applications au décollage vertical. — Pour de telles applications, fait remarquer le docteur Hooker, l’un des facteurs les plus importants est le rapport poussée/poids du moteur. Ce rapport est passé de 2 à 8 au cours des vingt dernières années et l’on peut s’attendre à le voir atteindre bientôt des valeurs de l’ordre de 12 à i4, avec des moteurs à ventilateur caréné à faible taux de compression.
- Les appareils monoplaces comporteront un seul moteur, fournissant à la fois la portance pendant les phases de décollage et d’atterrissage et la poussée en vol de croisière; le jet du réacteur pourra être dévié verticalement ou incliné suivant n’importe quel angle avec l’horizontale. Le flux secondaire pourra être éjecté à travers des tuyères directionnelles pour Je pilotage de l’appareil. La combinaison de la portance et de la poussée en un seul moteur doit réduire singulièrement les problèmes de logistique et de maintenance.
- Pour des avions de transport multimoteurs, le premier problème est d’obtenir le plus simplement possible ufte poussée égale au poids de l’avion. Chaque moteur devra donner sa poussée totale pour la portance, et en vol de croisière, où l’on peut se contenter d’une poussée moindre, un certain nombre de moteurs seront coupés. Ces derniers devront être spécialement étudiés pour leur rôle de portance, c’est-à-dire avoir un rapport poussée/poids élevé quelle que soit leur consommation spécifique puisqu’ils ne fonctionneront que peu de temps.
- .Poussant plus loin, le docteur Hooker examine la possibilité d’avions sans aile aucune et dont la portance serait assurée
- pendant tout le vol- par des réacteurs à éjection dirigée vers le bas. Il montre qu’en se limitant à une vitesse maximum de 45o km/h, soit près du double de celle des meilleurs hélicoptères, on pourrait, avec un moteur de 7 t de poussée, disposer de 4,5 t pour le combustible et la charge payante, soit plus qu’il n’en faut pour un appareil d’observation ou de liaison sur courtes distances. Rappelons que ce principe est également adopté par le célèbre aérodynamicien allemand Lippisch pour ses projets d’avions de transport utilisant également une circulation d’air induite autour du fuselage; nous aurons l’occasion d’y revenir prochainement.
- Des avions militaires Y.Ï.O.L. à grande vitesse peuvent aussi être conçus, en leur donnant cependant une voilure de très faible surface pour aider à la sustentation à la vitesse maximale. Les jets des réacteurs seraient déviés vers le bas d’un angle convenable pour compenser la différence entre le poids et la portance aérodynamique. Le gain de poids résultant de l’allégement de la structure de l’aile et de la simplification du train d’atterrissage, associé à la très faible, valeur de la traînée, pourrait se traduire par un gain de 60 pour 100 sur le rayon d’action par rapport à un avion de même poids total.
- Moteurs pour avions de transport. — Dans ce domaine, la tendance vers les moteurs à double flux devrait s’affirmer. Ceux-ci sont en effet plus avantageux que les turboréacteurs classiques à un triple point de vue, niveau de bruit moins élevé, consommation spécifique plus faible, rapport poussée/poids plus élevé. Le gain sur la consommation spécifique est surtout important en ce sens qu’il permettra, à poids total constant, d’emporter un supplément de passagers. De tels appareils devraient en particulier remplacer dans la prochaine décennie les avions de transport à moyen rayon d’action qui, pour la plupart, sont encore propulsés par des turbopropulseurs ou même des moteurs à pistons. Plusieurs turbo-réacteurs à double flux à usage commercial sont déjà en cours de mise au point : le General Electric C.J. 8o5-23, le Pratt et Whitney J.T. 3 D et les Rolls-Royce R.B. i63 et CoUway.
- Moteurs pour Je vol à grande vitesse. — Lorsque le nombre de Mach dépasse 2, la compression aérodynamique prend une grande importance; le docteur Hooker indique qu’à Mach 3 on peut atteindre un rapport de compression de 20. Le compresseur n’est donc plus nécessaire, et l’on est automatiquement conduit à utiliser un statoréacteur. Toutefois, comme il faut un propulseur auxiliaire pour accélérer l’avion aux basses vitesses, le combiné turbo-statoréacteur semble présenter les plus grands avantages tant au point de vue poids qu’à celui de la consommation spécifique. Rappelons que Nord-Aviation a choisi ce propulseur pour l’intercepteur « Griffon ».
- La combinaison de ces deux propulseurs présenterait aussi un grand intérêt pour un avion de transport supersonique. Le gain sur le poids des groupes moteurs permettrait à lui seul de doubler pratiquement la charge utile. Le docteur Hooker donne les chiffres suivants : pour un avion de 160 t de poids total, on pourrait disposer d’une charge payante de i3,5 t avec une vitesse de croisière de 3 200 km/h et un rayon d’action de 6 5oo km.
- En vol hypersonique, c’est-à-dire au delà de Mach 5, le vol est réduit à un étroit domaine, limité d’une part par l’insuffisance de la portance aux grandes altitudes et d’autre part par l’élévation de la température de paroi aux basses altitudes et aux très grandes vitesses. Nous avons décrit dans un article récent (Les Ailes, 3 janvier i960) les caractéristiques des stato-réacteurs hypersoniques. Le rendement thermique d’un tel moteur dépassera 4o pour 100, et les calculs montrent qu’il doit atteindre un maximum de 65 pour 100 à Mach 7.
- J. Spincourt.
- p.122 - vue 125/558
-
-
-
- Les nouveaux ensembles de traitement numérique de l’information et leurs récentes performances
- La Compagnie des Machines Bull a annoncé la sortie d’un nouvel ensemble de calcul électronique : la « Série 3oo ». Cette dénomination, provisoire d’ailleurs, rappelle les performances des dispositifs d’entrée et de sortie de cette machine; les lecteurs et les perforateurs manipulent 3oo cartes à la minute, les imprimantes impriment 3oo lignes à la minute. L’ensemble, bien adapté aux problèmes posés par la gestion des entreprises, se compose d’éléments juxlaposables à volonté dont chacun accomplit une fonction élémentaire distincte. Réunis en un « ensemble », ces éléments conservent leur indépendance fonctionnelle mais sont asservis par un synchronisme électrique à l’unité-pro-gramme qui les dirige. Cette structure « éclatée », autorisant une grande diversité de groupements et permettant ainsi une bonne adaptation aux besoins différents des utilisateurs, est recherchée par un grand nombre de constructeurs et caractérise les calculatrices « modernes » de moyenne et grande puissance.
- Quel que soit le côté spectaculaire des grands ensembles de traitement numérique de l’information, n’oublions pas cependant que de très nombreux problèmes peuvent être traités sur des machines bien plus simples. La production de chaque constructeur en fait foi : près de 5oo tabulatrices Bull sont ainsi construites dans le même temps que 8 ensembles de grande puissance « Gamma 60 »; quant aux prix, ils varient à peu près dans le même rapport et sont échelonnés entxe 120 000 NF et 10 000 000 NF.
- Parmi les performances récentes des ensembles numériques, signalons qu’un ordinateur IBM a été utilisé à Squaw Valley lors des derniers Jeux Olympiques d’Hiver pour effectuer le calcul des temps des coureurs puis imprimer les résultats. Le classement de chaque épreuve a été ainsi établi en 2 minutes au lieu des 5 heures exigées d’habitude.
- Indiquons enfin quelques problèmes intéressants traités récemment en France sur machines électroniques.
- L’établissement du diagnostic médical peut être ramené à la comparaison d’un tableau de signes observés et d’un tableau de signes classiquement décrits. S’appuyant sur ce fait, l’ophtal-
- mologue marseillais Paycha a utilisé des trieuses à cartes perforées sur lesquelles sont portés tous les symptômes pouvant affecter un organe. L’ensemble constitue ainsi une « mémoire » plus vaste et plus sûre que celle de n’importe quel spécialiste. Ainsi, lors d’un concours médical portant sur les maladies de la cornée, la machine a fourni en no secondes la liste des 70 maladies, soit le double de ce qu’avait réuni en 2k heures le meilleur candidat, et 5 de plus que le jury. Notons bien qu’il ne s’agit pas de supplanter le médecin mais de lui fournir simplement une aide mnémonique très précieuse.
- Ne quittons pas le domaine médical sans parler de la lutte contre le cancer. Nombre de travaux et de découvertes sur cette maladie s’appuient sur des enquêtes, des statistiques, bref des chiffres. L’Institut Gustave-Roussy, à Villejuif, possède un centre de calcul électronique où sont groupés plus de 180 000 dossiers de malades. Chacun de ces dossiers contient plus d’un millier d’informations (analyses du sang, examens histologiques, etc.). On peut penser que si 5o 000 cancéreux sont guéris en France chaque année sur les i4o 000 cas qui se présentent, ceci est dû en partie aux moyens électroniques de classement et de tri des observations fondamentales qui ont été réunies.
- Signalons enfin que l’étude et la construction des avions « Caravelle » ont pu être réalisées dans des délais anormalement courts grâce à l’utilisation intensive d’un calculateur numéi’ique et d’un calculateur analogique. Ces appareils ont été utilisés plusieurs centaines d’heures chaque mois, traitant des problèmes aussi divers que cexxx posés par la résistance des matériaux, les profils d’ailes, le givrage, les essais en vol, l’exploitation, etc. Pour donner une idée plus précise du travail gigantesque qui a été accompli, signalons qu’après programmation, 2 000 plans de vol ont été exécutés en 4 minutes environ alors qu’il aurait fallu plus de 7 ans à un ingénieur pour les étudier « à la main ». Les milliers d’heures de fonctionnement des calculatrices prennent ainsi tout leur relief et donnent une nouvelle preuve de la complexité des problèmes techniques actuels et de la nécessité des auxiliaires électroniques. P. C.
- La valeur culturelle de l'Histoire des Sciences justifierait son introduction dans l'enseignement secondaire
- Les 3o et 3i janvier, s’est tenu à Paris un colloque consacré à la valeur de l’histoire des sciences dans l’enseignement et l’éducation, organisé par l’Association Paul Langevin. Cette association nouvellement créée a pour présidents d’honneur MM. Louis de Broglie, Paul Montel, Henri Wallon; son but est de contribuer à la connaissance et au développement de l’œuvre scientifique, pédagogique, philosophique et sociale de Paul Langevin.
- Comme texte introductif au colloque, l’Association avait fait réimprimer une conférence faite par P. Langevin en 1926, où celui-ci indiquait ce le rôle que peut et doit jouer Je point de vue historique dans l’enseignement des sciences » et aussi dans les enseignements de la philosophie et de l’histoire qu’il « complète et éclaire ». Il s’élevait contre l’enseignement dogmatique <c froid, statique, qui aboutit à cette impression que la science est une chose morte et définitive ».
- Dans son discours d’ouverture, M. Louis de Broglie disait en terminant : « L’introduction de l’histoire des sciences dans
- l’enseignement au niveau des études du second degré serait, semble-t-il, souhaitable. Elle peut faire réfléchir les jeunes esprits sur les conditions dans lesquelles la science progresse, sur son passé et sur son avenir : elle apporterait un utile complément aux enseignements d’histoire, de psychologie et de philosophie des sciences. »
- En montrant l’importance de l’histoire des -sciences dans l’histoire de la civilisation, en analysant le fonctionnement de l’esprit humain dans le processus de la découverte scientifique, en esquissant le mécanisme du progrès scientifique et les lois de son évolution, M. Louis de Broglie a donné avec évidence la preuve de cette conclusion.
- Tout serait à citer dans ce passionnant exposé. Bornons-nous à ces quelques phrases extraites du passage relatif à L’histoire de la lumière : « En même temps qu’elle évolue en spirale, la pensée scientifique a, en effet, une tendance à réaliser des synthèses où viennent se fondre des conceptions qui, à l’origine, pouvaient paraître contradictoires... Après avoir successivement
- p.123 - vue 126/558
-
-
-
- 124
- penché vers une interprétation purement corpusculaire, puis vers une interprétation purement ondulatoire de la structure de la lumière, la Physique, dans sa phase contemporaire, a été ramenée vers l’idée corpusculaire... Il a bien fallu, en même temps qu’on ressuscitait les corpuscules de lumière, chercher une vue synthétique qui, d’une façon ou d’une autre, dans une théorie complète du rayonnement, concilierait leur existence avec la notion d’ondes lumineuses.. Il est certain qu’une vue synthétique est nécessaire pour concilier des images qui, au premier abord, pourraient paraître inconciliables... Il ne me paraît pas impossible qu’il en soit ainsi en Biologie, dans la théorie de l’Évolution où les conceptions d’évolution continue et de mutations brusques, qui ont tour à tour eu la faveur des spécialistes, viendront sans doute un jour se fondre dans une synthèse où elles auront toutes deux leur place. »
- Le professeur Henri Wallon avait envoyé au colloque un rapport qui préconise aussi un enseignement historique de la science qui l’arrache aux formules purement abstraites pour la réhumaniser. « Il y a, dit M. Wallon, deux façons d’enseigner les sciences; la première les envisage comme des systèmes, des enchaînements de vérités dont l’origine est soit expérimentale, soit rationnelle, mais se conditionnent entre elles ou se déduisent les unes des autres, tendent Arers des définitions simples destinées à en garantir la véracité, la validité, l’intelligibilité. La démonstration devient déductive. L’autre façon d’enseigner parle au contraire de la mutabilité des conceptions et des techniques scientifiques, de leur évolution, de leur histoire... Il est illégitime de séparer l’idéologie d’une époque, y compris celle de la science, de cette époque elle-même, de la civilisation correspondante. » Il est nécessaire de se demander, à propos d’une découverte : « Pourquoi est-ce tel savant qui a fait cette découverte, et comment ? »
- Une discussion présidée par René Lucas, président de l’Association, révéla le plein accord des nombreux spécialistes et enseignants en faveur de l’introduction de l’histoire des
- sciences dans l’enseignement secondaire et aussi, sous une forme anecdotique, dans l’enseignement primaire. Des professeurs d’histoire et de philosophie sont intervenus pour montrer combien leur enseignement gagnerait en intérêt et en profondeur si, en enseignant les sciences, on montrait non seulement l’évolution interne des idées, mais aussi l’influence des techniques et conditions historiques sur l’évolution de la pensée scientifique.
- Une discussion animée, présidée par le doyen Châtelet, a permis d’examiner les réalisations possibles. C’est ainsi que MM. Huisman, Labérenne et Châtelet ont apporté des suggestions et des exemples précis sur l’introduction dans l’enseignement des mathématiques, dès la 6e, non seulement d’anecdotes destinées à rendre l’enseignement plus attrayant, mais de notions qui montreraient la liaison du développement des mathématiques avec la réalité, avec la vie.
- Dans un rapport très riche d’expérience personnelle, MUe David,- professeur de physique et auteur d’un rapport au Congrès de l’Union des physiciens sur la Méthode historique de l’enseignement de la physique, a montré tout l’intérêt de cette méthode qui rend l’enseignement plus vivant et plus attrayant, en particulier pour les élèves des classes littéraires et pour les « philosophes ». Elle a défini avec netteté, en prenant des exemples concrets, comment on pouvait avec ffuit montrer la liaison des découvertes scientifiques avec les techniques et les conditions sociales de l’époque.
- M. Gai parla de l’humanité scientifique et Mme Seclet Riou de l’intérêt de l’histoire des sciences pour la formation des maîtres de l’enseignement primaire, en vue de montrer aux enfants que la science n’est pas figée mais en perpétuel développement.
- L’Association Paul Langevin, io, rue Yauquelin, Paris, 5e, se propose de publier les rapports et la plupart des interventions de ce colloque.
- R. D.
- L'immobilisation réflexe de deux animaux marins
- On sait que le réflexe d’immobilisation, appelé aussi catalepsie, hypnose ou akinèse, et autrefois simulation de la mort, a été l’objet de nombreux travaux sur certains animaux, particulièrement les insectes. Cet état semble avoir été bien plus rarement signalé chez des animaux marins et il est intéressant de rapporter les faits notés par Gordon Gunter et Délia McCaug-han du Gulf Coast Research Laboratory (Science, 3o octobre 1959) chez la crevette Sicyonia brevirostris et chez un poisson de la famille des Batrachoididés, Opsanus beta, dont la tête large et plate lui a fait donner le nom de toad. fish (poisson crapaud).
- Le Sicyonia brevirostris est une belle crevette de la famille des Pénéidés, à coloration blanche ou crème avec des taches roses sur les pattes et pourpres sür le dos; elle habite les rochers des côtes américaines, de la Virginie au Yucalan. Conservée en aquarium, cette crevette se montre extrêmement sensible à des excitations assez faibles. Il suffit de la poursuivre avec la main pour provoquer le réflexe d’immobilisation; elle devient rigide, les pattes appliquées contre le corps qui est arqué. Abandonné, l’animal tombe au fond de l’eau où il reste couché sur le côté pendant un temps qui varie de quelques secondes à une demi-minute. Il n’y a pas de changement de coloration pendant cette période d’immobilisation.
- L'Opsanus beta, qui habite les côtes du Golfe du Mexique, est voisin d’Opsanus tau, matériel classique en Amérique pour l’étude de l’embryologie, grâce à ses œufs de grande taille et faciles à obtenir. Ces poissons sont aussi étudiés pour les sons
- qu’ils produisent avec leur vessie gazeuse. Les auteurs ont reconnu que l'Opsanus beta tombe tout d’abord facilement en état d’immobilisation, simplement quand on le poursuit dans son aquarium ; mais il devient bientôt réfractaire et on est alors obligé d’employer des excitations plus brutales pour obtenir l’immobilisation. Rappelons que cette résistance acquise a été observée par Rabaud chez la plupart des insectes qu’il a étudiés. Plus d’une douzaine de poissons ont servi aux expériences et ont présenté les mêmes réactions; ils émettent d’abord un son que, d’un point de vue subjectif, les auteurs qualifient de triste; immédiatement après, les nageoires se raidissent, les opercules se distendent au maximum et les lamelles branchiales sont largement séparées. L’apparence est celle d’un poisson asphyxié ou mort hors de l’eau. Il perd ensuite ses couleurs et devient jaunâtre, ce qui semble indiquer une action hormonale esur les chromatophores. Cet état dure de quelques secondes à deux ou trois minutes; puis le poisson émet un son convulsif et se ranime; la couleur normale ne revient que lentement et pendant au moins une demi-heure il demeure décoloré.
- Les auteurs ont l’intention de poursuivre leurs observations; ils se proposent d’étudier en particulier le déterminisme du changement de coloration lié à l’immobilisation réflexe et les rapports qui peuvent exister entre le comportement de l’Opsa-nus beta et sa faculté bien connue de vivre dans des eaux faiblement oxygénées.
- L. C.
- p.124 - vue 127/558
-
-
-
- VActualité instrumentale
- Pompes de laboratoire (suite) (I) Pompes doseuses
- Le principe général de réalisation auquel font appel toutes les pompes doseuses est le déplacement entre l’amont et l’aval d’un volume de liquide par une cloison déformable, déplacement obtenu en jouant par ailleurs sur l’ouverture de soupapes d’admission et de refoulement (fig. 2).
- Fig. X. — Schéma de principe d’une pompe actionnée hydrauliquement.
- M, et Mj : membranes (Schéma Technochimie).
- Fig. 3. — Vue en coupe d’une pompe à piston (Dosapro 1106) montrant la constitution de l’ensemble doseur et l’excentrique de réglage de la course du piston.
- Deux catégories extrêmes existent : les pompes à piston (fig. 3) et les pompes à membrane. Pour les premières doit être .résolu le pi’oblème du joint d’étanchéité que doit traverser
- Fig. 2. — Coupe d’une pompe à membrane (Dosapro M 36 : tête
- à double clapets-billes).
- 1 et 11, refoulement et aspiration ; 2, güide-bille ; 3 et 4, corps de clapets ; 5, bille ; 6, tête de pompe ; 7, vis ; 8, axe de diaphragme ; 9, rai-disseur ; 10, diaphragme.
- le piston, pour les secondes celui de la nature et de la déformabilité de la membrane. Dans les pompes à membrane, la membrane est quelquefois actionnée mécaniquement et souvent hydrauliquement par l’intermédiaire d’un fluide inerte chassé par un piston (fig. 1) dans lequel l’inertie chimique de la garniture d’étanchéité ne se pose alors plus.
- 1. Voir : L’Actualité instrumentale ; Pompes de laboratoire, par R. Duvet, La Nature, janvier 1960, p. 40.
- Tableau I. — Pompes doseuses de laboratoire
- Constructeur Type Matériaux Débit maximal l/h Pression limite kg/cm® Réglage
- Bran et Lubbe . (P) Céramique et tous o,3 En marche
- D. K. M. .... R 20/8 (MH) Inox et plastiques 5 60 En marche
- Dosapro M 36 (M) Plexiglas et tous 4,5 5 En marche ou à l’arrêt
- Iena 00 Verre Duran 5o 66 20 En marche
- Leida Metrohm Paris-Labo .... HK (P) Burette à piston E 298 Seringue FU 5o Verre téflon Verre, métal ou téflon 3,8 Capacité 10 ou 20 ml 0,035 à 5o ml/coup 1 En marche
- Pelletier S. E. M Universal Vari-Pompe Ollo P et M tubulaire Téflon i5 3 En marche
- Sera Technochimie . 44o PF 35o T. N. Verre 16 3 En marche En marché
- P : à piston ; M : à membrane ; MH : à membrane commandée hydrauliquement.
- p.125 - vue 128/558
-
-
-
- ABSORPTIOMÈTRE
- (PHOTO-COLORIMÈTRE)
- « SPEKKER-HILGER »
- — Pour les dosages colorimétriques rapides et précis.
- — S'emploie également pour les mesures opacimé-
- triques et néphélométriques et, par l'adjonction d'un dispositif «auxiliaire, pour la fluorimétriè.
- Éts F. C, DANNATT
- 198, Rue Saint-Jacques, PARIS 5e
- CONTROLE ET MESURE QUANTITATIVE DU
- DANGER BIOLOGIQUE
- DES RADIATIONS IONISANTE_S "X" ET "Y PAR LES NOUVEAUX
- DOSIMETRES
- INDIVIDUELS 'PHY
- BREVETS FRANÇAIS
- (5.G D.G i
- Défense Nationale Huzat
- Physiotechme
- ET BREVETS ÉTRANGERS
- TOUTES POMPES
- en acier inoxydable, monel, nickel, etc... EN CONSTRUCTION SOUDÉE Tous travaux suivant plans
- Pompe centrifuge en acier inoxydable 18/8 M o (construction soudée)
- Pompe
- réversible
- axiale
- Type P. R. L.
- (Brevets,
- France,
- Belgique
- etc...)
- LIBBRECHT
- S. A. R. L. CAPITAL 500.000 N F
- 39, RUE DE l'ÉPEULE, ROUBAIX-FRANCE
- TEL. 73.31.00 et 73.31.01
- AZOTE 15
- ISOTOPE STABLE
- POUR LES PROBLÈMES DE MARQUAGE DANS LA RECHERCHE ET
- DANS L'INDUSTRIE
- FORMES STANDARD
- ACIDE NITRIQUE NITRATES
- PHTALIMIDE POTASSIQUE
- SIÈGE ë RA R I S 30,avenue Hoche WAGram 29-V4
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d’État Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignemênt " à domicile "
- (Joindre timbre pour notice)
- p.126 - vue 129/558
-
-
-
- 127
- Le caractère auto-amorçant n’est acquis pour toutes ces pompes que si le vide-limite à l’aspiration est suffisant, c’est-à-dire si, relativement au volume de la chambre de pompage à pleine expansion, le volume résiduel en fin de refoulement est assez petit. La déformabilité des membranes étant souvent faible, les pompes correspondantes ne sont que rarement auto-amorçantes.
- Le tableau I donne un large échantillonnage des pompes construites pour le laboratoire, qui déborde légèrement notre convention de limitation supérieure du débit à io l/h; lorsque plusieurs pompes existent pour un même constructeur, seule est indiquée celle qui correspond au débit minimal.
- Nous avons joint aux pompes proprement dites quelques appareils plus souvent destinés à d’autres utilisations, telles le6 installations de dosage automatique, qui peuvent néanmoins jouer le rôle normalement dévolu aux pompes lorsque
- Fig-, 5 (à gauche). — Burette à piston Metrohm. Importation : Promesur.
- les volumes totaux à transvaser sont limités : il s’agit des burettes à piston, construites sur le principe de la seringue, dont plusieurs modèles viennent d’apparaître sur le marché (fig. 5).
- Fig. 7 (ci-dessous). —
- Pompe à piston en verre rodé léna Glasswerk.
- Fig. 6.
- Dosapompe à membrane M 36 Simplex à une tête doseuse en plexiglas (Photo Dosapro).
- I
- p.127 - vue 130/558
-
-
-
- ENFIN L'AUTOMATION EN ANALYSE CHIMIQUE grâce à l'appareil
- J\0o]\neAyse\ir lecKnicon
- CHAUNCEY, NEW-YORK
- 1/AUTOANALYSEUR TECHNICON, appareil d’une conception tout à fait nouvelle, permet d’effectuer des dosages soit en continu, soit en discontinu, de façon entièrement automatique. L’appareil ne demande aucune des mesures volumétriques ou pondérales nécessaires aux techniques manuelles conventionnelles. Le travail s’effectue plus rapidement — jusqu’à 60 dosages à l’heure. Une plus grande précision assure une reproductibilité d’environ 1 %. L’appareil économise du temps, du matériel et de la main-d’œuvre.
- L’appareil ouvre la voie à d’importantes améliorations des produits et à une économie de matières premières grâce au contrôle continu au cours de la fabrication, dans les différents domaines de l’industrie : sucre, produits alimentaires, médicaments (antibiotiques, vitamines, etc.), boissons, produits chimiques, brasseries, eaux des chaudières, eaux usées, savonneries, pâtes à papier, etc., par l’analyse des nombreuses substances, telles que sucres (glucose, saccharose, etc.), phénol, phosphates, cyanure, urée, aluminium, silice, cuivre, fer, chlorures, ammoniaque, sulfates, fluorures, oxygène dissous, chromâtes, etc.
- L’appareil permet également les dosages automatiques de nombreuses substances dans le sang, le sérum et autres liquides biologiques, ainsi que les dosages d’acides aminés et des recherches dans les domaines de la chimie biologique, pharmacodynamie et physiologie.
- Il n’y a que la mise en place du dosage qui nécessite la participation humaine. Tout le reste est alors pris en charge par U AUTO ANALYSEUR : il introduit les proportions correctes d’échantillons à examiner, de standards et de réactifs, leur fait subir la succession des opérations analytiques — mélange, dialyse, séparation, chauffage, mesure de couleur, etc. Les dosages enregistrés se présentent sous forme de courbes logarithmiques ou linéaires sur rouleaux de papier graphique. Le choix des vitesses d’analyse à 20,. 40 ou 60 échantillons séparés à l’heure dépend de la nature du dosage.
- DOCUMENTATION A. N. I960 SUR DEMANDE
- COMPAGNIE TECHNICON 7, Rue Georges-Ville, PARIS (I6<0 — Téléphone : PAS 74-92-
- Autres appareils TECHNICON de réputation mondiale : Autotechnicon, appareil standard pour la préparation automatique des tissus histologiques. Système de Classement Technicon pour lames et diapositifs. Microprojecteur Scopicon. Collecteur Automatique de Fractions.
- Respirateur Thoraco-Abdominal Technicon-Huxley.
- p.128 - vue 131/558
-
-
-
- 12U
- Le réglage du débit des pompes doseuses peut être effectué soit à l’arrêt, soit en marche pour quelques modèles. Plutôt que sur la vitesse de rotation du moteur d’entraînement, c’est sur la course de l’élément déformable que porte le réglage. Cette méthode est indispensable lorsqu’il est nécessaire d’assurer rigoureusement la proportionnalité des débits de plusieurs pompes; celles-ci sont alors entraînées par un seul moteur et chaque tête de pompage est munie de son propre réglage de course.
- Les paramètres de construction de la pompe, nature et géométrie des éléments, conception des soupapes, etc., et les caractéristiques du moteur d’entraînement imposent une pression limite de fonctionnement au delà de laquelle la constance
- du débit ne peut plus, du fait des fuites entre amont et aval ainsi que de la puissance demandée, être assurée avec précision. Nous regretterons à ce propos que seuls quelques constructeurs indiquent à quelle chute du débit correspondent les pressions-limites indiquées dans les caractéristiques de fonctionnement.
- Bien qu’actuellement d’un emploi assez peu fréquent au laboratoire, il est probable qu’en fonction du développement des méthodes modernes d’analyse automatique aussi bien que des techniques expérimentales récentes (colonnes d’extraction liquide-liquide, chromatographie continue, etc.), les pompes doseuses s’y généraliseront dans les prochaines années, comme elles l’ont déjà fait dans les unités de production industrielle.
- R. Buvet.
- Analyse automatique
- Un ensemble d’appareils destinés à effectuer automatiquement les analyses les plus variées, en continu ou en grandes séries, était présenté au récent Salon de la Chimie par la Compagnie Technicon. L’idée directrice des constructeurs de cet appareillage est de reproduire automatiquement l’équivalent des opérations chimiques classiques effectuées par le chimiste pour un dosage quantitatif, aussi complexe qu’en soit l’ensemble. Dans ce but, un certain nombre de blocs correspondant à des fonctions différentes sont groupés en série selon les nécessités du dosage entrepris. ;
- Pour le dosage en continu de liquides dont la composition est censée évoluer, aucun problème de prélèvement ne se pose. Pour, les dosages en série, un distributeur automatique à plateau tournant a été prévu, dans lequel une quantité identique du contenu de chacun des tubes est prélevée dans un tuyau fin; chaque prélèvement restant séparé du voisin par de l’air.
- L’élément de base de cet ensemble vient ensuite puisqu’il s’agit d’une pompe à prélèvements multiples dans laquelle les débits de chaque solution prélevée sont maintenus dans des proportions constantes. Le principe en est simple : des galets font progresser les liquides dans un jeu de tubes souples parallèles de sections choisies de telle sorte que les volumes pompés soient dans les rapports convenables.
- Un bloc de fractionnement par dialyse peut être intercalé dans le circuit ainsi qu’un ou plusieurs bains de chauffage où s’effectue la réaction chimique.
- Enfin, outre les appareils classiques de dosage électrochimique en continu (pH-mètres, conductimètres, etc.), un colori-mètre fonctionnant en continu peut être utilisé comme appareil de mesure, ainsi qu’un photomètre de flamme.
- Le résultat lui-même est enregistré. S’il s’agit de dosages en série, l’enregistrement se présente sous forme de pics dont les hauteurs sont reliées aux concentrations dans les godets de prélèvements du distributeur automatique d’échantillons. Pour des dosages même complexes, soixante déterminations peuvent aisément être effectuées à l’heure.
- Cet appareil peut être utilisé pour les dosages biologiques
- Colonnes à distiller
- La séparation de mélanges de liquides peut souvent être réalisée au laboratoire par les techniques dé la distillation fractionnée fine. Si la construction de colonnes à distiller d’efficacité moyenne est à la portée immédiate de n’importe quel laboratoire, la mise au point des appareils qui permettent de réaliser les séparations de mélanges de liquides à point d’ébullition très voisins est beaucoup plus délicate et demande une connaissance préalable approfondie des problèmes théoriques et pratiques posés par la distillation.
- C’est pourquoi quelques constructeurs d’appareillage de labo-
- Fig-, 8. — Appareillage Technicon en service à l’usine « Waterside » de la Consolidated Edison Company de New York.
- Cette installation permet l’analyse en continu et automatique, à intervalles réguliers, des phosphates dans les échantillons de 10 chaudières pendant 24 heures par jour.
- dans les laboratoires d’analyses médicales (urée, glucose, etc.), dans le domaine des recherches pharmacodynamiques et physiologiques avec dosages directs en continu à partir du système circulatoire. L’appareil permet aussi, en continu, l’analyse des acides aminés par chromatographie. 11 permet également les dosages des antibiotiques et peut être utilisé dans toutes les branches de l’industrie : dosages des eaux des chaudières, eaux usées, dans l’industrie du sucre, les brasseries, etc.
- R. B.
- à élément tournant
- ratoire se sont fait une spécialité de ce domaine difficile ; aux États-Unis, par exemple, les ateliers de Podbielniak se sont acquis une renommée mondiale par le soin apporté à la conception des moindres éléments qui peuvent avoir une influence sur la marche de la distillation. Par ailleurs, les problèmes posés en laboratoire demandent souvent d’effectuer la séparation fine de faibles quantités de produits ; et ceci rend inutilisables les colonnes classiques à remplissage d’anneaux ou de spirales, par suite du volume élevé de produit nécessaire pour remplir la colonne de mélange vapeur-liquide. Pour résoudre ce problème,
- p.129 - vue 132/558
-
-
-
- les générateurs d'ultrasons
- la stabilisation de tension
- Doubles triodes à faible impédance
- 6080 6336
- p.130 - vue 133/558
-
-
-
- 131
- Fig-. 9 (à gauche). —
- Colonne de distillation à bande tournante de
- 1 m.
- Appareil Verre et Technique.
- Fig. 10 (à droite). —
- Courbe de la température en tête de colonne.
- Volume total distillé pour le mélange de trois alcools. Colonne Verre et Technique à bande tournante de 1 m. Efficacité 35 plateaux théoriques, sous pression réduite à 15 mm Hg.
- Temp °C
- 0 4 8 12 16 20 24
- Volume distillé
- par deux types de base : une colonne de x m en verre à calori-fugeage par jaquette et une colonne de 65- cm calorifugée par enveloppe vidée et argentée et jaquette. Ces deux colonnes peuvent être munies de dispositifs d’entraînement de la bande fonctionnant par entraînement direct à travers un joint, ou par entraînement magnétique, ce dernier dispositif étant également utilisé sur les colonnes Podbielniak et Paris-Labo. Équipée avec un élément tournant en téflon, la colonne de 65 cm permet d’obtenir 32 plateaux théoriques pour une vitesse de rotation de 3 5oo tours/minute. Toutes les colonnes utilisant une enveloppe vidée pour assurer l’adiabaticité sont munies de joints de dilatation de conceptions voisines permettant des dilatations différentes pour -l’âme et pour la paroi extérieure de l’enveloppe.
- Par ailleurs, le soutirage de liquide en tête de colonne est assuré par le déplacement d’un petit électro-aimant qui démasque périodiquement l’orifice d’évacuation, ce qui permet d’obtenir des taux de soutirage par rapport au total des vapeurs condensées en tête, aussi faibles qu’on le désire pour ne pas perturber les conditions de fonctionnement et obtenir l’efficacité maximale.
- R. B.
- Centrifugeuses de table
- il existe depuis quelques années déjà des colonnes Podbielniak dont le remplissage est constitué par une bande métallique tournant à vitesse élevée dans un tube de verre de section uniforme. Dans ces conditions le contact entre les vapeurs ascendantes et le liquide descendant est réalisé d’une façon étroite, permettant la mise en équilibre extrêmement rapide des deux phases et l’obtention de H.E.P.T. de l’ordre du centimètre. Rappelons que la hauteur équivalente à un plateau théorique (H.E.P.T.) est la longueur de colonne telle que le mélange de vapeurs sortant à la partie supérieure soit celui qui est en relation d’équilibre avec le mélange de liquides sortant à la partie inférieure.
- Alors que les colonnes Podbielniak sont difficilement introduites sur le marché français, la Société Paris-Labo se charge depuis peu de l’importation d’une colonne du même type d’origine allemande. Cette colonne, dont il existe deux modèles respectivement de longueur utile ko cm et i m correspondant environ à 20 et 5o plateaux théoriques, est en quartz et son adiabaticité vis-à-vis des échanges thermiques avec l’ambiance, nécessaire pour le fonctionnement à haute efficacité, est réalisée par une enveloppe à vide argentée contenue elle-même dans une jaquette chauffée à une température voisine de celle régnant dans le mélange distillé.
- La Société Verre et Technique, par contre, a mis au point et construit elle-même une gamme étendue de colonnes à distiller dans laquelle les ensembles à élément tournant sont représentés
- Les centrifugeuses de laboratoires Wifug, présentées au récent Salon de la Chimie, comprenaient plusieurs modèles compacts et de petites dimensions, spécialement conçus pour les mani-
- p.131 - vue 134/558
-
-
-
- 132
- pulations rapides sur de petites quantités de produits. Les modèles Doctor, Chemico et Test, peu différents par leur système d’entraînement antivibratoire, ne s’éloignent que par la dimension des tubes qu’ils permettent de 'manipuler. Le type Doctor peut ainsi fonctionner à 5 700 tr/mn avec 6 tubes de 10 x 100 mm, tandis que le type Test est conçu pour le travail jusqu’à 7 000 tr/mn avec des tubes de 5o mm.
- Une microcentrifugeuse à grande vitesse est également cons-
- truite par la même société (fig. n). Ce modèle Micro atteint 20000 tr/mn avec 6 tubes de i,5 ml. Le montage autoéqui-libré et antivibratoire de la tête ainsi que les dimensions (21 x 20 cm) et le poids (10,5 kg) modestes de l’ensemble en font un instrument portable pour le travail rapide. Le refroidissement énergique du pot de centrifugation n’autorise qu’une augmentation de température faible en cours d’opération. A la vitesse maximale, l’accélération périphérique atteint 22 000 g.
- LE CIEL EN AVRIL I960
- SOLEIL : du 1« avril au 1er mai (à 0h) sa déclinaison croît de + -4°28' à + la0!' et la durée du jour de 12hoOm à
- 14h30m ; diamètre apparent le 1er = 32'3",4, le 30 = 31'47",5.
- — LUNE : Phases : P. Q. le 4 à 7b5m, P. L. le 11 à 20h2Sm,
- D. Q. le 18 à 121157m, N. L. le 2a à 21h45» ; apogée le 2 à 22h,
- dianjètre apparent 29'32" ; périgée le 14 à 19'h, diamètre apparent 31'42apogée Te 30 à 16h, diamètre apparent 29'29". Principales conjonctions : avec Uranus le 7 à 2h, à 4°2' S. ; avec Neptune le 12 à 23h, àl°50'.N. ; avec Jupiter le 16 à "19h, à 4°44' N. ; avec Saturne le 17 à 21h, à 4° 18' N. ; avec Mars le 22 à lh, à 2°17' N. ; avec Mercure le 24 à lh, à -10S' N. ; avec Vénus le 24 à 13h, à 0°41' S. Principales occultations' : le 1er, de 318 B, Taureau. (mag. 5,7) immersion à 18ho4m,-2 ; le 2, de 130 Taureau (màg. 5,5) immersion à 18h37m,5 ; le f3, de 29 Cancer (mag. 5,9) immersion à IM™,6 ; le 28, d’Aldébaran (mag. 1,1) immersion l5h49m,l et émersion à 17h7m,7, à observer en plein jour à la lunette.
- — PLANÈTES : Mercure et Vénus ne sont pas observables ; Mars, encore peu visible le matin ; Vesta, dans le Sagittaire de mieux en mieux visible le matin, suit Jupiter et précède Saturne, positions, le 1èr : lSh3om et —18°40', le 11 : 18M8m et — 18°35', le 21 : IS^oS111 et — 18°32', le 1er mai : ÎO^G111 et — 1S°34', mag. 6,8 ; Jupiter, dans le Sagittaire brille toute la seconde moitié de la nuit, le 10, diamètre app. 38'',2 ; Saturne, dans le Sagittaire se lève 1 h après Jupiter, le 16, diamètre app. 15",0 ; Uranus, dans le Lion toujours bien observable, le 16 coucher à 2h54m, posi-
- tion : 9M9ra et + 16°27', diamètre app. 3",8 ; Neptune, dans la Balance est visible toute la nuit, en opposition avec le Soleil le 28 ; position : 14h2om et — 12°29', diamètre’ app. 2", 4. — ÉTOILES VARIABLES : minima observables tVAlgol (2m,2-3m,5) le 12 à 4h,0, le 15 à 0h,8, le 17 à 21b,6 ; minima de (3 Lyre (S^-L111^) le 1er à 16h,7, le 14 à loh,0, le 27 à 13h,3 ; minima de S Balance (4m,8-5E1,9) le 6 à 2h,2, le 13 à lh,7, le 20 à lh,3, le 27 à 0h,9 ; maximum de R Corbeau (5m,9-14m,4) le 23. — TEMPS SIDÉRAL : au méridien de Paris à 0h (T. U.) : le 4« ; i2M6m46s, le 11 : 13*26“1D, le 21 : 141i5pi37s, le 1er mai : 14h4bm2s.
- Phénomènes intéressants. — On surveillera encore l’activité solaire. — Du 27 mars au 2 avril, lumière cendrée de la Lune, le soir. — Le 28, on ne manquera pas d’observer l’occultation d’Aldébaran, durée lhl8m, à la lunette, en plein jour, l’immersion se faisant au bord obscur et l’émersion au bord lumineux, la Lune à son 4e jour présentant alors l’aspect d’un élégant croissant. — On remarquera que l’astéroïde Vesta s’éloigne de Jupiter et se rapproche de Saturne, suivre son mouvement à la jumelle. — Dans les mêmes conditions, on observera également les planètes Uranus et Neptune. — Étoles filantes : du 19 au 22, Lyrides (radiant 104 Hercule), rapides à traînées persistantes.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Antibiotique de synthèse
- Liaison postale par fusée
- Un antibiotique obtenu par synthèse, la syncilline, a été présenté par les Laboratoires Bristol, à Syracuse (État de New York). Cette substance aurait la propriété de ne provoquer aucun trouble allergique. Elle serait par ailleurs d’une efficacité plus grande que les formes naturelles de pénicilline et pourrait être normalement administrée par voie orale. La syncilline a détruit des souches de staphylocoques jusqu’ici résistantes à la pénicilline. Elle ne s’altère pas à l’air et à la lumière et n'absorbe que faiblement l’humidité atmosphérique.
- Un projet de communication postale par fusée est actuellement à l’étude en Italie. Les deux stations terminales qui sont prévues, Gênes (en Italie) et Hambourg (en AHemagne), sont distantes d’environ 1 100 km. Le parcours, d’une durée de 23 mn, serait effectué par une fusée se déplaçant à une vitesse d’environ Mach 2 et pesant (à vide) environ 100 kg. L'atterrissage serait freiné par des rétro-fusées. L’ingénieur italien Partel, promoteur de ce projet, se fait fort d’assurer cet atterrissage dans un terrain dont les dimensions ne dépasseraient pas celles de la fusée.
- LES LIVRES NOUVEAUX
- Jeux mathématiques. Quelques casse-tête, par G. Gamow et M. Stern. Traduit de l’américain par M"" G. Guéron. 1 vol. 16 x 21, 110 p., 27 fig. Dunod, Paris, 1959. Broché, sous couv. ill. : 5,40 NF.
- Le professeur Gamow, qui sait allier la science à l’humour, a en quelque sorte créé un genre littéraire, notamment avec les aventures de Tompkins qui ont connu un grand succès. Avec M. Stern il nous présente aujourd’hui une trentaine de problèmes amusants, disons d’énigmes, qui peuvent être résolus avec un peu de bon sens et de réflexion sans faire appel à des connaissances mathématiques.
- La règle à calcul, par R. Dudin. 3' édition. 1 vol. 12 x 18, 170 p., 46 fig. Dunod, Paris, 1959. Prix, broché : 4,50 NF.
- Excellent travail consacré aux diverses utilisations de la règle à calcul, qu’il décrit d’une façon 'très claire ; en dehors des usages, classi-
- ques, signalons certains calculs basés sur l’emploi des décibels à l’usage des acousticiens et radioélectriciens, un procédé rapide pour la résolution rapide du triangle rectangle et le calcul direct de la racine cinquième d’un nombre. Les nombreux exercices proposés facilitent la compréhension de l’exposé et certains des tableaux qui terminent l’ouvrage constituent un aide-mémoire utile.
- Méthodes numériques. Interpolation. Dérivées, par J. Kuntzmann. 1 vol. 16 x 25, 272 p., 60 fig. Dunod, Paris, 1959. Prix, relié toile : 36 NF.
- Comme l’écrit l’auteur dans l’avant-propos, la littérature scientifique de langue française est démunie d’ouvrages sur le calcul numérique. Ceci est d’autant plus grave que l’emploi des machines à calculer « digitales » tend à se généraliser. Dans ce livre, l’auteur s’est surtout intéressé aux méthodes d’interpolation : repré-
- sentation approchée d’une courbe par un polynôme. A partir de cela il a étudié les problèmes de dérivation. La dernière partie de l’ouvrage est consacrée à l’interpolation par des fonctions autres que les polynômes (exponentielles, fractions rationnelles). Ce livre, d’une belle présentation typographique, devrait intéresser tous les utilisateurs du calcul numérique (mathématiciens, physiciens, chimistes, ingénieurs...). Il semble souhaitable que paraissent dans la même collection d’autres ouvrages, traitant dans le même esprit de la question des moindres carrés.
- Théorie des jeux et programmation linéaire,
- par S. Ya,u>a. Traduit et adapté de l’anglais par J. Bouzitat. 1 vol. 11 x 17, 253 p., figures. Monographies Dunod, Paris, 1959. Prix, relié : 16,50 NF.
- On doit se féliciter de voir paraître la traduction française de cet ouvrage qui prend place
- p.132 - vue 135/558
-
-
-
- « Journal d’un
- par Jean ROSTAND
- de l’Académie Française
- tl est rare qu’un homme de science tienne son journal,
- ou, tout au moins, qu’il en fasse bénéficier le public : comme s’il existait une sorte d’antinomie entre le tempérament scientifique et ce mode personnel d’expression, aujourd’hui si prisé parmi les écrivains. C’est là déjà une raison pour accorder une attention toute particulière au Journal d'un biologiste que vient de nous donner le docteur Albert Delaunay, directeur du Service de Pathologie expérimentale à l’Institut Pasteur.
- Grâce à un tel ouvrage, quasiment unique en son genre, nous pouvons suivre les démarches spirituelles d’un véritable savant, d’un éminent chercheur ayant fait ses preuves de découvreur et à qui l’on doit d’importantes révélations sur les moyens qu’utilise l’organisme dans sa défense contre les microbes. Avec Delaunay, guide sûr et entraînant, nous pénétrons au laboratoire, nous y respirons l’austère silence que coupe, de loin en loin, le ronronnement des centrifugeuses, nous nous asseyons à la table de lave où se préparent de délicates expériences, nous mettons l’œil au microscope, nous partageons les nobles émotions de la chasse aux vérités; Aussi, nous accompagnons le biologiste dans ses voyages d’études, dans les congrès et les colloques où il prend part, et c’est pour nous l’occasion, non seulement de nouer connaissance avec d’autres savants, qu’évoque une plume vive et toujours généreuse, mais encore de nous initier aux grandes questions d’actualité biologique ou médicale, telles que la vaccination contre la poliomyélite, les traitements du cancer ou de la sénilité, les antibiotiques, les « virus orphelins », la médication de l’esprit, les « mutations dirigées » chez les canards... Sans même avoir compris que nous recevions un enseignement, tant les termes en sont élégants et faciles, nous voilà instruits, renseignés, éclairés par un maître qui, se faisant accessible tout en restant élevé, sait heureusement concilier la rigueur et l’attrait.
- Nombreux, au cours de ce Journal, les retours au passé. Surgies d’une lecture ou d’une commémoration, revivent de hautes figures : Cuvier, Buffon, Bernardin de Saint-Pierre... Et le Delaunay historien n’a rien d’un froid et pesant érudit : il ne parle que de ce qu’il aime, et, d’une œuvre ou d’une vie, ne retient que ce qui l’a touché, c’est-à-dire ce qui lui a paru significatif, pittoresque ou poétique. Si bien que, peu à peu, de la somme de ces esquisses se dégage le portrait du peintre lui-même.
- Enfin, cet homme de science offre cette singularité qu’il ne se borne pas à parler science. Animé d’une curiosité frémissante, doué d’un pouvoir de compréhension et d’accueil qui l’ouvre à tous les aspects de l’humain, il se préoccupe d’art, de littérature, de linguistique, de morale. A quoi ne s’intéresse-t-il pas, à quoi n’est-il pas sensible ? Par quoi n’est-il pas sollicité ? Au point que, si nous ne le savions possédé du démon de la recherche, nous redouterions pour lui tant de séductions étrangères. Delaunay médite sur un beau livre, il s’interroge sur une pensée de Joubert, il relit Jean Lahor dont il commente le « pessimisme héroïque », il s’amuse de l’étymologie du mot « aspirine », il fait visite
- Biologiste »
- d’Albert DELAUNAY
- A. Delaunay donnant une conférence a Milan.
- au docteur Parturier pour savoir quels chemins ont conduit un médecin à l’auteur de Carmen, il se rend en pèlerinage au Clos Littré pour y rejoindre l’ombre du vieux positiviste, il profite d’un passage à Digne pour aller rêver devant la statue de Gassendi, d’un voyage en pays basque pour connaître la maison de Loti et le jardin d’Edmond Rostand.
- De quelque sujet qu’il nous entretienne, et si loin qu’il s’aventure au-delà de son propre domaine, toujours il s’exprime avec aisance, tact et justesse, parce que, toujours, la sensibilité l’inspire et lui fait, tout naturellement, trouver les mots et le ton qui conviennent.
- Peut-être est-ce là que tient, en définitive, le mérite exceptionnel de ce livre qui n’est pas moins l’œuvre d’un écrivain que d’un biologiste, et dont le contenu subjectif passe encore, à mon sens, la richesse scientifique.
- Une vision bienveillante des êtres et des choses, une sagesse amène et un peu mélancolique, un léger scepticisme à l’égard des orgueilleuses constructions de l’esprit mais un respect sans réserve pour les humbles réussites du cœur, une finesse de jugement et de goût qui va de pair avec la délicatesse morale, une exquise sincérité qui ne craint pas de se donner parfois un air d’ingénuité, un accent du style qui ne peut être qu’un accent de l’âme, des dialogues profonds et bien menés qui font songer à ceux d’André Maurois, des pages sur l’enfance qui, par leur fluidité musicale, font songer aux Souvenirs de Renan : tout cela fait, du Journal d'un biologiste, une œuvre rare, belle, pure, bienfaisante.
- Où le lecteur croyait ne trouver qu’un homme de science, il trouve un homme, et dont il aimerait à devenir l’ami.
- Un volume 14 X 20, 392 p. Prix : ij NF.
- PLON
- p.133 - vue 136/558
-
-
-
- parmi les œuvres de base de la théorie des programmes économiques. L'auteur limite son études des jeux au cas fondamental du duel, jeu sans coopération à somme nulle, qu'il étudie sous sa « forme normale, c'est-à-dire stratégique ». La notion de stratégie optimale conduit naturellement à la théorie des programmes linéaires, et l'accent mis ici sur la dualité vectorielle met mieux en évidence les liens profonds de ces deux théories. On sait que la résolution pratique des problèmes relevant de ces théories exige la mise en œuvre de machines à calculer. L'auteur n’entre cependant pas dans les détails posés par le calcul automatique mais expose de manière complète la méthode et la technique mathématiques des calculs numériques, en particulier la méthode du simplexe, sans oublier certaines représentations géométriques souvent précieuses. L'ouvrage de S. Yajda apparaît ainsi comme un manuel didactique de valeur qui émerge au milieu des nombreux livres et articles traitant du même sujet, mais qui se présentent trop souvent comme des recettes de calcul, les travaux originaux peu accessibles étant mis à part. Bibliographie et index.
- Méthodes et modèles de la recherche opérationnelle, par A. Kaufmann. 1 vol. 14 x 22, 534 p., 100 fig. « L'économie d'entreprise ». Dunod, Paris, 1959. Prix, relié : 68 NF.
- Le dessein de l'auteur est clair : exposer à des ingénieurs, des organisateurs, des experts-comptables, les premiers éléments de la recherche opérationnelle en étudiant quatre schémas de base auxquels on peut ramener beaucoup de problèmes : la théorie des programmes linéaires, les phénomènes d’attente, les problèmes de stocks et enfin ceux de remplacement et de maintenance des équipements. On trouve ces grandes divisions dans une lre partie qui introduit à ces notions nouvelles au moyen de nombreux exemples. Dans la 2e partie, précédée d’un rappel mathématique surtout utile pour préciser les notations de l’auteur, on reprend ces quatre schémas dont on étudie plus avant la structure mathématique. Une importante bibliographie et des tables succinctes de fonctions de répartition complètent enfin ce volume. Tout en nous paraissant intéressant pour le néophyte pour qui il a été écrit, l'ouvrage est d’un niveau assez élevé car il est difficile d'étudier un tel sujet sans posséder un solide acquis mathématique. Le spécialiste par contre pourra souvent s’y référer utilement.
- Operational research in practice. Publié sous la direction de D. Davies et N. Yerhuust. Textes anglais et français.- 1 vol. 16 x 25, 201 p., figures. Pergamon Press, Londres, 1958. Prix, relié : 84 sh.
- Ce volume bilingue réunit les communications présentées à la « Nato Conférence on Operational Research » tenue au Palais de Chaillot en avril 1947. Textes et discussions portent sur les méthodes de la recherche opérationnelle et sur certains problèmes précis (programmes linéaires, théorie des jeux, etc.) avant d'exposer enfin le statut et l’organisation de la recherche opérationnelle dans les armées alliées.
- High-speed aerodynamics (compressible flow), par Elie Carafoli. 1 vol. 17 x 24, 702 p., 340 fig., 2 planches hors texte. Pergamon Press, Londres, New York et Paris, 1956. Prix, relié : 100 sh.
- Ce volume fait suite à l'Aérodynamique des fluides incompressibles, publiée en roumain, en russe et en allemand, du même auteur. Après un rappel substantiel des lois des écoulements permanents et des ondes de choc planes à une dimension, on étudie successivement : les régimes subsoniques généraux et transsoniques ; les écoulements supersoniques dans le cas de perturbations petites ; les solutions rigoureuses à deux dimensions en régimes supersoniques ; les solutions rigoureuses autour de solides de révolution ; la théorie des ailes d’envergure finie dans les écoulements supersoniques ; puis les écoulements complexes autour d’ailes triangulaires à angle d'attaque variable, avec incursion dans le domaine des écoulements turbulents à grande vitesse. La lecture de cet ouvrage, bien que de niveau élevé, est facilitée par un emploi constant de développements limités et de solutions voisines, associés à des applications numériques nombreuses exposées sous forme de graphiques et d'abaques. Bibliographie au bas des pages. L’ouvrage intéresse les physiciens autant que les ingénieurs spécialisés.
- Mécanique quantique, par Albert Messtah. Tome 2. 1 vol. 16 x 25, xvi-544 p. Dunod, Paris, 1960. Prix, relié toile sous jaquette : 48 NF.
- Ce second tome possède les mêmes qualités, traitement rigoureux et complet, clarté de l'exposition, que le premier tome (analysé dans le numéro de septembre 1959 de La Nature). Dans une lr* partie l'auteur traite soigneusement le délicat problème des propriétés d’invariance et de symétrie des systèmes quantiques. La 2* partie est consacrée aux méthodes d'approximation : perturbations stationnaires et dépendant du temps, calcul variationnel, théorie des collisions. Dans la dernière, l'auteur présente l'équation de Dirac en faisant usage du formalisme covariant et une théorie simplifiée du rayonnement. Il prend soin de montrer les limitations de cette théorie et d'introduire avec précision les notions qui seront nécessaires à l’étudiant de la théorie quantique des champs. Dans son ensemble, ce Traité est une excellente présentation de la mécanique quantique. Un peu trop complet pour un débutant, il sera un ouvrage de base pour tous les physiciens.
- Dictionnaire anglais* français. Électronique, Physique nucléaire et Sciences connexes,
- par G. G. King. 1 vol. 14 x 22, vm-312 p. Dunod, Paris, 1959. Prix, relié toile souple : 26 NF.
- Ce dictionnaire qui groupe environ 24 000 ter-
- ...... A NOS LECTEURS ............
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6®
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- LA NATURE PLASTIFIÉE
- ENROBAGE DE SPÉCIMENS BIOLOGIQUES
- dans résine artificielle claire comme du cristal
- CHEZ VOUS
- Demandez renseignements pour colis d’essai avec instructions
- Joindre enveloppe timbrée avec adresse S.V.P
- INTERNATIONAL PLASTIC RESEARCH B. P. 03 CONTES (A.-M.)
- mes scientifiques et techniques est d’un grand secours pour tous ceux qui doivent lire et surtout traduire les textes anglais traitant de sujets compris dans les branches indiquées dans le titre. L’auteur a pris soin de replacer — lorsque c’est nécessaire — le mot dans le contexte approprié. Les différences entre textes anglais et américains ont été mises en relief. Deux précautions qui sont destinées à éviter de nombreuses causes d’erreur.
- Électrons, Atomes, Métaux et Alliages, par W. Hume-Rothery. Traduit de l’anglais par G. Hilly. 1 vol. 14 x 22, 464 p., 171 fig. Dunod, Paris, 1959. Prix, relié toile sous jaquette : 39 NF.
- L’auteur de cet ouvrage, très connu par divers livres très appréciés sur les métaux, a voulu dans celui-ci faire de la vulgarisation, c’est-à-dire permettre à tous ceux qui s’intéressent à ce sujet et qui n'ont pas la possibilité de suivre entièrement les développements .mathématiques de la mécanique ondulatoire, de comprendre pourtant les applications qui en sont faites à l'étude des structures et des propriétés des métaux et des alliages. Il a choisi pour cela la forme dialoguée entre un jeune savant très théoricien et un métallurgiste très au courant de la pratique industrielle. Il convient donc de jeter un pont entre ces deux tendances. Malgré la clarté de l'auteur et son souci de présenter les choses le plus simplement possible, il convient d'indiquer que le sujet est encore très ardu et qu’il s’agit de vulgarisation à un niveau supérieur.
- Electron Physics and Technology, par
- J. Tjiomson et E. B. Callick. 1 vol. 14,5x22, 528 p., nombr. fig. The English University Press, Londres, 1959. Prix, relié : 50 sh.
- L'électronique est une science trop jeune pour que son enseignement ait pu se stabiliser dans des normes entièrement satisfaisantes : l’exposer de façon claire et accessible sans rien sacrifier de la rigueur du raisonnement n’est que très rarement réalisé, et il faut féliciter les auteurs de cet ouvrage d'y être magistralement parvenus. Avant d’aborder les tubes électroniques, ils rappellent en 90 pages l’essentiel des connaissances snr la physique de l'électron : puis on étudie les tubes classiques et les transistors en basse et haute fréquence, puis arec beaucoup de détails les tubes pour très hautes fréquences (magiiétron, klystron, etc.). Plusieurs importants chapitres sont consacrés aux tubes spéciaux, depuis les tubes cathodiques jusqu'aux cellules photoélectriques. La partie la plus neuve et peut-être la plus intéressante de l’ouvrage est la dernière qui décrit les procédés de fabrication des tubes électroniques et
- p.134 - vue 137/558
-
-
-
- 135
- des transistors. L’ouvrage, du niveau de la licence, sera lu et consulté avec le plus grand profit par les étudiants, les ingénieurs et les chercheurs qui y trouveront aisément de quoi satisfaire à leurs besoins immédiats, quitte pour eux à se reporter pour certains points de détails aux traités spécialisés cités en référence. — J. L.
- Cerenkov Radiation, par J. V. Jelley. 1 vol. 14,5 x 22,5, 304 p., nombr. fig., 5 pl. Perga-mon Press, Londres, 1958. Prix, relié : 65 sh.
- C'est en 1934 que Cerenkov découvrit que toutes les substances transparentes émettent de la lumière lorsqu'elles sont soumises à l’action de particules de haute énergie. Frank et Tamm donnaient en 1937 la théorie classique de ce phénomène, qui leur valut récemment le prix Nobel, puis Ginzburg la théorie quantique en 1940. Ce n'est qu’à partir de 1951 que l’on utilisa l'effet Cerenkov à la détection de particules de haute énergie : cette application est maintenant très répandue, et le livre de Jelley vient à point pour nous offrir une vue d’ensemble du sujet. Après 78 pages consacrées à la description et à la théorie de l’effet Cerenkov, on aborde l'étude des compteurs et de leurs éléments essentiels : le photomuMiplicateur, le matériau transparent et le système optique. Le chapitre des applications est déjà étendu : signalons que Fauteur a découvert le rayonnement Cerenkov des particules cosmiques secondaires dans l'atmosphère terrestre. Il expose pour terminer des idées fort intéressantes d’expériences possibles en utilisant l'effet Cerenkov. On appréciera les appendices donnant toutes sortes de constantes, de données numériques et de courbes utiles, ainsi que l’abondante bibliographie. — J. L.
- Contributions in Geophysics (in honor of Beno Gutenberg). Volume 2, publié par H. Benioff, M. Ewing, B. F. Howell et F. Press. 1 vol. 13 x 21, 64 fig. Pergamon Press, Londres, New York, Paris, Los Angeles, 1958. Prix, relié : 60 sh.
- Cet ouvrage est dédié à Beno Gutenberg en reconnaissance des services éminents qu’il a rendus à la géophysique, tant comme chercheur que comme enseignant. Sa publication coïncide approximativement avec le départ du professeur de la direction du laboratoire de séismologie du Californian Institute of Technology. Il rassemble les contributions des plus éminents géophysiciens mondiaux, ses amis, collègues ou anciens élèves, et dresse un tableau de l’état actuel de la recherche géophysique. La variété des sujets abordés et les nationalités très diverses de leurs auteurs témoignent de l’influence mondiale du professeur Gutenberg et de l’ampleur du domaine dans lequel s’est exercée son activité.
- Dictionnaire chimique anglais-français, par
- B. Cornubert. 2e édition revue et augmentée.
- 1 vol. 16 x 25, 184 p. Dunod, Paris, 1959.
- Prix, broché : 18,50 NF.
- Môme ceux qui connaissent l’anglais classique rencontrent dans les textes scientifiques de nombreuses difficultés du fait des termes techniques ; l’auxiliaire du chimiste est alors le dictionnaire de Cornubert, « classique » depuis longtemps déjà des bibliothèques de laboratoire, d’abord sous la forme trilingue, puis sous ses form.es bilingues ; la présente édition continuera à jouer ce rôle ; au vocabulaire purement chimique s’ajoutent les termes essentiels des sciences voisines, physique et physico-chimie, ainsi que l’expression d’un certain nombre d’idées générales communes à toutes les sciences exactes.
- Répartition du potentiel et du courant dans
- les électrolytes, par H. H. Rousselot. 1 vol.
- 14 x 22, 100 p., 74 fig. Dunod, Paris, 1959.
- Prix, broché : 9,80 NF.
- Sujet rarement traité dans les ouvrages d’électrochimie ou de galvanoplastie. Après un exposé
- de la théorie du potentiel appliquée à l’élcctro-lyse, un chapitre est consacré à la répartition primaire du courant (polarisation absente ou uniforme). L’auteur traite ensuite de la répartition secondaire du courant résultant des phénomènes de polarisation et de conductibilité. On pourra lui reprocher de sembler ignorer bien des travaux publiés sur les phénomènes de polarisation et d’une manière générale un exposé des théories modernes de Félectrolyse et des courbes intensité-potentiel aurait permis sans aucun doute de rendre ce chapitre plus clair. Le reste de l'ouvrage est consacré à la détermination des répartitions de courant et aux cellules galvanométriques. La cellule de Huit est traitée en détail et les conclusions finales ne manquent pas d’intérêt. Cet ouvrage est surtout à conseiller à tous ceux que préoccupent les multiples problèmes de la galvanoplastie. — R. R.
- Colorimétrie Analysis, par N. L. Allport et J. Kkyser. 1 vol. 14 x 22, 424 p. Chaoman and Hall, Londres, 1957. Prix, relié : 50 sh.
- La première édition de cet ouvrage a été publiée en un seul volume en 1945. Depuis, les méthodes d’analyses colorimétriques se sont largement développées, ainsi que leurs applications. De ce fait la 2e édition a été. scindée en deux volumes. Celui-ci est spécialement consacré aux méthodes d’analyses chimiques et biochimiques. Les auteurs ont sélectionné, pour une centaine de corps organiques et leurs dérivés, les techniques d’analyse colorimétrique confirmées par l’expérience. Des références bibliographiques permettent de se reporter aux travaux originaux.
- Notions pratiques de génie chimique, par Pierre Bachmann. 1 vol. 14 x 22, 152 p., 26 fig. Dunod, Paris, 1959. Prix, broché : 12 NF.
- L’auteur se limite à trois problèmes importants de génie chimique : corrosion, transmission de chaleur, pompes à vide. Diverses applications numériques complètent heureusement les
- H
- COLLECTIO N ARMAND COLIN
- Encyclopédie du XXe s. en livres de poche
- 345 titres
- Dernières Nouveautés :
- LE PARASITISME CHEZ LES PLANTES
- C. CHRISTMANN
- LA GRANDE INDUSTRIE CHIMIQUE DE BASE
- H. GUÉRIN
- L’ÉGYPTE PHARAONIQUE
- E. DRIOTON
- données théoriques des deux dernières parties tandis que de très nombreuses données pratiques sont fournies à propos de la corrosion, qui aideront à choisir les matériaux à utiliser pour les appareils.
- Moteurs, réacteurs, statoréacteurs, fusées,
- par J. Soissons. 2e édition. 1 vol. 16 x 25, 144 p., 61 fig. et 1 pl. h. t. Dunod, Paris, 1959. Prix : 20 NF.
- Ce livre, présenté sous l’aspect d’un cours de moteurs, qui s’adresse en principe aux élèves de l’École du Personnel navigant, peut être aisément compris par tout lecteur qui possède une bonne culture mathématique. Sans entrer dans des détails de construction, il reprend les fondements théoriques des différents types de moteurs utilisés dans l’aéronautique, voire dans l'astronautique, en explique la description et le fonctionnement en vol. Abondamment illustré de schémas et de nombreux diagrammes, il doit permettre à tous les familiers des pistes d’envol de mieux connaître les délicates machines qu’ils ont à mettre en œuvre.
- Les fibres textiles, par G. Champetier, professeur à la Faculté des Sciences de Paris.
- 1 vol. 11 x 16,5, 224 p., 54 fig. Collection Armand Colin, Paris, 1959. Prix : 4,50 NF.
- Les naissances répétées de fibres textiles nouvelles empêchent bien souvent de comprendre et de classer toute la gamme des matériaux qui interviennent désormais dans une industrie en pleine évolution. Le mérite de l’ouvrage de G. Champetier est de faire la somme de toutes les fibres existantes, naturelles, artificielles et synthéllques, en établissant les comparaisons et les rapprochements qui s'imposent. Le lecteur pourra ainsi avoir une vue concrète et actuelle de la révolution textile accomplie pendant les dernières années.
- Taschenbuch der Botanik (fondé par Hugo Miehe), par le Dr Walter Mevius, professeur à l’Université de Hambourg. 2 vol. 17 x 24. Tome I : Morphologie, Anatomie. vm-285 p., 365 fig. Tome II : Systematilc. vm-195 p-, 307 fig. Georg Thieme Verlag, Stuttgart, 1958, 1959. Prix, reliés : 12,80 DM et 15 DM.
- Réédition largement remaniée des deux tomes d’un traité élémentaire de botanique. Le tome I est un tour d’horizon précis de notions parfois récentes, mais classiquement admises sur la morphologie, l’anatomie, l'embryologie, la physiologie végétale ; les lois fondamentales de la génétique y sont présentées également. Dans le 2e volume, entièrement réservé à la systématique, les chapitres consacrés aux bactéries et aux champignons ascomycètes, groupes dont l’étude biologique et biochimique a pris une extension considérable, ont été entièrement refondus. La systématique des familles de végétaux supérieurs est étudiée avec le souci, permanent dans ce manuel, d’exposer des faits plus que de discuter des idées. L'exceptionnelle clarté des illustrations, cependant schématisées au minimum, constitue une parfaite réussite.
- A Guide to the History of Bacteriology,
- pur Thomas H. Grainger Jr. 1 vol. 14 x 21, xi-210 p. The Ronald Press Company, New York, 1958. Prix, relié : 4,50 dollars.
- Get ouvrage original est inspiré du Guide to the History of Science de Sarton. Son texte n'est jamais narratif et est exclusivement composé d'une liste facilement exploitable de références bibliographiques. Trois chapitres essentiels le constituent : inventaire des principaux périodiques spécialisés et des sources d’information sur les laboratoires de microbiologie en service aux U.S.A. ; sélection d'ouvrages fondamentaux permettant de reconstituer l’histoire de la bactériologie ou, pour chaque rubrique de cette discipline (génétique, écologie, morphologie, mer, sol, micropaléontologie, etc.), indication d’articles auxquels est annexée une bibliographie suffisamment complète ; enfin sélection de biographies des bactériologistes célèbres. Si cette dernière partie de l’ouvrage ne touche qu'une fraction du public scientifique, la seconde partie au contraire peut servir avec un maximum d’efficacité aux étudiants et jeunes chercheurs auxquels elle épargne de longues heures d’une compilation parfois maladroite. — G. B.
- Annuaire hydrologique de la France. Année
- 1 1957. 1 vol. 18 x 27, 272 p. Édité par la
- Société Hvdrotechnique de France, Paris, 1959.
- Prix : 35 NF.
- On trouvera dans cet annuaire : 1° 6 cartes
- p.135 - vue 138/558
-
-
-
- 136
- en couleurs portant remplacement des stations de jaugeage fondamentales et 6 graphiques indiquant l’état du remplissage des principaux réservoirs ; 2° Un exposé sur les « caractéristiques hydrologiques de l’année 1957 » par
- M. de Beauregard, avec cartes, graphiques et tableaux des régimes des cours d’eau français à chacune des stations fondamentales ; 3° Les débits moyens de 439 stations : 367 stations complémentaires et 82 stations fondamentales plus 62 variations de réserves réparties en neuf bassins : Rhin, Mer du Nord, Manche, Atlantique, Seine, Dordogne, Adour, Méditerranée, Rhône.
- La recherche et l’exploitation du pétrole brut et du gaz naturel dans la zone O.E.C.E.
- 1 vol. 21 x 27, 81 p., 1 carte géologique en 5 coul. de l’Europe occidentale, 4 calques des zones concédées, 1 tableau sur la répartition des gisements. Publications de l’O.E.C.E., Paris, 1957. Prix : 35 NF.
- Cette étude fait connaître : l’état exact fin 1956, dans les pays membres de l’O.E.C.E. ainsi qu’en Espagne et en Yougoslavie, de la législation minière et fiscale des hydrocarbures, la géologie pétrolière, les découvertes de pétrole et de gaz, les prévisions de classification des
- CH. LEMONNIER 10.3
- DES CRAIES ARTISTIQUES AUX MILLE RESSOURCES
- Par leurs Qualités exceptionnelles les CRAIES NEOCOLOR sont particulièrement appréciées de l'artiste, du maquettiste, du décorateur. Exemptes de toute matière nocive, elles sont précieuses pour l'enseignement du dessin aux enfants.
- D'UNE LUMINOSITÉ INCOMPARABLE
- eUes $b/i/vûqu&tiTsui TOUT
- Très fortement pigmentées et résistantes au soleil, les CRAIES ARTISTIQUES NEOCOLOR permettent de travailler, même en grande surface, sur papier, carton, bois, textile, métal, verre, plastiQues, plâtre, etc.
- €t/es safo/ûhfà tous ùsgeôles
- Les CRAIES ARTISTIQUES NEOCOLOR employées à sec permettent la technique du grattage. Diluées dans le FOTOL (diluant càran D'ACHE) ou la térébenthine, elles s'appliquent au pinceau donnant les effets de Lavis ou de peinture à l'huile.
- £We7
- En boîtes : 10, 15 et 50 couleurs
- DISTRIBUÉ par CORÉCTOR-ADHÊSINE
- différentes régions de la zone étudiée eu egard aux perspectives pétrolières, les données statistiques des années passées jusqu’en 1956 concernant les divers aspects de la recherche et de l’exploitation.
- « Mon Univers » : Les Arbres. Texte de
- Gallus. Dessins de Jacques Dollé. 1 vol.
- 17,5 x 26, 30 p. Armand Colin, Paris, 1959.
- Prix : 2,85 NF.
- « Mon Univers » : Le Bestiaire. Texte de
- Gallus. Dessins de Bernard Kagane. 1 vol.
- 17,5 x 26, 30 p. Armand Colin, Paris, 1959.
- Prix : 2,85 NF.
- « Mon Univers » : Le Théâtre. Texte de
- Gallus. Dessins de Bernard Kagane. 1 vol.
- 17,5 x 26, 30 p. Armand Colin, Paris, 1959.
- Prix : 2,85 NF.
- Agréable collection pour les enfants, illustrée en couleurs, où ont déjà paru des albums sur les étoiles, les montagnes et les volcans, les poissons, les coquillages, les oiseaux sauvages, la voiture à travers les âges, etc. Le premier de ces nouveaux albums décrit, avec plus de détails qu’on ne l’attendait, séquoias, chênes, pins, bouleaux, peupliers, sapins et épicéas. Le deuxième présente cerfs, écureuils, moineaux, poissons rouges, girafes, tigres. Il faut bien choisir I
- L’homme et l’atome, par K. A. Schenzinger.
- Traduit de l’allemand par A. Pougetoux.
- 1 vol. 14 x 19, 314 p., 16 pi. hors texte.
- Coll. « L’Homme et l’Univers ». André Bonne,
- Paris, 1959. Paris : 9,60 NF.
- Souvent contée, l’histoire de la radioactivité, suivie par celle de la fission de l’atome, est cette fois romancée au maximum. Becquerel, les Curie, Rutherford, Fermi et bien d’autres se voient lancés dans des dialogues et des monologues aussi hypothétiques que posthumes. Mais au bout du compte, à condition d’ignorer préalablement l’histoire, on est à la fois instruit et distrait par cet ouvrage de vulgarisation intégrale.
- Addendum. —- La légende de la figure 10 de l’article de B. Dumortier sur le cri du Sphinx Tète de Mort (La Nature, février 1960, p. 66) était incomplète. Seul le tracé sonographique du haut était expliqué. Pour expliquer le tracé du bas, il convient d’ajouter les précisions suivantes : « Tracé donné par un instrument à lame vibrante utilisé avec chute du souffle entre le début et 'la fin ; la baisse de fréquence est très peu sensible ; il ne semble donc pas que l’épipharynx puisse se comporter comme une lame vibrante pendant l’expiration, puisque le cri qui prend naissance à ce moment laisse apparaître, au contraire, une chute de fréquence très prononcée (v. fig. 9). » Ajoutons que la substance de cet article était tirée d’une note de R. G. Busnel et B. Dumortier dans le Bulletin de la Société Entomologique de France (1959, 64, 44-5S).
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- A VENDRE : La Nature (parfait état), vol. reliés : 1882 à 1911, brochés : 1912 à 1950. G. GÉNIN, 14, rue Chanzy, Nanterre (Seine).
- A VENDRE : Collection La Nature, 1908 à 1932 inclus, reliée cuir. DANton 53-00.
- A VENDRE : La Nature, année 1941, 1946 et 1948 à 1955 inclus. Écrire : M“* KLONINGER, 2, cours Bayard, La Roche-sur-Yon (Vendée).
- A VENDRE : Coll, de fossiles (Sec., Tert.), 400 pièces, prix intéressant. BONNET, 49, rue de Montgeron, VILLENEUVE-le-ROI (S.-et-O.).
- Le gérant : F, Dunod. — dunod, éditeur, paris. — dépôt légal : ier trimestre i960, n° 3528. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 4û63. — 3-ig6o.
- p.136 - vue 139/558
-
-
-
- N° 3300
- Avril I960
- LA NATURE
- LA GREFFE DES TISSUS chez les Vertébrés supérieurs
- L’étude des greffes, bien qu’ancienne, est toujours d’une grande actualité : chaque jour affluent vers les hôpitaux les victimes d’accidents provoqués par la vie moderne, ainsi que des malades atteints par des tumeurs cancéreuses. Mais notre organisme ne supporte pas les plaies trop étendues, ses capacités de régénération sont limitées et ne parviennent pas à combler des vides trop importants occasionnés dans les tissus, ee qui laisse une porte ouverte à l’infection. Pour remplacer les parties détruites il faut donc, soit stimuler par un artifice quelconque la croissance et l’organisation des éléments sains, soit apporter des tissus nouveaux de même type qui se souderont à leur emplacement avant d’assurer leurs fonctions normales : c’est la greffe proprement dite.
- Cette opération peut être effectuée chez l’homme si le gref.-fon a été prélevé sur le malade lui-même (autogreffe), condition sans laquelle le succès n’est en général que temporaire, les tissus étrangers étant-alors plus ou moins rapidement éliminés. Tout se passe comme si l’organisme « reconnaissait » ses propres éléments et possédait une incompatibilité marquée pour les tissus d’un autre individu. Cette restriction n’a pas autant de valeur chez les Vertébrés inférieurs : ori peut greffer sans difficulté des parties importantes chez une salamandre, même si le greffon appartient à une autre espèce. Mais la greffe n’est plus possible qu’à l’intérieur de l’espèce (hétérogreffe)dors-qu’on s’élève dans l’échelle zoologique; l’antagonisme entre adultes d’espèces différentes s’affirme pour devenir une incompatibilité complète entre individus de la même espèce et de la même portée.
- Dans tous les cas cette barrïère.a pour origine une réaction de défense : l’immunité. Elle ii’dst pas immédiate car l’organisme a besoin d’un certain délai pour fabriquer les substances agissantes, les anticorps. En empêchant son action par des expériences appropriées, elle ne fait souvent qu’interrompre une évolution favorable de la greffe.
- Au cours d’une cicatrisation s’établissent des mouvements cellulaires des bords vers le centre de la plaie et des divisions nombreuses au sein de tous les tissus lésés. Dans le cas d’une réparation de la peau, le derme et le sous-cutané produisent un tissu spécial dont la masse dense et très riche en capillaires sanguins servira de soubassement indispensable à l’évolution ultérieure du système. Les cellules conjonctives se déplacent et se multiplient activement, tandis que l’épiderme tend à recouvrir l’ensemble. Lorsque la plaie est fermée, cette évolution n’est pas terminée pour autant : au cours de transformations plus lentes s’observent des remaniements cellulaires accompagnés d’un épaississement des tissus, de leur consolidation par des fibres collagènes, et de la pénétration de nouvelles fibres nerveuses.
- Ce processus voit diverses phases se succéder dans un ordre déterminé; les divers éléments constituants s’influencent mutuellement pour former une structure définitive. Dans le cas
- de la peau l’absence du soubassement vascularisé empêche la croissance de l’épithélium. Inversement la suppression dé celui-ci amène de profondes perturbations dans le développement du tissu dermique placé à son contact. On ne peut donc espérer réaliser une greffe si cet équilibre n’est pas strictement respecté.
- Ces actions réciproques intéressent beaucoup les biologistes.
- Fig. 1. — Fragment de poumon de poulet associé à un fragment de poumon de souris.
- P, poulet ; S, souris. En haut, cellules épithéliales de poumon de souris ; bronchiole dont les parois sont faites d’un côté de tissu de poulet, de l’autre côté de tissu de souris ; grossissement : x 400. En bas, bronchioles de souris proliférant dans un conjonctif de poulet.
- (Photos aimablement communiquées par M. Etienne Wolff).
- p.137 - vue 140/558
-
-
-
- 138
- Fiç. 2. — Chimère de deux tissus d'espèces différentes.
- Un fragment de testicule de souris (S) a été associé à un fragment de testicule de poulet (P) ; les deux tissus ont fusionné et ont développé des formations mixtes. En haut, grossissement : x 75. En bas, à un plus fort grossissement ( x 1 040) le tube mixte montre l’alternance des cellules de souris et de poulet.
- (Photos aimablement communiquées par M. Etienne Wolff).
- Il doit s’agir, à un échelon plus restreint, de phénomènes analogues à ceux que présente l’embryon, lorsque certains territoires règlent la croissance et l’organisation des feuillets avoisinants placés sous leur contrôle.
- M. Étienne Wolff, professeur au Collège de France, a étudié le comportement de nombi-eux tissus d’origines différentes, lorsque ceux-ci sont placés ensemble dans les conditions artificielles de la culture in vitro. Ses expériences mettent en contact des expiants qui ne proviennent pas de la même espèce, en faisant appel à divers organes embryonnaires, dont la vitalité en culture est plus grande que celle des éléments adultes. Les fragments d’organe placés l’un contre l’autre ne tardent pas à montrer d’intéressantes actions réciproques (fig. i et 2) : par exemple des tubes bronchiaux de souris poussent leurs arborisations dans du mésenchyme pulmonaire de poulet, créant ainsi une association qui ne serait guère possible dans un animal adulte. L’incompatibilité entre espèces ne se manifeste donc pas dans les tissus embryonnaires.
- On observe aussi des phénomènes d’induction qui simulent ceux de l’embryon; des organes complètement différents par leur origine et leur fonction ultérieure se soudent intimement et s’infligent mutuellement de profondes modifications. Des bronchioles de poulet se raccordent volontiers à une thyroïde du même animal et la structure des canalicules passe insensiblement à celle de la glande. Ils peuvent de la même façon se raccorder à des tubes rénaux, le passage d’une structure à l’autre étant rendu très progressif par les changements de structure et de différenciation que subissent les deux organes au contact de leur partenaire. On peut aussi obtenir parfois des tissus où les cellules proviennent indifféremment d’une espèce ou d’une autre; des fragments de testicule de souris et de canard se développent sous une capsule conjonctive commune et paraissent former un organe unique en mosaïque. Il arrive que les cellules de deux sortes alternent dans un même épithélium glandulaire et collaborent à la formation d’un même tube.
- p.138 - vue 141/558
-
-
-
- 139
- Il n’est pas rare de voir l’épithélium d’un greffon exercer chez l’hôte une action sur les cellules conjonctives, lesquelles tendent à assumer leur rôle protecteur et nourricier. Ces faits suggèrent une certaine parenté entre les tissus homologues, comme l’exprime déjà le langage descriptif des histologistes. Ils sont probablement l’expression des lois fondamentales qui règlent le développement des organismes, et sur lesquelles nos connaissances sont encore fragmentaires. Ce sont peut-être des analogies structurales profondes à l’échelon moléculaire que les incompatibilités entre espèces ne font que masquer.
- Des tissus humains peuvent être greffés directement sur la membrane chorio-allantoïdienne d’un embryon de poulet de 10 jours : cette membrane, très riche en vaisseaux sanguins, tapisse intérieurement une grande partie de la coquille et permet d’observer commodément les premiers stades de l’installation du greffon qui est déposé à sa surface. Celui-ci modifie aussitôt l’équilibre de la membrane : l’ectoderme régresse, le mésenchyme s’enrichit de nombreux capillaires qui pénètrent dans le greffon et finissent par supplanter complètement les vaisseaux de celui-ci. L’ensemble s’enfonce profondément dans la membrane; la greffe survivra jusqu’à ce que celle-ci commence à régresser, peu avant l’éclosion (fig. 3). L’opération n’est sans doute permise que par l’impossibilité ou se trouve l’animal au stade de l’embryon de développer une immunité contre les cellules du donneur.
- La réaction d'immunité. — La vitalité des tissus n’offre aucun obstacle fondamental à la transplantation,..mais l’organisme entier y oppose ses propres réactions de défense. On sait que l’injection de divers produits à poids moléculaire élevé, les antigènes, amène la libération dans le sang de substances qui les neutralisent, les anticorps. Les antigènes peuvent exister à l’état libre, ou encore être portés par des cellules, des bactéries ou des virus; les anticorps restent eux-mêmes souvent fixés à des cellules du sang; ils ne neutralisent que l’antigène correspondant ou une gamme limitée d’antigènes. La naissance de l’immunité est donc un phénomène très sensible et permet de déceler les différences infimes qui peuvent exister entre deux substances complexes bien définies, qu’aucune autre méthode physique ou chimique ne permettrait d’apprécier. La plupart des antigènes sont des corps à poids moléculaire élevé, principalement des protéines, bien que parmi celles-ci certaines soient de très mauvais antigènes; certains anticorps ne réagissent strictement que sur la protéine correspondante, d’autres se montrent actifs sur un nombre plus ou moins grand de produits. Des antigènes artificiels ont été fabriqués en attachant à des protéines divers groupements chimiques connus; or ces nouvelles entités peuvent donner lieu à la formation des anticorps comme s’il s’agissait de substances naturelles. On admet généralement que la nature et la disposition des détails de structure portés par la molécule influent sur le modelé de l’anticorps, un peu comme en prenant le moule d’une serrure on parvient à fabriquer une clé qui s’y adapte exactement.
- On conçoit qu’il y ait non seulement une variété presque infinie d’antigènes, mais des degrés dans leur spécificité, car certains correspondent à des anticorps qui neutralisent en même temps d’autres antigènes plus ou moins apparentés par leur structure au premier. C’est ce que montre l’étude des produits artificiels et aussi l’expérience intéressante suivante : puisque les protéines peuvent être dégradées en leurs éléments constituants, les acides aminés, on pourrait théoriquement reconstituer des protéines différentes en formant une chaîne où les acides aminés se succéderaient dans un ordre différent. On a su faire des polymères d’acides aminés où n’entre qu’un seul d’entre eux, par exemple la lysine, la leucine ou l’acide glutamique. Bien entendu il ne s’agit pas de véritables protéines, tout juste de « polypeptides » particuliers, néanmoins suffisants pour qu’il soit possible d’immuniser contre eux des
- lapins. Or les anticorps qui sont alors produits réagissent non seulement sur le polypeptide correspondant mais sur un certain nombre de protéines naturelles où doivent exister en quelques points de leur constitution des arrangements similaires.
- Le rejet d’une greffe permet donc de déceler des différences très petites entre les antigènes cellulaires des deux partenaires. On peut dans certains cas gêner l’action des anticorps. Prenons le cas d’un cobaye recevant un greffon de peau d’un autre cobaye. Le sujet n’étant pas immunisé contre les tissus du don-
- Fig. 3. — Greffe d'un fragment de peau sur la membrane chorio-a liantoïdienne de l’embryon de poulet.
- Vue schématique en coupe. A, greffon de peau (<7) comprenant un épiderme (hachuré) et un derme avec vaisseaux sanguins (pointillés) ; membrane (mca) avec un ectoderme, un mésoderme où se trouvent les vaisseaux sanguins, et un endoderme qui limite la cavité amniotique. B, soudure du greffon, régression de l’ectoderme au-dessous, et pénétration des vaisseaux du porte-greffe dans le greffon. C, ces vaisseaux supplantent ceux du greffon. D, régression générale du greffon avec invasion de globules blancs.
- 'TTWm».
- :'.r. .«.no.-.:'.,’>!
- neur, le greffon commence à se souder au lieu d’implantation, des capillaires de l’hôte le pénètrent, la greffe pâraît « prendre ». Au bout de quelques jours se déclençhe la réaction d’immunité : les vaisseaux se dégradent, il apparaît une inflammation qui tend à désolidariser le greffort-ides tissus sous-jacents; c’est bientôt la destruction complète de l’explant et
- son expulsion. Si par la suite ce cobaye est utilisé pour effectuer une deuxième greffe à l’aide du mê^ë5‘tTonnèuî:,*îé£ anticorps déjà présents ne laisseront pas le, ternes à JPexpla,nt,. def se développer et la réaction devient^fiplq§,:«iédÇfr. moment que le chercheur américain Ai l Algirè interpose entre ce nouveau greffon et son lit- d’implantStioh ùnç mérn-’ brane perméable aux substances,;4),ssQîi|ss"!:'^i^|q>a^le pêcher tout échange de cellules de.; part etud’autre de l’association. Faute d’une vascularisation produite par l’hôte le greffon ne peut se nourrir q:U,e. par.ïdiffu?iç)p.. à!(trayçüçs la mçrn-brane, ce qui le place dans,f ïp îÇôndjUioiJgf^’JW1? sA(ériLq.î>l culture in vivo. Même si1^9rpteA^|_J^xteme^t;^pfitpis.é;rc9plrq,, les cellules étrangères, ^’^xpla^tq.est a&surjç- c^une? sp^yiè^prf}-^ longée. Comme les aritiçflfps^.pjeuverit. ..travergçr^librement.: la, membrane, on en dé^Ujit^qMpkfàjqt, popr j "’a ..grê-ffo^^
- le contact direct dc.ip^rt^es.,,cç.Uwieâ;4:den x hôte qp| yreùpe.nti;, livrer l’anticorps (<.q|3^opaticil^,,)). ^iReuï-être <jes cç|ljuiesr: spp^{ elles les lymphoç^te.s.(^uKsa^.£54Ïvnegs]a,gj,.tjdonp pas.;4u-;.t^p^,l^ plus classique d’immunité où .les"principes actifs sont déversés
- directement dans, le 1 plasma, à partir de cçeîlùles spébialisees, , c sllsiolFfi, sïoilsio^oq pn;;r,uA par; «et
- disséminées dam tout lprgamsme. La nature meme de ces . , c 5bvssp<r,&n -ms*as a J .&wq ÿi su eam s antigenes est, suîef te a .-controverse : ce sont des, nucleoprotemes , ° „ 2$ l ..Tïern ai so uo. si8«r ua a/îr;;. ai ,*amt
- (lesquelle^ continuent les acides nucléiques),,ou des prpte.ines
- p.139 - vue 142/558
-
-
-
- 140
- complexes liées à la surface de la cellule et contenant des groupements lipidiques.
- Immunité et génétique. — De nombreux faits suggèrent que les antigènes des tissus sont sous l’étroite dépendance des caractères héréditaires de l’individu. Plus ceux-ci diffèrent entre le donneur et le porte-greffe, plus la réaction de défense sera violente et exclusive. Il existe tous les intermédiaires entre les remaniements légers auxquels donne lieu une autogreffe (correspondant à une simple cicatrisation), la lente infiltration lymphocytaire et la résorption graduelle d’une homogreffe, la pénétration brutale par le conjonctif et le rejet de l’expiant quand les espèces sont différentes.
- C’est pourquoi il est commode d’expérimenter à l’aide d’animaux de laboratoire, comme la Souris, pour lesquels il est facile d’obtenir des lignées génétiquement pures. Celles-ci ne contiennent que des sujets homozygotes, où chaque gène- est représenté par deux allèles semblables. Si on croise de telles lignées, les descendants de la première génération ont, en l’absence de tout crossing-over, tous les allèles provenant de chacun des deux parents. Cette situation se répercute sur les résultats des greffes : alors qu’un des parents ne peut être greffé que par un individu de la même souche, l’hybride accepte indifféremment des expiants provenant, soit des parents, soit des animaux de la même souche que ecux-ci (fig. 4).
- X CB A
- ride
- Fig. 4. — Transplantabilité des tissus après croisement de deux lignées pures.
- Les flèches noires indiquent le sens dans lequel la greffe est couronnée de succès ; les flèches en trait interrompu celui dans lequel l’opération est suivie d’un échec. Les deux parents appartiennent à des souches qui diffèrent par au moins un allèle. Comme ils sont homozygotes (les chromosomes de chaque paire ont les mêmes gènes) leurs descendants de la première génération (F,) sont forcément hétérozygotes et possèdent les allèles de l’une et l’autre souche.
- On a reconnu au moins quinze antigènes responsables de l’immunité de transplantation chez la Souris; certains sont représentés par de très nombreux allèles et suffisent à eux seuls à donner de très fortes incompatibilités. Il y a donc une relation intéressante entre l’appareil génétique de la cellule, dont la ‘ "x constituée par des acides nucléiques, et les détails de structure antigénique révélés par l’immunité, autrement dit des rapports étroits entre les acides nucléiques et la configuration des molécules synthétisées par la cellule.
- Les Sujets homozygotes ne constituent qu’une exception dans lés cas courants. Aucune population naturelle ne peut être assimilée à une lignée pure. Un enfant ne possède donc nullement la totalité des gènes du père ou de la mère; les tissus ne peuvent être greffés ni dans un sens ni dans l’autre. A l’incom-
- patibilité quasi générale qui règne dans une même famille les jumeaux apportent quelques exceptions. S’il s’agit de jumeaux vrais (issus de la même cellule-œuf) la greffe d’un sujet à l’autre réussit parfaitement et ressemble à une autogreffe, ce qui montre la similitude génétique complète imposée par une origine commune. aDans d’autres cas, provoqués expérimentalement ou non, se produisent des échanges entre les circulations de deux jumeaux à l’état fœtal et, même si les caractères génétiques diffèrent, ils deviennent tolérants aux tissus de leur partenaire pour des raisons que nous examinerons plus loin.
- L’influence des caractères génétiques sur l’antigénicité est depuis longtemps connue chez l’Homme grâce aux groupes sanguins. Les deux agglutinogènes A et B portés par les globules rouges correspondent aux agglutinines a et fi du plasma; ils subissent les lois de l’hérédité. Dans le groupe A se trouvent l’agglutinogène A et l’agglutinine [}, dans le groupe B se trouvent B et a. On trouve aussi les combinaisons AB, où il n’y a pas d’agglutinines, et O, où il n’y a que les agglutinines d et [L Lorsque s’effectue une transfusion l’introduction dans l’organisme des globules rouges porteurs de leurs agglutinogènes ressemble à une greffe. Lorsque ceux-ci, A par exemple, se trouvent en présence de l’anticorps a que possède le; groupe B, il en résulte une incompatibilité. A ne reçoit que O et A, B ne reçoit que O et B. Quant à AB on peut lui transfuser indifféremment n’importe quel sang, alors que pour O il faut-utiliser O (les agglutinines du sang transfusé sont sans action par suite de leur dilution. dans l’organisme récepteur)..
- Naturellement les groupes sanguins sont nombreux, mais leur variété n’atteint jamais celle des antigènes des cellules normales, parce que les globules rouges ne reçoivent qu’une gamme incomplète des antigènes de l’individu.
- Bréphoplastie et tolérance. — De nombreuses observations montrent que les tissus embryonnaires peuvent être greffés sans inconvénient chez l’adulte où ils ne font apparaître aucune immunité; c’est ce type de greffe que M. R. M. May, professeur à la Sorbonne, a appelé bréphoplastie. Les antigènes n’apparaissent donc que tardivement au cours du développement; à un stade trop précoce les expiants n’ont pas acquis l’individualité chimique nécessaire pour provoquer leur rejet par un hôte plus âgé de la même espèce. Joint à un potentiel de croissance plus considérable, cet état leur permet de s’intégrer harmonieusement à un autre sujet et de s’y maintenir indéfiniment.
- Il est donc possible que les caractères immunologiques ne soient pas déterminés une fois pour toutes par l’hérédité du donneur mais puissent se modifier et s’adapter à celle du porte-greffe, pourvu que le prélèvement ait eu lieu suffisamment tôt. Dans cette formule tout se passe comme “si l’hôte ne pouvait plus distinguer les cellules étrangères de ses propres éléments; mais l’embryon n’est pas la seule source d'explants qui permette une survie indéfinie de la greffe : nous citerons deux cas où la tolérance s’exerce sur les tissus de donneurs plus âgés.
- Le premier repose sur le travail de M. Max Aron, à la Faculté de Médecine de Strasbourg, qui a obtenu avec succès la greffe de l’hypophyse du Cobaye adulte dans le testicule d’un animal de la même espèce; la glande greffée dans ces conditions évolue normalement et se met à fonctionner au point de pouvoir remplacer l’organe normal quand celui-ci a été détruit. L’expérience réussit également si le greffon est à l’état d’ebauche embryonnaire. La présence de l’hypophyse produit dans le testicule un effet comparable à celui qu’on obtient normalement en soumettant l’animal à des doses excessives de l’hormone, qui par elle-même stimule le fonctionnement des glandes sexuelles. L’activité de l’expiant est donc mise en évidence par l’effet de la concentration anormale de l’hormone dans le testicule. D’autres organes donnent lieu à des observations similaires. Il existe peut-être dans l’organisme des emplacements
- p.140 - vue 143/558
-
-
-
- 141
- où les conditions sont plus favorables qu’ailleurs, comme le montrent certains essais effectués dans la chambre antérieure de l’œil. Quelques tissus peuvent aussi apporter des facteurs favorables.
- Le second exemple concerne l’induction de la tolérance chez des sujets jeunes. Si des souriceaux nouveau-nés de lignée pure reçoivent les tissus d’une souris adulte appartenant à une autre souche, ils deviennent par la suite incapables de développer une immunité contre des greffons du même donneur ou de la même souche. Cet état définitif ne s’obtient que si l’injection .a lieu au plus tard 4 jours après la naissance des souriceaux. Passé ce délai s’installerait l’immunité complète. Cette tolérance induite est aussi sous la dépendance de facteurs génétiques très stricts. Dans l’exemple cité plus haut il est facile de comprendre que tout individu A rendu tolérant aux cellules d’un hybride de première génération de la souche CB A, le devient aussi pour la souche CB A elle-même. C’est ce que l’expérience permet de vérifier (Medawar et collaborateurs).
- Ce type de tolérance permet donc de modifier à l’avance la réponse immunitaire de l’hôte avant que celui-ci ait atteint le stade où il lui _est désormais possible-Me fabriquer des anticorps. Chez l’Homme les anticorps ne font leur apparition que plusieurs mois après la naissance. : .le nourrisson, n’est protégé contre de multiples infections que par les anticorps de la mère qui ont diffusé à travers le placenta au cours de la vie fœtale et s’épuisent progressivement par la suite.
- L’induction de. la tolérance est un phénomène troublant. Tout se passe comme si l’organisme « reconnaissait » les éléments étrangers au même titre que ses propres tissus, dès la mise en route de la production des anticorps. A partir de ce stade il devient immunologiquement adulte, mais il n’est pas impossible que les antigènes étrangers persistent; cette éventualité a été le point de départ d’une découverte surprenante. On peut obtenir la tolérance en injectant de jeunes souris avec les cellules de la rate d’un animal âgé. Il n’est pas rare qu’au cours de leur croissance les sujets traités manifestent une anomalie : la taille reste inférieure à la moyenne, il apparaît diverses lésions internes dans le foie, la rate, le thymus, tous les éléments lymphoïdes; ces animaux périssent alors en quelques semaines. Le mal est d’autant plus sévère que les souriceaux appartiennent à une souche plus éloignée de celle du donneur; il atteint son maximum quand le donneur a déjà été immunisé contre les tissus du porte-greffe (Billingham). Ces observations ont été vérifiées sur d’autres animaux de laboratoire et ont mis en évidence la persistance des cellules greffées chez l’hôte, tandis que la tolérance s’installe. Ces cellules proviennent presque toujours des éléments lymphoïdes; elles peuvent donner lieu à une multiplication énorme; comme elles tirent leur origine d’un organisme adulte (immunologiquement mûr), elles sont sensibles aux antigènes de l’hôte et libèrent contre lui des anticorps. On assiste donc à une réaction du greffon contre l’hôte qui a été rendu tolérant.
- Cette observation intéressante laisse imaginer ce qui se passerait si le sang du fœtus n’était pas isolé de celui de la mère par un placenta. L’absence de séparation mettrait le jeune à la merci des* réactions d’immunité de la mère, car il n’a pas en général les mêmes caractères héréditaires, donc les mêmes antigènes. Mais il deviendrait tolérant pour les tissus maternels et la persistance de cellules intruses pourrait provoquer des désordres graves. Il n’est pas exclu que certains éléments mobiles de la mère puissent traverser accidentellement le placenta : c’est peut-être la raison de certains troubles hémolytiques rares du nouveau-né dont la présence n’est pas liée au facteur « Rhésus ». Aussi pour certains le placenta est-il « la barrière qui préserve l’espèce de son extinction immunologique ».
- Applications de la greffe. — Devant l’urgence du problème de nombreux procédés ont été mis en œuvre afin d’as^
- surer la survie, même temporaire, du greffon; jusqu’à ce jour aucune solution tout à fait définitive n’a été trouvée. On ne peut néanmoins passer sous silence les succès importants réalisés par la médecine au cours des dernières années.
- En soumettant l'organisme à l’action des radiations ou de la cortisone on peut détruire ou arrêter temporairement le fonctionnement de l’appareil lymphatique et de la moelle des os. La production des anticorps est alors suspendue. L’opération n’a cependant qu’un succès temporaire et permet rarement le maintien définitif du greffon, bien que la survie plus longue de celui-ci puisse favoriser la guérison de la blessure ; , elle a l’inconvénient de laisser une porte ouverte à toutes les infections. On se souvient du cas des cinq savants yougoslaves traités en France des suites d’une irradiation accidentelle. On observait chez les malades une dépression importante du pouvoir mitogène de la moelle des os : le sang s’appauvrissait de jour en jour en globules blancs ; la moindre infection risquait de leur être fatale. Les patients étaient donc dans l’impossibilité d’offrir une réaction quelconque à une greffe de moelle osseuse humaine, laquelle fut effectuée avec succès et permit de mettre les cinq personnes hors de danger. Il est possible que les effets de l’irradiation n’aient été que temporaires et qu’un peu de moelle autochtone ait survécu. La moelle étrangère a donc pu survivre pendant la période de tolérance complète, en assumant les fonctions de la moelle normale avant sa lente récupération; avant d’être éliminées les cellules greffées auraient donc assuré provisoirement le rôle essentiel alors que leur présence n’était plus indispensable. Cette expérience est cependant un succès riche d'enseignements à longue portée.
- On s’efforce actuellement de réduire l’antigénicité des expiants par des traitements spéciaux, comme la culture in vitro ou le froid. Ces méthodes pourraient remplacer la bréphoplastie dont l’application sur une grande échelle chez l’Homme est difficile. On se souvient des problèmes soulevés par la persistance toujours possible des éléments lymphoï,des appartenant au greffon et capables de réagir contre l’hôte.;. Une analyse détaillée de ce phénomène est donc nécessaire afin 4’écarter tout risque d’accident. .
- La greffe de la cornée est à l’heure actuelle une technique éprouvée qui a rendu d’immenses services. Le greffon peut être prélevé sur des cadavres aussitôt après la mort et conservé au froid sans perdre sa transparence. La cornée est un tissu à régénération extrêmement active où des lésions ont tôt fait de s’effacer. Or pour des greffes de petites dimensions il n’est pas nécessaire pour tous les tissus que le greffon survive indéfiniment. L’importante trame moléculaire sur laquelle est basée entre les cellules l’architecture de nombreux tissus, en particulier la peau, les os, le conjonctif, sert de guide à la reconstruction des parties manquantes. Peu à peu l’expiant est recolonisé par les éléments avoisinants qui prennent la place des cellules étrangères en conservant la charpente interstitielle; il devient l’appareil organisateur et stimulant de la guérison. On peut ainsi utiliser des greffons de peau ou d’os qui ont été conservés longtemps au froid : c’est le principe de la banque des tissus.
- Il n’est pas toujours facile de déterminer si les cellules du donneur se maintiennent chez le malade; pour en être certain il faudrait faire une étude histologique précise qui n’est souvent pas possible. Cette condition est tout de même nécessaire quand il s’agit de plaies très étendues, comme c’est le cas des plus graves brûlures, où seuls une autogreffe ou divers succédanés peuvent être employés.
- Transplantation du cancer. —- L’importance théorique et pratique dé ce problème a donné lieu à une quantité énorme de travaux. Le cancer se comporte comme une entité propre, qui échappe aux contrôles multiples auxquels sont soumises les divisions des cellules normales, tout en prenant des caractères particuliers. Il ne s’agit pas, comme on le croit souvent, d’un
- p.141 - vue 144/558
-
-
-
- 142
- retour vers un état embryonnaire. L’aspect de certaines cellules tumorales peut y faire penser, mais nombreuses sont celles qui ont des caractères de différenciation poussée. De toute façon un tissu cancéreux ne peut guère produire que des structures apparentées à celle du lieu où il a pris naissance : sa disposition reste souvent caractéristique d’un type de cellules déterminé. Ce qui différencie le plus ces tumeurs des éléments normaux, c’est leur comportement invasif et indépendant de toute action de voisinage, lié à divers aspects qui échappent à tout critère absolu.
- L’aptitude des tissus cancéreux à la transplantation est en général plus grande que celle des tissus normaux, comme si les anticorps du porte-greffe étaient moins efficaces pour détruire la greffe. C’est d’autant plus remarquable que les tumeurs présentent une grande instabilité : les transformations y sont incessantes, la viabilité des cellules est diminuée et n’est compensée que par l’abondance des divisions. Celles-ci sont souvent anormales et permettent d’observer d’importantes anomalies du nombre et de la forme des chromosomes (voir La Nature,
- avril 1969, p. i53). On a pu vérifier directement que les cellules cancéreuses se distinguent par la perte à un degré plus ou moins poussé des antigènes qui s’opposent habituellement à la greffe des tissus normaux. Ces cellules seraient également dépourvues d’autres antigènes, spécifiques d’organe, ce qui faciliterait leur pouvoir d’invasion au sein de l’organisme. Elles pourraient donc s’affranchir aisément de la plupart des barrières immunologiques que nous connaissons, tout en se modifiant sans cesse. Les tumeurs peuvent cependant libérer des anticorps contre leur hôte et engendrer chez celui-ci une maladie hémolytique. Aussi les chercheurs s’efforcent-ils actuellement d’améliorer nos connaissances sur la nature des antigènes et des anticorps, leur voie de synthèse et les modifications qu’apportent les facteurs cancérigènes que nous connaissons : carbures, hormones, radiations, etc. Il est possible de trouver par là une clé du problème sans laquelle bien des tentatives resteront vouées au hasard.
- Jean Pelmont,
- Agrégé de rUniversité.
- Organismes marins fluorescents à l’ultraviolet
- En, 1957, M. Calala a fait connaître les effets de fluorescence produits sur des coraux de profondeur par irradiation de rayons ultraviolets (voir C. R. Académie des Sciences, 10 novembre 1958). Ces premiers essais ont été faits sur des coraux récoltés entre 35 et 4o m de profondeur à l’intérieur du lagon de Nouméa, à 10 milles environ de la Station de Biologie marine. Ces coraux, du groupe des Flagellum, transportés au laboratoire et soumis à l’irradiation, donnent une fluorescence verte d’une grande intensité. Les recherches de M. Catala ont été poursuivies et ont donné lieu à une nouvelle publication (Académie des Sciences, 8 février i960). 11 a été ainsi reconnu que les coraux de faible profondeur, recueillis entre 1 et 3 m, de même que beaucoup d’autres organismes marins, réagissent à l’action des radiations ultraviolettes de 3 800 À de longueur d’onde.
- Parmi ces organismes M. Catala cite un Alcyonnaire (Soleno-podium steckei) provenant du lagon, à 35 m de profondeur, dont les polypes bruns en lumière du jour, deviennent en fluorescence d’un vert brillant intense; des Actinies non déterminées, voisines d’Anemonia, dont les tentacules deviennent rougeâtres avec l’extrémité vert vif; des Comatules non identifiées, à teinte normale jaune mat, qui passe sous les ultraviolets à
- une teinte lumineuse dorée. A son récent passage à Paris, dans une conférence faite à l’Institut Pasteur, M. Catala a projeté une série de remarquables photographies en couleurs qui ont permis aux spectateurs de se rendre compte de la splendeur des teintes obtenues par l’irradiation.
- Une étude histologique a été faite par M. Yves Peloux (même n° des C. R. de VAcadémie des Sciences) dans le but de rechercher le support des propriétés fluorescentes. En ce qui concerne les organismes à fluorescence verte, on peut localiser ce support au niveau de cellules chargées de granulations, nettement visibles après coloration, bien que la substance fluorescente elle-même disparaisse au cours des opérations d’inclusion. Chez le corail Goniopora lobata, les cellules à granulations sont localisées dans l’endoderme, enchevêtrées avec de nombreuses algues. Par contre, chez le Zoanthaire Euphyllia, la fluorescence est limitée à l’ectoderme.
- Dans l’ensemble, les résultats actuels montrent qu’un certain nombre d’espèces seulement réagissent à l’irradiation et que les individus d’un même groupe donnent les mêmes couleurs de fluorescence qui sont le vert avec toutes ses variantes, le bleu, rougeâtre, beige, marron, brun foncé ou gris. Le phénomène cesse aussitôt que cesse l’excitation. L. C.
- La salinité de
- L’eau de la Mer Noire diffère, par sa composition chimique, de celle des mers ouvertes et des océans. Sa teneur en sels, en effet, est assez différente. Dans un récent article, la revoie soviétique Priroda a donné quelques précisions intéressantes sur la salinité de la Mer Noire. Cette salinité varie considérablement avec la profondeur. La variation est surtout .très nette aux faibles profondeurs, comprises entre o et i5o m, ce qui apparaît clairement sur la courbe que nous reproduisons. Ce qui est vraiment remarquable, c’est que la salinité de la Mer Noire varie avec la profondeur beaucoup plus que ne varie la salinité des océans. Signalons également une autre particularité révélée par l’analyse de la composition chimique de l’eau de la Mer Noire : cette eau est plus riche en bicarbonates que l’eau des océans, mais sa teneur en autres sels est moins élevée.
- C. M. *
- la Mer Noire
- 100 300500 W00 1500
- Pr a Fondeur en mètres
- Fig. 1. — Salinité moyenne de la Mer Noire selon la profondeur.
- p.142 - vue 145/558
-
-
-
- Pionnier V, record de distance de liaison radio
- 143
- Une intéressante expérience spatiale est en train de se dérouler : pour la premièi’e fois un engin, Pionnier V, transmet des renseignements sur les conditions physiques qui régnent dans l’espace interplanétaire.
- La dernière expérience tentée par l’Agence américaine pour l’Aéronautique et l’Espace (N.A.S.A.) revêt en effet un double caractère d’originalité : l’engin, lancé le 12 mars à i4 h (heure française), devait être le premier à s’approcher de l’orbite d’une autre planète : Vénus. Un tel essai n’aurait pas eu de signification si aucune observation n’avait pu alors être transmise au sol. Aussi Pionnier V devait-il être aussi le premier à être « entendu » à une distance d’environ 80 millions de kilomètres.
- #
- * *
- La première partie de l’expérience s’est soldée par un échec partiel : l’engin a bien atteint, lors de son lancement, la vitesse parabolique mais non la vitesse qui avait été choisie : n i55m/s. Aussi ne s’approchera-t-il pas de l’orbite de Vénus à moins de plusieurs dizaines de millions de kilomètres. Les caractéristiques de l’orbite qu’il est appelé à décrire sont déjà connues : elle est presque circulaire et se situe à une distance moyenne du Soleil d’environ 145 000 000 km. La période de révolution doit être de 3ii jours (365 jours pour la Terre, 225 jours pour Vénus).
- On peut se demander pourquoi il faut imputer l’échec de la tentative à un défaut de vitesse lors du larguage de l’engin dans l’espace. En effet, ne sait-on pas que tout engin qui part moins vite qu’il n’avait été prévu est animé sur sa trajectoire d’une vitesse supérieure à celle qui aurait dû être la sienne ? L’explication de cette première anomalie est bien connue : la vitesse restante (calculée par rapport à la Terre), c’est-à-dire la vitesse dont l’engin est théoriquement animé à l’infini après avoir surmonté l’attraction terrestre, est égale à la racine carrée de la différence entre la vitesse de lancement et la vitesse parabolique. Cette vitesse restante croît lorsque la vitesse initiale augmente. Pour lancer un engin en direction de Vénus, on le dirige en sens inverse du mouvement décrit par la Terre autour du Soleil, seule méthode pour obtenir une trajectoire qui se situe à l’intérieur de l’orbite terrestre. La vitesse de l’engin par rapport au Soleil est donc égale à la différence de la vitesse de la Terre calculée par rapport au Soleil et de la vitesse restante de l’engin. Cette vitesse par rapport au Soleil a donc tendance à diminuer lorsque la vitesse restante augmente. Inversement, elle augmentera lorsque cette dernière diminuera, c’est-à-dire lorsque la vitesse de lancement sera plus faible qu’il n’avait été prévu.
- Plus un corps céleste est situé près du Soleil, plus court est le temps de sa révolution autour de l’astre. L’engin lancé avec une vitesse inférieure aux prévisions devrait être amené à une distance du Soleil plus faible que celle qui avait été calculée. En bonne logique, Pionnier V, pour n’être pas parti assez vite, devrait avoir une orbite intérieure à l’orbite désirée. Comme cette dernière devait être tangente à l’orbite de Vénus et que ce point de rapprochement maximal devait se situer au périhélie de la trajectoire de l’engin, Pionnier V devrait pouvoir s’approcher du Soleil plus près que la planète, donc « couper » l’orbite de celle-ci.
- Pourquoi alors constate-t-on que c’est juste l’inverse qui se produit ? Tout simplement parce que, dans le raisonnement précédent, on a omis de tenir compte du fait que la vitesse par rapport au Soleil, que l’on obtient en soustrayant la vitesse restante de la vitesse de la Terre, est la vitesse à l'aphélie de la trajectoire et que, d’autre part, l’accroissement des vitesses
- des corps en rotation autour du Soleil, tel qu’il est couramment connu, porte sur les vitesses moyennes, inférieures aux vitesses à l’aphélie.
- *
- * *
- La deuxième partie de l’expérience, en revanche, semble devoir réussir : le 3o mars, 18 jours après son lancement, l’engin avait déjà parcouru une distance de 4 000 000 km et le contact radio était toujours satisfaisant. Le record établi par Pionnier IV, qui avait été « entendu » jusqu’à une distance de 655 000 km, est donc largement battu. Ce dernier avait d’ailleurs lui-même battu le record établi par Lunik I, que les stations terrestres avaient pu suivre jusqu’à 636 000 km.
- Deux circonstances expliquent cette nouvelle performance : d’une part, la puissance des émetteurs placés à bord de l’engin, et leur dispositif d’alimentation ; d’autre part, le diamètre de l’antenne réceptrice. Pionnier V, qui ne pèse que 4o,5 kg, est muni de deux émetteurs d’une puissance respective de 5 W et de i5o W, tous deux alimentés par des batteries solaires disposées sur des ailettes, et d’un récepteur. L’antenne utilisée est celle du radio-télescope de Jodrell Bank en Grande-Bretagne, qui mesure 75 m de diamètre. Le radio-télescope sert à écouter les émissions et à transmettre des signaux de télécommande.
- La distance à laquelle un signal peut être entendu est fonction de la puissance de l’émetteur et du diamètre du récepteur. La télécommande ainsi n’offre pas de difficultés, du moins jusqu’à une certaine distance : quoique l’engin n’ait pu, en raison de sa taille, être muni d’une antenne réceptrice de grandes dimensions, il recevra toujours les instructions qui lui seront données, puisqu’on peut disposer sur la Terre d’une puissance très élevée. Dans le sens inverse on est limité par le poids des installations que l’on peut faire à l’intérieur de l’engin et par les caractéristiques des récepteurs existants. L’émetteur de 5 W ainsi peut très bien être entendu par Jodrell Bank à plus d’un million de kilomètres, s’il dispose encore de suffisamment d’énergie pour fonctionner, donc s’il ne fonctionne que par intermittences, sur ordre donné par un mécanisme d’horlogerie ou par réception d’un signal envoyé par la station terrestre. La limite à laquelle l’émetteur de i5o W, le plus puissant qui ait jamais été disposé à bord d’un engin spatial, peut être entendu est naturellement beaucoup plus éloignée : on l’évalue à 80 000 000 km. C’est le diamètre du radio-télescope britannique qui impose cette limite. Si l’appareil de 200 m de diamètre dont la construction est projetée aux États-Unis avait été achevé, les signaux de l’émetteur auraient pu, théoriquement, être reçus jusqu’à une distance de i5o 000 000 km.
- Cette « portée » de 80 ooo' 000 km aurait été suffisante pour assurer la liaison radio au moment où l’engin aurait coupé l’orbite de Vénus. Si l’expérience avait été couronnée d’un succès complet, il aurait été possible de connaître certaines caractéristiques des conditions qui régnent à une distance du Soleil équivalente à celle de Vénus. Il est permis de supposer que d’autres essais auront pour objectif d’étendre le volume des informations recueillies sur cette partie de l’espace; mais s’approcher de la planète elle-même paraît devoir être très difficile et il est vraisemblable qu’aucun « tir à Vénus » ne pourra être raisonnablement escompté avant que l’on soit parvenu à modifier à distance la trajectoire de l’engin. Les trajectoires purement balistiques ne se prêtent ici qu’exceptionnelle-ment à un coup au but, et ceci quelle que soit la précision du pointage, puisque la Terre et Vénus ne gravitent pas dans le même plan.
- Nicolas Vickney.
- p.143 - vue 146/558
-
-
-
- Les Gorilles du Parc national Albert menacés de disparaître
- On pouvait espérer que la destruction impitoyable de la nature et de toutes ses richesses vivantes, se poursuivant partout à un rythme accéléré, s’arrêterait du moins au seuil des parcs nationaux que certaines nations plus clairvoyantes ont institués en quelques lieux privilégiés. Mais périodiquement, sous des prétextes divers, ces « sanctuaires » que l’on disait sacrés sont eux-mêmes menacés. Le fait que les êtres vivants qu’ils abritent constituent des reliques irremplaçables, l’intérêt scientifique et moral qui s’attache à ce patrimoine, voire l’intérêt pratique que certaines espèces peuvent acquérir dans l’avenir de façon imprévisible, rien de tout cela ne semble toucher suffisamment le cœur ni la raison des hommes dont dépend le sort de la planète.
- Tout près de nous, la forêt de Fontainebleau, malgré son immense intérêt scientifique et culturel, est menacée de destruction partielle par des projets d’extension de la ville qui ne présentent aucune nécessité et pourraient en tout cas se réaliser autrement; elle l’est plus dangereusement encore par le projet d’auto-route qui pourrait cependant (et à moindres frais!) la contourner. Partout dans le monde des dangers analogues pèsent sur les sites et les ensembles vivants qui devraient être le plus jalousement protégés.
- Un appel angoissé nous vient aujourd’hui de l’Institut des Parcs nationaux du Congo belge. Une œuvre magnifique de protection et d’étude, d’où sortent régulièrement des travaux remarquables, se trouve de divers côtés compromise. En parti-
- culier les efforts déployés depuis une trentaine d’années pour sauver les derniers représentants du Gorille de montagne risquent, à bref délai, d’avoir été inutiles. Est-ce pour édifier un barrage, exploiter une nappe de pétrole ? Même pas ! C’est simplement pour livrer de nouveaux espaces à la pullulation du misérable bétail que certaines tribus entretiennent superstitieusement comme marque de richesse et d’orgueil, alors qu’elles n’en tirent aucun usage économique!
- Rappelons que le Gorille de montagne (Gorilla g. beringei) se distingue du type par son pelage noir très développé, avec une grande tache blanche ou grise dans le dos, sa grande taille, ses membres plus courts, son cimier très marqué, avec une excroissance charnue. Il serait plus adapté que le type à la marche terrestre. La physiologie et les mœurs du Gorille sont encore très mal connues et en particulier celles du Gorille de montagne sur la spécificité duquel on discute (x).
- Le Gorille de montagne du Parc Albert devient donc le symbole de tout ce qui reste à sauver dans le monde pendant qu’il est encore temps. L’appel de l’Institut des Parcs nationaux du Congo belge, que nous reproduisons ci-après, est celui de savants désintéressés qui méritent d’être soutenus par les hommes éclairés de tous les pays.
- 1. Voir : Vie et mœurs des Anthropoïdes, par Maurice Matijis. Payot, Paris, 1954. L’auteur montre l’intérêt exceptionnel que présente l’étude des gorilles et la nécessité scientifique de leur protection.
- L’appel de l’Institut des Parcs nationaux du Congo belge
- En 1920, le naturaliste américain Cari Akeley effectua une exploration dans la région des volcans du Kivu afin de recueillir des informations sur une forme de gorille dont la présence y était signalée. Il s’agissait d’une race particulière adaptée à des conditions d’un climat rude régnant à plus de 3 000 m d’altitude. Le nombre de ces anthropoïdes ne paraissait pas très élevé. Les observations de Cari Akeley firent ressortir la nécessité d’assurer la protection de ce noyau d’êtres étranges aux proportions gigantesques. Le roi Albert s’intéressa personnellement à la conservation de ces gorilles et, en 1925, il signait un décret créant une réserve, dénommée « Parc National Albert », destinée à rendre inviolable le territoire où ils vivaient.
- Au cours d’une nouvelle expédition d’étude, réalisée en 1926, Cari Akeley trouva la mort au cœur même de ce sanctuaire pour la création duquel il avait lutté. II fut inhumé à Kabara, à 3 200 m, entre les volcans éteints Mikeno et Kari-simbi.
- Pour assurer la conservation de l’habitat des gorilles, pour assurer aussi la conservation des forêts qui couvrent les flancs des volcans et dont la présence conditionne l’équilibre du climat de toute cette région du Kivu, il apparut nécessaire d’étendre la protection aux régions immédiatement voisines. En 1929, un nouveau décret incorporait à la réserve initiale toute la région des volcans Virunga, assurant ainsi une ceinture protectrice à l’habitat des gorilles.
- Afin de soustraire les régions protégées à toutes influences extérieures, l’administration du Parc National Albert fut confiée à une institution indépendante qui, en 1904, prit le nom d’institut des Parcs Nationaux du Congo belge.
- Grâce à ces mesures prévoyantes, le sanctuaire des gorilles fut soustrait à toute intervention humaine pendant plus de
- trente ans. En vue d’assurer, dans la plus complète quiétude, le développement des quelques familles de gorilles dont la présence avait été constatée en 1925, l’Institut des Parcs Nationaux n’autorisa que quelques rares incursions dans le sanctuaire. Actuellement on estime à plus de 35o le nombre des gorilles qui vivent dans cette région, ce qui démontre l’efficacité de la protection dont ils ont bénéficié.
- Le sanctuaire des gorilles se trouve en partie au Congo et en partie sur le territoire du Ruanda-Urundi. Malheureusement, au Ruanda se pratique le culte de la vache, introduit par le peuple Watusi venu jadis de la région du Nil. L’importance sociale des propriétaires est en fonction du nombre de têtes de bétail qu’ils possèdent; aussi, aucune bête n’est sacrifiée pour en consommer la viande. La vaine pâture a entraîné la disparition ligneuse et l’érosion dans tout le pays, où seuls quelques rares lambeaux forestiers subsistent, tels ceux qui couvrent les flancs des volcans.
- Une forte poussée démographique a eu comme corollaire l’accroissement du bétail, et l’insuffisance des pâturages, accrue par le développement des cultures, a incité les pasteurs à introduire leurs troupeaux dans les forêts du Parc National Albert. Depuis plusieurs années, notre institution lutte en vain pour empêcher ces désastreuses incursions qui aboutissent à la disparition du couvert forestier. Mais, privé de l’appui des autorités administratives et judiciaires, l’Institut s’est vu impuissant à arrêter cet envahissement.
- Sous la pression du gouvernement du Ruanda-Urundi, une rétrocession de quelque 7 000 ha du Parc National Albert avait été admise, avec l’espoir que cette concession permettrait aux autorités responsables d’aménager des pâturages et de prendre des mesures propres à enrayer la multiplication d’un cheptel composé en majeure partie de bêtes chétives et malades. Cette
- p.144 - vue 147/558
-
-
-
- 145
- mesure fut inutile et les pasteurs ont continué impunément à conduire leurs troupeaux toujours plus avant dans le Parc National. Aujourd’hui, après trente-cinq années d’efforts de protection, le sanctuaire des Gorilles de montagne est menacé d’une destruction irrémédiable.
- Sous les auspices de l’Institut, depuis près d’un an, une mission américaine se consacre à une étude approfondie des gorilles dans la région des volcans Mikeno et Karisimbi. Un rapport établi par M. George B. Schaller, membre de cette mission, est significatif : si des mesures ne sont pas prises sans délai, une population de gorilles, probablement unique au monde, va disparaître.
- Paralysées par des considérations d’ordre politique, il y a tout lieu de craindre que les autorités maintiendront leur attitude passive. Aussi faisons-nous un pressant appel à l’opinion internationale pour que des protestations énergiques s’élèvent contre la destruction inutile de ce patrimoine scientifique qu’est le sanctuaire des gorilles du Parc National Albert. Des raisons morales et humaines doivent inspirer une action concertée pour sauver ces anthropoïdes d’une disparition certaine.
- Le rapport de M. George B. Schaller
- Voici le texte du rapport établi par M. George B. Schaller à Rumangabo, le 29 janvier 1960, concernant la conservation des gorilles dans les volcans du Virunga.
- Effectifs. — Le nombre des gorilles du Parc Albert excède probablement 350 individus. La principale concentration se trouve dans un secteur situé entre Mikeno, Visoke et Karisimbi. Dix bandes, comprenant plus de 170 animaux, y ont été rencontrées jusqu’ici. Dans le secteur compris entre Visoke et Sabinio, sur la face congolaise du parc, les gorilles paraissent rares, bien qu’au moins 4 bandes y aient été trouvées. Dans la réserve forestière de l’Ouganda, entre Sabinio et Muhavura, 4 bandes, totalisant plus de 40 animaux ont été signalées l’année dernière. Le secteur de Ruanda n’a pas été visité par nous.
- Habitat préféré. — La zone où la nourriture est la plus abondante et où les gorilles sont en plus grand nombre est la forêt de Hagenia, à des altitudes qui varient de 2 800 à 3 500 m. Le bambou, qui couvre la plus grande partie du parc au-dessous de 2 800 m, fournit un fort approvisionnement en nourriture pendant les saisons humides de l’année, quand sont présents les rejets et les pousses tendres. D’autres habitats, tels que les forêts broussailleuses en bordure du parc, de même que le seuil Gahinga-Muha-vura et la zone du Seneçon géant (au-dessusi de 3 500 m) ne sont visités que sporadiquement et ne paraissent pas être fréquentés par beaucoup d’animaux.
- Conservation. — Le braconnage de différents gibiers semble assez intensif dans certains secteurs, celui notamment de Kibumba. On trouve des pièges jusqu’à l’altitude de 3 500 m sur les pentes du Karisimbi et récemment des chasseurs ont tué un buffle au voisinage du gîte de Rukumi. Quoi qu’il en soit, il semble qu’à l’heure actuelle les gorilles sont rarement molestés directement.
- La destruction de l’habitat est le plus grand danger qui menace les gorilles des volcans du Virunga. Sur la face de l’Ouganda, le meilleur habitat pour ces anthropoïdes est situé hors de la forêt et sera transformé en « shamba » d’ici environ trois ans. La majeure partie du Mont Muhavura est dès maintenant entièrement inhabitable pour les gorilles. Deux larges bandes du Parc Albert sur la face du Ruanda, ont été récemment rétrocédées, à titre officieux, aux indigènes.
- Bien que l’habitat semble être encore en état de supporter sa
- Fig. 1. — Le Gorille de montagne.
- Exemplaire naturalisé du Musée du Duc d’Orléans (Muséum de Paris).
- {Photo aimablement communiquée par M. H. V. Vallois).
- population de gorilles, ces animaux ne pourront survivre dans l’avenir si les destructions, dues au bétail des Watusi, se poursuivent. Les Watusi et leurs troupeaux s’enfoncent à de grandes profondeurs sur la face congolaise du parc. Une visite dans le secteur entre Visoke et Sabinio en juillet 1959 a permis de voir des traces anciennes et des abris du bétail à plus d’un mille à l’intérieur du territoire congolais. Plus récemment, en décembre 1959 et janvier 1960, plusieurs centaines de têtes de bétail ont été signalées, à partir de la face Ruanda, jusqu’à 4 milles à l’intérieur de ce territoire, au nord et au nord-ouest de Visoke. Une piste profonde et passagère pénètre au Congo au sud-ouest et à la base de Visoke. Actuellement, la destruction de l’habitat par le bétail est limitée à certains secteurs dont l’altitude est inférieure à 3 000 m. Ce fait est déjà nuisible aux gorilles et à d’autres formes de la vie sauvage : une extension de cet envahissement, poussé jusqu’à la forêt de Hugenia, pourrait fort bien être fatale à la pérennité de la vie sauvage sur les volcans du Virunga.
- Le charbon-papier
- C’est en 1860 que fut trouvé, pour la première fois, dans le bassin houiller de Moscou, un charbon de texture feuilletée que deux auteurs, Auerbach et Trautschold, baptisèrent Papierkohle. L’examen des échantillons révéla qu’il s’agissait d’une superposition de cuticules végétales, manifestement formées par des rameaux carbonisés de Lycopodes arborescents.
- Un nouveau gisement de a charbon-papier » a été découvert en
- janvier 1958, dans une mine de l’État d’Indiana, par R. G. Neavel. La couche de charbon présente, à sa partie supérieure (épaisse de 15 cm) l’aspect de feuilles de papier jauni; la couche inférieure (épaisse de 30 cm) est compacte. Les cuticules, séparées par un traitement approprié, se composent de tiges et de feuilles de fougères. L’analogie de ces débris avec Sphenopteris bradfordii est assez frappante.
- p.145 - vue 148/558
-
-
-
- Ce que les satellites artificiels ont déjà appris sur les rayons cosmiques et les particules aurorales
- Particules cosmiques et particules aurorales. — Il
- y a seulement quelques années, le rayonnement cosmique était assez mal connu, car les mesures n’en étaient effectuées qu’à très basse altitude et n’en autorisaient qu’une vue très partielle. En effet, les particules chargées de haute énergie qui constituent le rayonnement cosmique subissent à la fois l’influence du champ magnétique terrestre et de l’atmosphère. Le champ magnétique dévie leurs trajectoires et interdit l’accès de la basse atmosphère à un certain nombre de particules; il produit d’importants effets de latitude qui compliquent l’interprétation des observations. D’autre part, les particules cosmiques d’énergie moyenne réagissent avec les noyaux atomiques dans la haute atmosphère en donnant des particules secondaires. Seules les plus énergiques peuvent parvenir jusqu’au sol, et la plus grande partie de ce que l’on observe à faible altitude est un rayonnement secondaire.
- Les observatoires de montagne (l’Observatoire du Pic du Midi, par exemple) permettent des observations plus intéressantes. On s’affranchira davantage encore de l’influence de l’atmosphère terrestre en utilisant des fusées ou des ballons-sondes. Les fusées ont à leur actif de belles observations du rayonnement primaire et de sa répartition selon la latitude : les particules cosmiques primaires sont de plus en plus nombreuses à mesure que l’on s’élève en altitude, et il y a environ i5 pour ioo de plus au-dessus des régions polaires qu’au-dessus de l’équateur. Ce fait s’explique en remarquant que les trajectoires des particules chargées ont tendance à s’enrouler en spirale autour des lignes de force du champ magnétique terrestre, donc à converger vers les régions polaires. Mais la découverte la plus importante effectuée à l’aide de fusées (par Van Allen en 1955) est celle d’une nouvelle classe de particules : des électrons d’énergie faible comparativement à celle des particules dont nous venons de parler, puisqu’elle ne dépasse pas ioo keV. Aux altitudes de ioo à 200 km que permettent d’atteindre les petites fusées utilisées (principalement des Rockoons), ces électrons n’apparaissent que dans la zone aurorale située à 20 ou 3o degrés des pôles géomagnétiques. Il est hors de doute que les aurores polaires sont dues à l’afflux de ces particules dans les basses couches de l’atmosphère.
- Mc Ilwain et Meredith ont pu envoyer des fusées à l’intérieur d’aurores polaires et vérifier directement la présence d’un nombre considérable d’électrons qui descendent parfois jusqu’à des altitudes relativement assez faibles (80 km). Us provoquent l’ionisation des molécules et des atomes de la haute atmosphère, dont la recombinaison donne lieu aux phénomènes lumineux de l’aurore. On observe également dans la zone aurorale des protons d’énergie à peine plus élevée que celle des électrons.
- Cette découverte amène à penser — et nous reviendrons sur ce point — qu’il faut distinguer parmi les particules chargées qui circulent autour de la Terre deux catégories essentielles : d’une part les rayons cosmiques proprement dits, qui sont des particules très énergiques (de l’ordre du MeV et du BeV) (x), protons et noyaux de numéro atomique peu élevé; d’autre part, les particules aurorales que l’on peut désigner par le néologisme de « rayons terrestres », électrons et protons d’énergie généralement inférieure à 100 keV. On a de bonnes raisons de
- 1. Rappelons que 1 MeV (mégaélectronvolt) = 1 000 keV = 106 eV ; 1 BeV = 10" eV. Le BeV appartient à la terminologie américaine ; il équivaut au GeV (gigaélectronvolt) préconisé par l’AFNOR.
- penser que les particules aurorales sont semi-permanente» autour de la Terre : emprisonnées dans le champ magnétique, elles n’en peuvent sortir et n’y peuvent pénétrer qu’à l’occasion de perturbations. Dans la pratique, il n’est pas toujours aisé de distinguer entre ces deux types de particules, mais on dispose maintenant de détecteurs assez perfectionnés pour lever l’indétermination dans de nombreux cas.
- Les fusées ne permettent malheureusement d’observer le rayonnement cosmique et auroral qu’à une latitude déterminée et pendant un temps très court. Les ballons-sondes montent encore moins haut, mais séjournent de longues heures dans la haute atmosphère : ils sont donc mieux appropriés à l’étude des variations temporelles du rayonnement, et ont permis depuis plusieurs années des mesures d’un grand intérêt. En particulier, il a été constaté un afflux de particules d’énergie plus ou moins grande à la suite de fortes éruptions solaires : l’importance de ce phénomène est telle que les Américains lancent systématiquement fusées et ballons-sondes à différentes latitudes dès qu’une grande éruption solaire est signalée. Ce programme a intensément fonctionné pendant l’Année géophysique internationale.
- Néanmoins, il est évident que les satellites artificiels constituent le moyen idéal d’investigation du rayonnement cosmique et auroral. Séjournant longtemps à très haute altitude et parcourant rapidement une gamme étendue de latitudes, ils sont appropriés non seulement à l’étude de la répartition des particules en latitude et en altitude, mais aussi à l’observation des variations temporelles de leur flux et de leur énergie. Aux satellites artificiels, il convient d’adjoindre les « fusées lunaires » qui ont traversé successivement toutes les couches de l’atmosphère et atteint l’espace interplanétaire lui-même, où ne s’exerce plus l’influence du champ magnétique terrestre. Enfin les observations qu’a faites la station interplanétaire automatique soviétique « Mas », qui ne sont pas encore publiées, contribueront certainement à étendre le tableau des connaissances sur les particules cosmiques et aurorales.
- L'observation du rayonnement cosmique et auroral. — L’appareillage emporté par les satellites artificiels répond à des impératifs très stricts : il doit être léger, peu encombrant, ne pas consommer trop d’énergie électrique et être robuste, car il est soumis à de fortes accélérations au départ de la fusée porteuse. Il ne doit pas être trop sensible aux écarts de température, encore que les plus gros satellites soient pourvus d’une circulation interne de gaz qui limite les variations thermiques. On ne saurait donc s’étonner que les satellites n’emportent jamais d’appareils complexes comme des ensembles de compteurs en coïncidence ou anticoïncidence. La gamme des détecteurs utilisés est cependant assez étendue, puisqu’on a placé dans des satellites des compteurs de Geiger, des compteurs à scintillation et même des compteurs Cerenkov.
- Rappelons brièvement les propriétés de.chacun de ces appareils : les compteurs de Geiger, où l’arrivée d’une particule chargée déclenche une décharge dans un gaz, comptent le nombre total de particules incidentes, sans distinction de nature, d’énergie ni de direction d’arrivée. On peut cependant placer un compteur de Geiger dans une enceinte d’aluminium ou de plomb afin d’éliminer les particules peu pénétrantes.
- Les compteurs à scintillation, également très employés, ont
- p.146 - vue 149/558
-
-
-
- 147
- des propriétés un peu différents. Les uns comportent un scintillateur plastique, suivi d’une cellule photomultiplicatrice, et sont capables de compter individuellement les particules chargées d’énergie supérieure à un certain seuil. Dans d’autres, le scintillateur est un monocristal d’iodure de sodium ou de césium, également collé à la fenêtre d’un photomultiplicateur. Ce type de compteur permet plutôt de mesurer l’énergie totale qu’il reçoit sous forme de particules chargées ou de photons X ou y (énergie d'ionisation) que le nombre de ces particules.
- Pour détecter sélectivement les particules de très haute énergie, c’est-à-dire le rayonnement cosmique proprement dit, le meilleur moyen est d’utiliser un compteur à rayonnement Cerenkov, comme il a été fait dans le Spoutnik III. Il est constitué d’un matériau transparent (en général une matière plastique) où pénètrent les particules. Si leur vitesse est supérieure à celle de la lumière dans ce milieu, elles sont freinées avec émission lumineuse (effet Cerenkov). Une cellule photomultiplicatrice détecte cette lumière. Ce compteur, insensible aux particules de basse énergie, permet d’avoir une idée de la charge des particules incidentes, car le flux lumineux émis est proportionnel au carré de la charge.
- A titre d’exemple, décrivons l’appareillage contenu dans le satellite américain Explorer TV lancé le 26 juillet 1958, appareillage fort perfectionné puisqu’on n’y trouve pas moins de quatre détecteurs différents, connectés à cinq canaux démesure dont les indications sont retransmises grâce à deux émetteurs (fig. 1). Le premier détecteur est un petit compteur de Geiger connecté au canal n° 3 par l’intermédiaire d’une échelle de
- — Emetteur
- Echelle
- 2048
- Canal 3
- Echelle
- 64
- Canal 1
- Echelle
- Canal 5
- Echelle
- 128
- Canal Z
- Electro-
- mètre
- Canal 4
- non lin.
- - Emetteur
- Etalonnage
- Fig. 1. — Schéma de principe de l’appareillage du satellite Explorer IV.
- Explications dans le texte (Imité de Scientific American, mars 1959).
- comptage qui fournit une impulsion chaque fois que le compteur a reçu 2 o48 particules : il autorise donc la mesure de flux très élevés. Un autre compteur de Geiger, enveloppé de
- 1 mm de plomb, permet d’avoir une idée de la dureté du rayonnement cosmique ou auroral, et transmet au canal i une impulsion toutes les 64 particules comptées. Le troisième compteur, qui permet une meilleure discrimination de l’énergie des particules, est un scintillateur plastique sensible aux électrons de plus de 65o keV et aux protons de plus de io MeV. Il est réuni à deux échelles de comptage, une de 16 et une de
- 2 o48, respectivement couplées aux canaux 5 et 2. Enfin, un scintillateur à cristal d’iodure de césium est utilisé pour mesurer l’énergie totale incidente sur le cristal : un amplificateur non linéaire connecté au canal 4 permet de mesurer des flux allant de 6.1010 à 6.1016 eV par seconde.
- Les mesures étaient recueillies par 25 stations terrestres, et les signaux enregistrés sur bande magnétique. Pendant les deux mois où‘ont fonctionné les émetteurs, on a obtenu quelque
- 3 600 enregistrements. De l’appareillage en apparence assez simple qui vient d’être décrit, on peut tirer de précieux ren-
- seignements sur la répartition en énergie des particules : par exemple, la comparaison des trois enregistrements simultanés du nombre de coups permet de connaître par différence le nombre de particules de grande, de moyenne et de faible énergie. La comparaison du nombre de particules incidentes avec leur énergie totale, mesurée grâce au scintillateur à iodure de césium, permet également d’évaluer leur énergie moyenne.
- Le rayonnement cosmique primaire. — Apparemment, peu de mesures du rayonnement cosmique de haute énergie ont été effectuées par des satellites. Il est en effet malaisé de distinguer, autrement que par un compteur à rayonnement Cerenkov, ces particules de plusieurs MeV ou plusieurs BeV des particules aurorales dont le llux est souvent très supérieur. Mais celles-ci, nous le verrons, ne commencent à apparaîtrequ'au-dessus de 5oo km d’altitude dans les régions équatoriales, et disparaissent à plus de 70 000 km de la Terre. A basse altitude, l’influence de l’atmosphère sur les rayons cosmiques primaires est très grande : conformément à la théorie, on a bien observé que l’intensité du rayonnement primaire augmente avec l’altitude. Les observations effectuées par Van Allen et Cahill avec des fusées Rockoon, puis avec les satellites Explorer I et III, montrent l’effet de la latitude : au-dessus des pôles géomagnétiques, le flux de particules de haute énergie est de i5 pour 100 plus grand qu’au-dessus de l’équateur, à altitude égale. La répartition du rayonnement cosmique autour du globe a pour axe de symétrie non l’axe de rotation de la Terre, mais l’axe qui passe par les pôles géomagnétiques, ce qui met bien en évidence l’action du champ terrestre (2).
- Plus nouveaux sont les résultats obtenus par le Spoutnik III qui transportait un compteur à rayonnement Cerenkov; ce compteur permettait de compter le nombre de particules de numéro atomique supérieur à i5 ou 16 d’une part, et à 3o d’autre part, afin de déterminer le flux de noyaux lourds dans le rayonnement cosmique primaire. Il a détecté en 1 h 3o mn d’observation environ 1,2 coup/minute pour les premières et seulement une particule de numéro atomique supérieur à 3o. Ceci confirme que les noyaux lourds ne sont qu’en faible proportion et que la majorité des particules de haute énergie sont des protons et des particules a (noyaux d’hélium).
- Enfin, plusieurs « fusées cosmiques » ont réussi à s’élever au delà des limites du champ magnétique terrestre et à observer le rayonnement cosmique à l’état pur (si tant est qu’il n’est pas perturbé par les champs magnétiques solaires qui s’étendent fort loin dans l’espace interplanétaire). Les résultats obtenus avec la première fusée cosmique soviétique et le Pioneer IV sont maintenant connus : Vernov et Ghudakov donnent un flux total de 2,3 ± 0,1 particule par centimètre carré et par seconde (dans toutes les directions) et Van Allen de 1,8 + o,3 parti-cule/cm2/s. Ces deux valeurs sont à peu près compatibles, et leur différence peut d’ailleurs s’expliquer par la différence de date entre les deux mesures, la première ayant été faite le 2 janvier ig5g et la seconde le 3 mars. Dans l’un et l’autre cas, le nombre de particules enregistrées chaque seconde restait absolument constant pendant tout le parcours de la fusée, une fois fi'anchies les limites de l’influence du champ magnétique (voir fig. 6).
- Premières observations du rayonnement corpus* eu taire de basse énergie. — La découverte, effectuée au moyen de fusées, d’électrons de quelques dizaines de keV dans les régions où se forment les aurores polaires laissait à penser, nous l’avons dit, qu’il existe dans la très haute atmosphère terrestre des particules beaucoup moins pénétrantes que les
- 2. Le pôle géomagnétiqae N est situé près de Thulé, au Nord du Groenland (latitude géographique 79” N, longitude 70° W) et le pôle Sud dans l’Antarctique (79° S, 110“ E).
- p.147 - vue 150/558
-
-
-
- 148
- Fig. 2. — Lancement d’un satellite Explorer à Cap Canaveral.
- Le satellite (ici l'Explorer III) est porté par une fusée Jupiter G.
- (Photo U.S.I.S.).
- rayons cosmiques primaires. A priori, on pouvait imaginer qu’elles ne se trouveraient à une altitude assez basse que dans la zone aurorale, et que l’on ne rencontrerait à quelques milliers de kilomètres au-dessus des régions équatoriales que les rayons cosmiques primaires. C’est à l’étude de la répartition en altitude de ces particules primaires dans la bande équatoriale qu’était destiné, entre autres, le premier satellite américain Explorer I, lancé le 3i janvier 1958.
- Emportant un simple compteur de Geiger, ce satellite enregistra comme prévu une intensité croissance avec l’altitude. Mais, vers 1 000 km d’altitude, le nombre de coups mesuré chaque seconde devenait anormalement grand... puis on ne mesurait plus rien lorsque le satellite passait au-dessus des régions équatoriales. Ce comportement paraissant étrange, on profita du lancement de l’Explorer III à la fin de mars 1958 (fig. 2) pour renouveler l’expérience : le résultat fut identique. Pendant que l’on essayait de comprendre ce bizarre phénomène, l’un des membres du Jet Propulsion Laboratory (le laboratoire de Yan Allen) se souvint que le système de comptage des coups pouvait se saturer si leur nombre était trop grand et ne plus fournir d’indication : fait bien connu mais auquel personne n’avait songé. La disparition apparente du comptage ne correspondait donc pas à une disparition du rayonnement corpusculaire, mais au contraire à une augmentation énorme de son intensité. Comme le proclama de façon inexacte mais combien frappante un des chercheurs américains : « l’espace est radioactif ! »
- Dès ce moment, on n’eut de cesse que cette zone d’intense rayonnement ne fût mieux explorée. C’est à cet effet que fut lancé le 26 juillet 1958 le satellite Explorer IV (fig. 4), dont
- nous avons décrit plus haut l’équipement. Ses compteurs, comportant des échelles de 2 o48, ne risquaient plus d’être saturés. Les informations qu’a transmises ce satellite sont si nombreuses et si détaillées qu’elles n’ont pas encore été entièrement dépouillées et interprétées et qu’elles font toujours l’objet d’études intensives. On peut néanmoins résumer comme suit les résultats obtenus (fig. 3).
- i° Comme on pouvait le prévoir d’après les observations effectuées avec des fusées, on trouve au-dessus de la zone aurorale un flux particulaire extrêmement intense. Il s’agit très probablement d’électrons d’énergie inférieure à 100 keV. Le nombre et l’énergie de ces particules augmentent avec l’altitude. Leur flux varie beaucoup au cours du temps, en étroite corrélation avec l’activité solaire : un jour ou deux après les grosses éruptions, ces électrons normalement confinés plus haut que quelques centaines de kilomètres peuvent descendre beaucoup plus bas, provoquant, comme nous l’avons dit, des aurores polaires.
- 20 Au-dessus des régions équatoriales, on rencontre également un flux très élevé de particules, surtout aux altitudes supérieures à 800 ou 1 000 km. Il s’agit encore principalement d’électrons, mais leur spectre d’énergie est essentiellement différent de celui des électrons auroraux et s’étend de quelques keV jusqu’à 1 MeV. Il existe en outre en faible proportion (5 pour 100) des particules d’énergie plus grande qui sont probablement des protons d’environ 100 MeV. Le flux corpusculaire total atteint des valeurs énormes : à 2 000 km au-dessus de l’équateur, il correspond à un flux total d’énergie de 100 ergs/cm2 par seconde et par stéradian ! Les variations temporelles de la zone équatoriale sont bien moins marquées que celles de la zone aurorale.
- 10000
- Equateur
- géomagnêtique
- £</uateur
- Fig. 3. — Observations du rayonnement corpusculaire de basse énergie effectuées par l’Explorer IV.
- Les courbes tracées sont relatives à un nombre donné de coups par seconde dans un des compteurs du satellite, nombre indiqué à l’extrémité de chaque courbe. Remarquer la symétrie géomagnétique et non géographique, et la présence de « cornes » dans la zone aurorale (Imité de Scientific American,
- mars 1959).
- De leur côté, les Soviétiques effectuaient des mesures analogues avec le gros satellite Spoutnik III qui, lancé le i5 mai ig58, est en fait le premier à avoir observé à haute altitude les particules de la zone aurorale. Son équipement, d’une remarquable ingéniosité (3), comportait essentiellement un compteur à scintillation utilisant un cristal cylindrique d’iodure de sodium de 4 x 4 cm. Ce scintillateur permettait à la fois de
- 3. Voir par exemple : Priroda, juillet 1959, et S. N. Vernov et al., dans Planetary and Space Science, 1, n° 2, p. 56, avril 1959.
- p.148 - vue 151/558
-
-
-
- 149
- Fig. 4. — Le Dr James Van Allen présente la maquette de la fusée porteuse de l’Explorer IV et montre Vorbite de ce satellite.
- La fusée est identique à celle de la figure 2. On voit que la trajectoire du satellite est comprise entre les latitudes de — 50° et + 50“ environ.
- (Photo U.S.I.S.).
- mesurer l’énergie totale d’ionisation par des particules ou photons d’énergie supérieure à 36 keV, de les compter si leur nombre ne dépassait pas iOs6 par seconde, enfin d’avoir une idée de leur énergie (fig. 5). A cet effet, on mesurait d’une part le courant de l’anode du photomultiplicateur, et d’autre part le courant d’une des électrodes multiplicatri-ces intermédiaires (dynodes). Ce courant de dynode est toujours proportionnel au flux lumineux, c’est-à-dire à l'énergie incidente dans le cristal, mais le courant anodique, beaucoup plus intense, ne lui est proportionnel que lorsque les particules sont de faible énergie; dans le cas contraire, les impulsions lumineuses consécutives à leur arrivée sont si intenses que l’amplification du photomultiplicateur n’est plus linéaire. C’est ainsi que pour les particules cosmiques primaires (plus de 20 MeV), la mesure du courant anodique donnait des valeurs de l’ionisation 10 fois plus faibles que celles que l’on déterminait en mesurant le courant de dynode, pour lequel le photomultiplicateur est
- Fig. 5.
- Schéma de l’équipement du Spoutnik III pour l’observation des particules de basse énergie.
- Explications dans le texte
- linéaire. Cette disposition autorise donc la connaissance approximative de l’énergie des particules. Enfin la dernière dynode était connectée à une échelle de comptage de 4 op6. Les trois indications (courant anodique, courant de la dynode intermédiaire et nombre de coups) étaient transmises alternativement sur la même fréquence grâce à un ingénieux système de commutation.
- Lorsque le satellite, dont le périgée se trouvait à x 85o km d’altitude, parvenait au-dessus des régions voisines de 6o° de latitude Nord, le nombre de coups enregistrés s’accroissait brusquement, mais l’ionisation augmentait peu : il s’agissait donc de particules de faible énergie, de l’ordre de 100 keV. Ce ne pouvait être des électrons, car l’appareil était protégé par une enveloppe infranchissable de 3 mm d’aluminium, mais des photons X, Ces photons n’étaient sûrement pas d’origine solaire ou céleste, car on ne voit pas pourquoi dans ces conditions
- leur flux dépendrait de la latitude : on ne peut les expliquer que comme résultant du freinage d’électrons de 100 keV dans l’enveloppe d’aluminium. Le fiux des électrons est estimé par les Soviétiques à 103 ou io4 particules/cm2/s/stéradian, mais il est sujet à des variations considérables dans le temps (comme l’ont aussi remarqué les chercheurs américains). Fait assez curieux, la répartition des électrons auroraux semble présenter une certaine asymétrie par rapport aux pôles géomagnétiques.
- Un autre détecteur emporté par le même satellite permit de voir qu’il s’agissait bien d’électrons. Il comprenait un écran luminescent au sulfure de zinc activé à l’argent, recouvert de minces feuilles d’aluminium opaques à la lumière mais non aux électrons. A l’altitude de 3oo à 4oo km, vers Co°-65° de latitude, cet appareil mesurait un nombre de particules 10 000 fois supérieur au nombre de rayons cosmiques primaires à cet endroit. Il faut remarquer que des signaux particulièrement intenses ont été recueillis pendant les orages magnétiques du i5 mai iq58, signe évident des relations enti'e l’intensité, des particules aurorales et l’activité magnétique, elle-même liée à l’activité du Soleil.
- Le Spoutnik III a également permis des mesures du rayonnement corpusculaire dans la zone équatoriale. L’augmentation du nombre de coups enregistrés et de l’ionisation se manifestait brutalement lorsque le satellite, venant des régions polaires, arrivait aux latitudes inférieures à 5o°. Les déterminations précises ont cependant été presque impossibles par suite du manque d’observations directes (l’apogée du satellite se trouvait dans l’hémisphère Sud, où l’U.R.S.S. ne disposait d’aucune station d’observation).
- Ni l’Explorer IV, ni le Spoutnik III n’ont fourni d’indications sur ce qui se passe au-dessus de 2 200 km, altitude de l’apogée de l’Explorer. Un pas décisif devait être accompli avec le lancement des premières « fusées cosmiques ».
- Les deux ceintures de rayonnement corpusculaire.
- — Sans pouvoir échapper à l’attraction terrestre, le Pioneer T lancé le 11 octobi’e iq58 et le Pioneer III du 6 décembre 1958 atteignirent cependant des altitudes considérables, de l’ordre de
- p.149 - vue 152/558
-
-
-
- 150
- Cdups/s
- iuuuuo
- Pionnier W 3 Mars 1959
- PionnierM' 6 Déc. 1958
- 10000 20000
- 40000
- 60 000
- 80000 100000 Distance au centre terrestre (km)
- Fig. 6. — Observations du rayonnement corpusculaire effectuées par les Pioneers III et IV.
- Oh a porté en fonction de la distance au centre de la Terre l’intensité du rayonnement mesuré. Entre 20 000 et 40 000 km, les mesures du Pioneer IV sont douteuses et susceptibles de deux interprétations (A. et B). Les trajectoires des deux fusées sont représentées par la figure 7 : comme elles sont assez differentes, il n’est pas étonnant que les observations diffèrent aussi. Remarquer une zone de structure complexe et encore inexpliquée au-dessus de 60 000 km, et le rayonnement cosmique primaire absolument constant aux altitudes encore plus élevées.
- i3o ooo km; puis la fusée Lunik du 2 janvier 195g fut le premier objet qui ait définitivement quitté la Terre en manquant de peu la Lune. Le Pioneer I (fig. 9) ne fournit que des données très partielles, mais les deux autres fusées transmirent des renseignements d’une valeur inestimable, en étendant aux très hautes altitudes nos connaissances sur le rayonnement particulaire de basse énergie. Grâce à elles, on s’aperçut que les régions de grande intensité qui surplombent les zones aurorales ne sont en fait qu’une infime partie d’un immense réservoir de particules formant un anneau autour de la Terre (fig. 6). La section de cet anneau, la ceinture aurorale, qui s’étend jusqu’à 70 000 km du globe, est en forme de croissant à concavité tournée vers la Terre et dont les basses zones aurorales représentent les « cornes ». Il se double intérieurement d’une autre ceinture, équatoriale, dont les régions de plus forte densité en particules sont à environ 3 600 km au-dessus de l’équateur géomagnétique. La limite entre les deux ceintures de rayonne-
- ùjstançe au centre Je terre (Rayons terrestres)
- Fig. 7. — Les deux ceintures de rayonnement corpusculaire.
- Les courbes sont relatives à un nombre donné de coups par seconde, indiqué au-dessus de chacune. Dans l’espace, cette figure présente une symétrie de révolution autour de l’axe géomagnétique. Explications dans le texte.
- ment, fréquemment dénommées « ceintures de Van Allen », est assez mal définie. Sa distance au centre de la Terre est d’environ 2,5 rayons terrestres (16 000 km). Sur la figure 7, qui donne l’aspect schématique de cet ensemble, on a porté la trajectoire du Pioneer III à l’aller et au retour, ainsi que la trajectoire du Pioneer IV dont nous parlerons plus loin.
- Comme sa trajectoire est constamment restée en dehors de la ceinture interne (fig. 8), la première fusée cosmique soviétique (Lunik I) n’a transmis que des mesures concernant la cein-
- Nombre de coups
- Distance au centre
- Fig. 8. — Les deux ceintures de rayonnement corpusculaire d’après les observations soviétiques.
- Dans le système de lignes de forces du champ magnétique terrestre on a porté la trajectoire du Lunik I au-dessus de laquelle est figurée symboliquement l’intensité du rayonnement rencontré. Dans la partie inférieure de la figure, des hachures symbolisent la structure des deux zones de rayonnement. La ceinture intérieure a été dessinée d’après d’autres observations
- que celles du Lunik.
- ture extérieure. Mais ces données sont très complètes, car le Lunik emportait un appareillage perfectionné, comparable à celui de l’Explorer IV décrit plus haut : le flux de particules était enregistré par deux compteurs de Geiger, de dimensions différentes afm de pouvoir opérer dans une large gamme de variations d’intensité. Il y avait aussi deux compteurs à scintillation à cristal d’iodure de sodium. L’énergie des particules détectées, inférieure à 100 keV, est bien semblable à celle des électrons auroraux; mais le spectre d’énergie n’est pas le même en tous les points de la ceinture : dans les régions centrales, l’énergie moyenne des électrons n’est que 25 keV alors qu’elle atteint 5o keV à la périphérie. Au delà de 65 000 km du centre de la Terre, le Lunik ne détectait plus qu’une intensité constante et faible qui est celle du rayonnement cosmique primaire.
- La fusée américaine Pioneer III, puis le Pioneer IV du 6 mars 1959, qui réussit à échapper à l’attraction terrestre (fig. 10), lancés de régions de basse latitude, traversèrent au contraire l’anneau équatorial dont ils purent préciser la forme et les dimensions (voir fig. 7). Au cœur de cette région, le flux d’électrons atteint 2.105 particules/cm2/s/stéradian, alors que l’on ne rencontre que 2.104 protons d’énergie supérieure à 4o MeV. Au cœur de la ceinture externe, au contraire, les électrons sont plus nombreux encore (io1:1/cm2/s/stéradian), mais il n’y a pratiquement pas de protons : moins de io2 protons de plus de 60 MeV par centimètre carré, par seconde et par stéradian, et aucun de moins de 3o MeV.
- L’existence de protons dans la zone équatoriale vient d’ailleurs d’être établie avec certitude par Freden et White, au moyen d’une fusée qui s’est élevée jusqu’à 1 23o km. Les plaques photographiques nucléaires emportées, enveloppées d’une épaisse couche de métal (6 g/cm2) ont enregistré des protons de 75 à 700 MeV. D’autre part, Holly et Johnson ont observé, toujours avec une fusée, des électrons de plus de
- p.150 - vue 153/558
-
-
-
- 151
- Fig. 9. — Le satellite cosmique Pioneer I.
- A gauche, schéma éclaté du montage. Le satellite est fixé de manière amovible au 3' étage d’une fusée Thor-Able. L’ensemble du satellite et du 3e étage est protégé par un container également amovible. A droite, on voit cet ensemble ainsi que l’extrémité du 2e étage.
- (.Documents U.S.I.S.).
- 160 keV à i ooo km d’altitude. Tout ceci confirme très bien les observations faites avec les Pioneers.
- Un fait remarquable est la variation au cours du temps de la forme et de la densité en particules de la vaste ceinture extérieure. Entre les 6-7 décembre iq58 (Pioneer III) et le 2 janvier 1959 (Lunik I), aucun changement significatif ne s’est produit. Par contre, le 3 mars 1969 (Pioneer IV), l’intensité maximale des particules aurorales avait beaucoup augmenté et la zone s’étendait près de i5 000 km plus loin. Cette énorme variation est sans doute la conséquence d’une période d’activité solaire intense qui se produisit vers le 25 février. La ceinture équatoriale, au contraire, apparaît à peu près stable, encore que des variations en aient récemment été signalées, liées à l’activité solaire : cependant l’intervalle entre les deux anneaux montre des. fluctuations considérables, à tel point que l’on peut se demander si la présence de deux ceintures de radiations distinctes n’est pas un phénomène temporaire.
- On a, paraît-il, observé récemment un dédoublement de la vaste ceinture externe.
- Avant d’exposer les théories qui tentent d’expliquer l’existence des ceintures de Van Allen, nous donnerons quelques indications sur la manière dont des particules chargées de basse énergie peuvent être emprisonnées dans le champ magnétique terrestre.
- U emprisonnement de particules chargées dans le champ magnétique
- terrestre. — Le champ magnétique de la Terre est approximativement dipolaire, c’est-à-dire que sa forme est à peu près celle que donnerait un aimant de petites dimensions situé au centre du globe. Comme nous l’avons dit, son axe de symétrie (la ligne des pôles géomagnétiques) n’est pas l’axe géographique, mais fait avec lui un angle de n° : c’est également l’axe de symétrie des deux anneaux de rayonnement corpusculaire.
- Le comportement d’une particule chargée dans le champ terrestre est bien connu depuis les travaux de Poincaré, d’Alfvèn et de Stôr-mer (4). Il est particulièrement simple lors-
- 4. On se reportera avec fruit au premier chapitre du livre de Spitzer : Physique des gaz complètement ionisés, Dunod, 1959.
- Fig. 10. — L'appareillage du Pioneer III pour la détection du rayonnement corpusculaire.
- On voit deux compteurs de Geiger à la partie supérieure. Remarquer l’originalité du câblage circulaire. Le poids de l’ensemble et de son container est d’environ 6 kg. L’appareillage du Pioneer IV ne diffère de celui-ci que par l’adjonction d’une enveloppe de plomb à l’un des compteurs (Photo U.S.I.S.).
- p.151 - vue 154/558
-
-
-
- 152
- vq v
- Fig-, H. — Mouvement d’un électron dans un champ magnétique.
- qu’il s’agit de particules de basse énergie, comme dans le cas qui nous intéresse.
- Dans un champ magnétique uniforme B, une particule char-—>
- gée animée de la vitesse v a un mouvement hélicoïdal axé sur les lignes de force (fig. n). La projection de sa vitesse dans le plan perpendiculaire au champ magnétique détermine le rayon du cylindre sur lequel s’enroule la trajectoire (rayon de gyration) ; il vaut r == mvJeB, si m et e sont la masse et la charge de la particule et B l’induction magnétique. Pour des particules de même énergie, rayon de gyration et vitesse longitudinale sont évidemment fonctions de l’orientation de la vitesse initiale par rapport au champ magnétique. Dans notre cas (électrons de 5o keV dans une induction de l’ordre de io~2 gauss), le rayon de gyration est inférieur à 600 m, chiffre très petit par rapport aux dimensions de la Terre : la trajectoire s’enroule étroitement autour de la ligne de force.
- En réalité, les lignes de force ne sont pas rectilignes mais sont courbées avec une concavité dirigée vers le centre de la Terre. On montre que dans ce cas la trajectoire s’enroule bien en gros sur une ligne de force, mais subit une légère dérive perpendiculairement à la ligne de force (5) : s’il s’agit d’électrons, par exemple, cette dérive s’effectue toujours en direction de l’Est (fig. i3).
- L’aspect de la trajectoire change davantage lorsque la particule pénètre dans une région de champ croissant, ce qui se
- Fig. 12. — .Réflexion magnétique.
- produit aux altitudes relativement basses et aux latitudes géo-magnétiques élevées (« cornes » de la ceinture aurorale). Les lignes de force se rapprochent (fig. 12) et il apparaît une composante du champ magnétique perpendiculaire aux lignes de force : cette composante s’oppose au mouvement longitudinal de la particule. Le pas de l’hélice se resserre, tandis que le rayon de gyration diminue. On montre que si 0 est l’angle de la vitesse de la particule avec les lignes de force, on a la rela-
- 5. La vitesse Vq de dérive est donnée par l’expression :
- si R est le rayon de courbure de la ligne de force et ü|| la vitesse parallèle au champ magnétique : on vérifiera qu’ici t)p est faible devant la vitesse de là particule (de l’ordre de 1 000 m/s seulement).
- tion : sin2 0/B = constante. Lorsque l’induction magnétique B est suffisamment grande, 6 atteint 90° ce qui signifie qu’il n’y a plus de mouvement longitudinal. La particule repart en arrière, réfléchie vers la région de champ plus faible en rebroussant chemin le long de la même ligne de force : c’est l’effet de miroir magnétique.
- C’est ce phénomène qui interdit aux particules des deux ceintures de pénétrer dans les basses couches de l’atmosphère : le champ magnétique augmentant assez vite, elles sont réfléchies et repartent vers les altitudes plus élevées. Chaque particule subit donc un mouvement de va-et-vient entre l’hémisphère Nord et l’hémisphère Sud, à peu près le long des lignes de force, avec réflexion à chaque extrémité (fig. 10). Pour de3 électrons auroraux, le voyage aller et retour dure quelques secondes. La dérive dont nous avons parlé plus haut déplace d’autre part les électrons vers l’Est et les protons vers l’Ouest : il en résulte que les ceintures de Van Allen sont le siège de vastes courants électriques équatoriaux dirigés d’Est en Ouest.
- Fig. 13. — Trajectoire des particules des ceintures de Van Allen dans le champ terrestre.
- Explications dans le texte.
- On s’explique aisément la forme des ceintures de Van Allen. La ceinture extérieure, dont la section est en forme de croissant, est délimitée par des lignes de force qui, d’après Vernov et Chudakov, atteignent la surface de la Terre aux latitudes géomagnétiques de 55° et 67°. L’intensité maximale des particules correspond aux lignes de force relatives à la latitude de 62°. On s’explique également que l’on rencontre de plus en plus de particules à mesure que l’on s’éloigne de la Terre en suivant une ligne de force : seules, en effet, les particules les plus rapides et celles dont la vitesse est presque parallèle aux lignes de force peuvent descendre aux basses altitudes.
- La façon dont les particules sont emprisonnées dans la ceinture interne et la forme en haricot de sa section s’expliquent de la même manière. La limite extérieure de cette zone correspondrait aux lignes de force relatives à la latitude géomagnétique 45°. Mais on ne comprend pas bien pourquoi il y a deux ceintures particulaires distinctes, encore que la séparation en deux zones puisse n’être que temporaire. Les particules dans les deux ceintures ayant des énergies différentes, on peut penser qu’elles n’ont pas la même origine. Van Allen suppose que la séparation est en relation avec les anomalies du champ magnétique observées entre i4 000 et 21 000 km du centre de la Terre par le Lunik I, qui contenait un magnétomètre : mais on ne sait rien de précis là-dessus.
- Les électrons auroraux et les particules de la ceinture équatoriale sont semi-permanents autour de la Terre. S’il n’y avait
- p.152 - vue 155/558
-
-
-
- 153
- pas de perturbation ni de « fuites » et pertes par collision, ils y resteraient indéfiniment : en réalité il n’en est rien, et la ceinture externe se vide en particulier d’une fraction importante de son contenu après certaines perturbations d’origine solaire, ce qui produit des aurores polaires. D’après les géophysiciens soviétiques, le nombre total des électrons de la ceinture aurorale est à peu près celui qu’il faudrait pour donner des aurores pendant une semaine; il est donc nécessaire qu’un mécanisme puissant y apporte fréquemment de nouvelles particules.
- L’origine des particules de la ceinture équatoriale.
- — Comme l’a démontré Stôrmer, une particule chargée provenant de l’espace ne peut être capturée dans le champ terrestre : ou bien elle frappe la Terre (ou disparaît par collisions dans l’atmosphère), ou bien elle retourne à l’infini. Ceci limite singulièrement les possibilités d’alimentation en particules des ceintures de Yan Allen. Ces particules doivent avoir été créées dans l’atmosphère terrestre elle-même, ou, si elles viennent de l’extérieur, pénétrer à l’occasion d’une perturbation importante du champ magnétique terrestre qui met en défaut la théorie de Stôrmer. L’injection des particules est l’objet d’une étude expérimentale intensive : elle consiste à injecter artificiellement, par une explosion nucléaire en haute altitude, des particules dans le champ magnétique terrestre (il s’agit essentiellement d’électrons résultant de désintégrations (}) puis d’observer leur comportement par tous les moyens, fusées, ballons, perturbations géomagnétiques et aurorales secondaires, etc. Une telle expérience (l’expérience Argus américaine) a été effectuée vers août-septembre 1968, en particulier à l’aide du satellite Explorer IV. Les résultats ne sont malheureusement que partiellement publiés et interprétés.
- Les particules de la ceinture équatoriale ne peuvent guère provenir de l’extérieur. Leur origine est encore incertaine. Plusieurs auteurs, soviétiques autant qu’américains, ont proposé une explication dont nous allons dire quelques mots. Lorsque les particules cosmiques primaires heurtent les molécules de la haute atmosphère, il en résulte la formation de particules cosmiques secondaires, comprenant en particulier des neutrons. Une partie de ces neutrons, qui ne subissent pas l’influence du champ magnétique terrestre, peuvent pénétrer dans la ceinture équatoriale, et nombre d’entre eux se décomposent spontanément en un proton et un électron (6). Rien n’empêche ces particules chargées d’être capturées dans le champ terrestre.
- Cette injection peut être calculée avec une certaine précision, et Singer a prévu par le calcul l’existence d’un anneau équatorial contenant des électrons de o à 800 keV et des protons de plus de 100' MeV : ceci s’accorde avec ce que l’on sait de la ceinture interne de radiations. Mais ce n’est pas assez pour être certain de la validité de cette théorie : il faudrait s’assurer que le nombre de neutrons cosmiques secondaires est suffisant. Or le bilan des particules de la ceinture interne est particulièrement difficile à établir, étant donné le manque de données théoriques et expérimentales.
- L’origine des particules aurorales. — La présence d’électrons de faible énergie dans la vaste ceinture extérieure ne semble pas explicable de la même façon, ne serait-ce que parce que l’on ne rencontre dans cet anneau aucune particule de haute énergie. Selon l’idée émise initialement par Van Allen, ces particules doivent être attribuées à l’injection dans le champ géomagnétique de masses de gaz ionisé provenant du Soleil.
- De telles éjections de nuages de particules par le Soleil sont consécutives aux éruptions chromosphériques importantes (idée
- 6. On sait que les neutrons sont des particules instables qui se désintègrent en un proton d’énergie cinétique à peu près égale à celle du neutron initial (ici 10a ou 10“ eV) et un électron d’énergie inférieure à 782 keV. Leur durée de vie moyenne est 20 ma.
- déjà ancienne puisqu’elle fut énoncée par Birkeland et Stôrmer au début de ce siècle). Les éruptions, qui se produisent toujours au voisinage des taches solaires, là où règne un champ magnétique intense, sont immédiatement suivies de phénomènes remarquables, dont le plus intéressant en ce qui nous concerne est une émission radioélectrique très intense, le grand sursaut de type IL Les radioastronomes, au premier rang desquels il faut citer l’Australien Wild, ont montré que le centre émissif s’élève dans l’atmosphère solaire avec une vitesse de l’ordre de 1 5oo km/s. On pense aujourd’hui que le rayonnement radio se produit au passage d’une onde de choc qui précède une masse de gaz éjectée au moment de l’éruption. Ce nuagç gazeux, fortement ionisé, donc très conducteur, entraîne avec lui une partie du champ magnétique de la tache solaire, et le résultat est un tube de lignes de force magnétique qui s’étend de plus en plus loin de la région active du Soleil, jusque dans l’espace interplanétaire (fig. i4). Lorsque l’onde de choc et le nuage ionisé arrivent au niveau de la Terre, un ou deux jours après l’éruption, ils y provoquent des perturbations (orages magnétiques, aurores polaires, etc.).
- Fig. 14. — Arrivée au voisinage de la Terre d’une perturbation solaire.
- Un nuage ionisé, éjecté par une éruption solaire et précédé d’une onde de choc, entraîne avec lui une partie du champ magnétique de la zone active, créant un tube de force susceptible d’emprisonner des particules chargées. Ce tube se déforme en raison de la rotation du Soleil sur lui-môme.
- Il est possible que les particules chargées qui constituent ce nuage pénètrent dans le champ magnétique terrestre, dont la structure est fortement perturbée par l’onde de choc ou le nuage lui-même. Mais l’énergie des particules (10 keV pour les électrons) est un peu inférieure à celle des électrons auroraux; si ce sont bien elles qui remplissent la ceinture aurorale, elles ont dû être accélérées après leur arrivée. Singer a repris pour expliquer cette accélération le processus imaginé vers 1949 par le grand physicien Fermi, dont voici en quelques mots l’essentiel : supposons qu’une particule chargée vienne à rencontrer un « miroir magnétique » en rapprochement; elle se réfléchira sur lui et repartira avec une vitesse plus grande, puisque à sa vitesse initiale se sera ajoutée la vitesse du miroir. Ce miroir magnétique peut être le nuage ionisé provenant du Soleil qui contient encore une partie du champ magnétique solaire. Une même particule peut subir plusieurs réflexions successives entre le nuage et l’une des « cornes » de la ceinture extérieure, et être suffisamment accélérée pour atteindre des énergies de 00 à 100 keV. Une accélération pourrait peut-être aussi se produire sous l’action de l’onde de choc qui précède le nuage corpusculaire.
- On a également imaginé que les électrons de la ceinture extérieure de Van Allen puissent venir directement du Soleil : accélérés dans l’atmosphère solaire, ils pourraient lui échapper en empruntant le tube de lignes de force dont nous avons parlé tout à l’heure, et parvenir ainsi canalisés jusqu’à la Terre. Cette explication est assez plausible, car il est presque certain que des particules peuvent être accélérées dans l’atmosphère solaire : certaines éruptions solaires sont suivies d’un afflux de particules d’énergie moyenne (10O' à 5oo MeV), détectées au-dessus des régions polaires au moyen de ballons-sondes. Dans
- p.153 - vue 156/558
-
-
-
- 154
- quelques cas exceptionnels, correspondant à des éruptions énormes, notamment le a3 février 1956, on a recueilli au niveau du sol des particules de plusieurs BeV. Il n’y a donc rien d’impossible à ce que des particules d’énergie beaucoup plus faible soient accélérées dans l’atmosphère solaire; mais il est actuellement fort difficile de les détecter directement, d’autant plus qu’étant emprisonnées dans les champs magnétiques des régions actives du Soleil, elles ne diffusent que lentement dans le tube de lignes de force.
- Pour trancher entre ces deux théories, l’une et l’autre séduisantes et fondées, il sera nécessaire de mesurer pendant de longs intervalles de temps le rayonnement corpusculaire dans l’espace interplanétaire. Des engins comme la « station interplanétaire automatique » soviétique seraient particulièrement bien adaptés à cette lâche. Pour l’instant, on peut seulement affirmer que les particules de la ceinture extérieure de Van Allen sont, directement ou non, d’origine solaire.
- Rôle géophysique des ceintures de Van Allen. —
- Bien que nos connaissances sur les ceintures particulaires soient encore rudimentaires, il est déjà très instructif de tenter de déterminer leur importance géophysique. Elle est certainement très grande. On peut considérer, nous venons de le voir, la ceinture aurorale comme un réservoir intermédiaire de particules entre le Soleil, qui en est la source directe ou indirecte, et la haute atmosphère terrestre. En ce qui concerne les aurores, le rôle de ces particules est maintenant établi avec certitude : une aurore se produit lorsque, par un mécanisme encore mal connu mais qui est en relation évidente avec l’arrivée de perturbations solaires, les électrons de la ceinture extérieure descendent à des altitudes où l’atmosphère atteint une densité notable; les ionisations qu’ils y provoquent donnent les phénomènes lumineux auroraux. Les températures élevées qui régnent dans la très haute atmosphère, particulièrement au-dessus des régions polaires et dans les aurores, sont peut-être produites par les électrons des ceintures de Van Allen. Enfin, les électrons auroraux peuvent être à l’origine d’étranges émissions radioélectriques atmosphériques à très basse fréquence (quelques kilocy-cles/s), qui sont actuellement l’objet d’études intensives.
- 11 existe certainement aussi une relation entre les particules chargées des deux ceintures de radiations et les perturbations géomagnétiques, en particulier les orages magnétiques à début brusque. Ceux-ci, qui se manifestent comme leur nom l’indique par des variations désordonnées de l’intensité et de la direction du champ magnétique terrestre, commencent brutalement à l’arrivée du nuage de corpuscules solaires. Chapman et Ferraro avaient imaginé que lorsque ce jet ionisé, mais électriquement neutre dans son ensemble, pénètre dans le champ terrestre, les particules des deux signes sont séparées et forment
- des courants électriques annulaires autour de la Terre. Toute variation de l’intensité de ces courants provoquerait évidemment une variation du champ magnétique, d’où l’orage. Cette explication n’a besoin que d’une légère retouche pour tenir compte de l’existence des ceintures de Van Allen, que Chapman et Ferraro ignoraient. En effet, nous avons vu que par suite de la dérive des particules due à la courbure des lignes de force du champ terrestre, il existe en permanence des courants électriques annulaires autour de la Terre. Toute modification dans le nombre des particules aurorales se traduit par une variation de l’intensité de ces courants, donc par une perturbation magnétique; ceci se produit en particulier lors de l’arrivée d’un jet solaire, qui provoque un gros afflux de particules dans la zone externe.
- Conclusion. — On le voit, l’importance géophvsiqùe des deux ceintures de particules découvertes au moyen des satellites artificiels est considérable. Mais il est encore impossible de faire une théorie complète de l’existence et du comportement de ces zones, faute de données expérimentales et aussi parce que la solution physique et mathématique des problèmes posés est généralement très ardue. Néanmoins les idées qualitatives que nous venons d’exposer renouvellent complètement nos connaissances sur la physique de la très haute atmosphère. L’influence du champ magnétique terrestre s’étend fort loin, à quelque i4 rayons terrestres du centre de la Terre; celle des champs solaires aussi, et il est fréquent qu’ils interfèrent, ce qui donne lieu à d’importantes perturbations, aurores et orages magnétiques à début brusque.
- Il n’y a rien d’impossible à ce que d’autres planètes soient aussi entourées d’anneaux renfermant des particules de basse énergie. Il suffit en principe qu’elles possèdent un champ magnétique. En ce qui concerne Jupiter, la présomption est assez forte; on a même avancé le chiffre de 7 gauss que l’on déduit de l’étude de la polarisation des étonnantes émissions radioélectriques de cette planète. Si l’effet existe pour la Lune, il est certainement très faible, les fusées lunaires soviétiques n’ayant pas détecté de champ magnétique notable autour de notre satellite.
- L’intérêt astrophysique de telles mesures de champ magnétique et d’intensité corpusculaire est évident : il faut souhaiter que des fusées seront bientôt envoyées non seulement vers la Lune mais vers les planètes les plus proches, projet qui se réalisera sans doute bientôt si l’on en croit des bruits venus d’U.R.S.S. On pourra alors s’attendre à une remarquable floraison de résultats.
- James Lequeux,
- Agrégé de l’Université, Observatoire de Meudon.
- Gaz méthane et fabrication de l’aluminium
- Darts un mémoire de la Société des Ingénieurs civils, M. L. Ferrand a exposé un procédé dont il est l’inventeur et qui a pour but d’utiliser le gaz méthane, issu des gisements de gaz naturel, comme matière première dans la fabrication électrolytique de l’aluminium. On sait que, dans les cuves d’élec-trolyse, le pôle positif est constitué par une électrode de graphite aggloméré qui détermine le processus d’oxydo-réduction grâce auquel l’oxvde métallique A1203 est transformé en métal.
- Après une série d’essais en laboratoire, M. Ferrand a pu démontrer que l’électrode de graphite pourrait être remplacée par une masse-support conductrice et poreuse dans laquelle le gaz méthane serait injecté. Sous la température de 960° qui règne dans la cuve, le méthane CH4 serait dissocié en libérant
- un volume constamment renouvelé de carbone pur à l’état naissant. La fraction hydrogène peut éventuellement intervenir dans le processus d’oxydo-réduction. On peut également l’extraire, en vue de différentes utilisations : recyclage avec le gaz naturel employé comme source d’énergie; hydrogénation de graisses et d’acides gras pour la préparation d’alcools; réduction de minerais de fer par un mélange CO + H2 ; production de deutérium par distillation de l’hydrogène liquide; synthèse de l’ammoniac par le procédé couramment employé.
- Ces études trouveront peut-être leur application industrielle dans l’usine d’aluminium actuellement en construction aux abords du gisement de Lacq.
- Y. M.
- p.154 - vue 157/558
-
-
-
- Vers une destruction accélérée de la Savane soudanaise
- Fig. 1 et 2. — Aux abords du massif de Kita (Soudan).
- A gauche, savane défrichée et cultivée, autour du village de Fodébougou près Kita ; vue prise des premiers escarpements du massif à proximité du village. — A droite, forêt claire couvrant les pentes du massif ; la strate herbacée est principalement à base de Graminées (Photos P. Jaeceh).
- Comprise entre la steppe à épineux au Nord et la savane boisée guinéenne au Sud, la zone soudanaise forme une bande large de 200 à 4oo km qui, parallèlement à l’Équateur, s’étire des rives de l’Atlantique au pied du massif abyssin. Parmi l’ensemble des régions phytogéographiques de l’Ouest africain, elle est une des mieux caractérisées par leur climat, leur végétation et leurs cultures.
- Le climat, alternativement sec et humide, comporte une saison pluvieuse de durée variable suivant la latitude (5 à 7 mois, avril-novembre) ; le total des précipitations annuelles oscille entre 600 et 1 4oo mm ; août est à la fois le mois le plus arrosé et le moins chaud. Durant la saison sèche, fraîche et agréable à ses débuts, on enregistre en décembre-janvier les minimums les plus bas de l’année (ix,4° le 8 janvier 1937 à Bamako) ; les températures deviennent excessives en mars-avril-mai et des valeurs supérieures à 4o° sont chose habituelle (48, i° en avril 1936 à Kayes). Non moins caractéristique du climat soudanais est ce vent continental, sec et chaud, l’harmattan, qui pendant quatre mois au moins souffle en direction est-ouest; il est responsable des hautes températures, de la sécheresse excessive de l’atmosphère et, peut-être même, de l’extension des carapaces ferrugineuses.
- La végétation naturelle en équilibre avec ce climat ne peut être, selon Aubréville, qu’une forêt claire au sous-bois buisson-nant ou arbustif, pauvre en graminées; celles-ci ne peuplaient que les stations où, pour des raisons édaphiques, la forêt ne pouvait s’installer. Au cours des millénaires, l’homme est venu à bout de ce couvert forestier primitif. Dans ce pays de vocation agricole, il établit d’interminables champs de sorgho et de petit mil; le système ancestral des cultures itinérantes avec défrichement par la hache et le feu cadrait d’ailleurs parfaitement avec les besoins de l’habitant et, de plus, il garantissait à la jachère et, partant, au sol, un temps de « repos » prolongé.
- A la forêt s’est ainsi substituée, petit à petit, l’actuelle savane boisée africaine, une vaste étendue graminéenne piquetée d’arbres, une véritable « brousse-parc » qui s’accommode de la périodicité des feux et qui, floristiquement, est constituée « des éléments mélangés suivant d’innombrables et nouvelles combinaisons, de toutes les formations anciennes détruites... » (A. Aubréville).
- L’éclaircissement du couvert forestier favorisa l’installation du tapis herbacé et, par voie de conséquence, les feux de brousse; la forêt primitive battue en brèche céda sa place à la savane herbeuse. « Le régime des feux, dit J. Lebrun, contrecarre ou empêche le retour de la forêt primitive et maintient la végétation à un stade inférieur à ce qu’il pourrait être, a « Si le feu peut être classé parmi les facteurs biologiques en ce sens qu’il influe sur la biologie des végétaux, il est avant tout à considérer comme facteur « nécrologique » i — « L’accoutumance au feu de certains végétaux... ne doit pas faire oublier qu’à côté de ces espèces privilégiées, une foule d’autres sont vouées à la mort lorsqu’elles se trouvent soumises à un tel régime » (H. Humbert).
- L’homme doit donc être rendu responsable de la destruction du couvert forestier primitif et de son remplacement par cette formation secondaire qu’est l’actuelle savane boisée; et celle-ci durera autant que dureront les interventions humaines; elle correspond à un équilibre provisoire et instable; que l’homme cesse son action néfaste et aussitôt on assistera à une reprise du boisement naturel que le feu a bloqué ou freiné dans son évolution.
- Le couvert forestier primitif, presque totalement anéanti, n’a pu se conserver que dans des stations privilégiées inaccessibles aux feux ou inaptes aux cultures : sur les buttes et plateaux gréseux à topographie accidentée, dans les galeries forestières des fleuves et cours d’eau, dans les forêts sacrées où, par crainte des esprits, l’homme évite de porter atteinte aux arbres...
- p.155 - vue 158/558
-
-
-
- 156
- Fig. 3 et 4. — Les effets des feux périodiques dans le massif de Kita.
- A gauche, pendant la saison pluvieuse ; au premier plan une cuirasse ferrugineuses (bowal ou fouga) avec une maigre végétation herbacée ; les pentes du fond sont couvertes de forêts claires. — A droite, partie d’un bowal en pente ; la partie antérieure, incendiée, laisse voir des termitières en chapeau de champignon (Cubitermes) ; la partie du fond, non encore touchée par les flammes, comprend une nappe graminéenne sèche ; à l’arrière-plan,
- une hauteur boisée appartenant encore au massif de Kita {Photos P. Jaeger).
- Le régime des feux et des défrichements périodiques tel qu’il était pratiqué au cours des millénaires, s’il fut préjudiciable au couvert forestier primitif, n’est nullement incompatible avec la survie de la savane boisée; celle-ci, en effet, ne semble guère incommodée par le passage périodique de la vague ignée. « Les feux sauvages, normalement espacés, dit J. Lebrun, ne sont pas un obstacle à la végétation ligneuse des savanes. » Mais cet équilibre, artificiel et précaire, qu’est le climax du feu, risque d’être rompu aujourd’hui à la suite d’une intensification des défrichements que commande l’accélération du mouvement démographique. Pour faire face aux besoins alimentaires d’une population toujours croissante, les surfaces cultivées vont en s’agrandissant; le rythme des défrichements va nécessairement en s’accélérant tandis que la durée des jachères va en diminuant. Le couvert forestier se fait de plus en plus clairsemé, la strate herbacée, par contre, prend de plus en plus d’ampleur et le sol, exposé aux ardeurs du soleil tropical, ne tarde pas à se dégrader. Si le système ancestral avec son rythme modéré des défrichements et jachères a permis l’installation et le maintien de la savane boisée, l’accélération de ce rythme conduit inéluctablement à la stérilisation des terres.
- Ces processus de dégradation sont plus apparents et plus rapides encore quand ils surviennent sur des terres en pente. L’effet désastreux de ces pratiques est particulièrement net dans la région des collines et plateaux des environs de Kayes, de Bamako, de Kéniéba. Si la savane de plaine n’a guère modifié son allure habituelle, au cours des dernières décennies, on ne peut en dire autant du tapis végétal qui couvre pentes et replats de nos collines soudanaises. Par leur physionomie et leur composition floristique, ces forêts sont proches de celles de la plaine; on peut même, dans certains cas, déceler les vestiges d’anciens villages et cultures : les essences que l’homme a respectées au cours des défrichements, tels le Néré, le Karité..., dépassent en hauteur et en importance celles qui se sont installées plus tard, et beaucoup de ces forêts, particulièrement celles du massif de Kita, malgré le passage périodique des feux, ont belle allure depuis que l’homme a renoncé au défrichement.
- Mais comme le besoin en bois de construction et surtout en bois de chauffage (charbon de bois) va en s’intensifiant, l’homme des agglomérations importantes comme Kayes ou Bamako s’est mis à déboiser inconsidérément les collines des environs et cette dévastation est tellement voyante qu’elle frappe le voyageur qui, à une dizaine d’années d’intei'valle, est amené à parcourir ces régions. A l’est de Kayes, comme aux environs de Bamako, on est péniblement surpris par l’état désolé des collines dont les pentes sont couvertes, en saison pluvieuse, par un monotone tapis de graminées d’où émerge, par-ci par-là, un buisson ou un arbre rabougri au tronc tortueux et noirci par le feu; en saison sèche, la strate herbacée brûle et le sol, en grande partie entraîné par les eaux de ruissellement, est eneom-bré par une caillasse ferrugineuse.
- Tout aussi désolées nous ont paru les collines des environs de Guénou Goré dans la portion sud-occidentale du plateau mandingue, non loin de Kéniéba, où défrichements et cultures intensives sur pente sont, à notre avis, seuls responsables de l’appauvrissement de ce pays.
- Le spectacle de désolation est d’autant plus frappant quand ces collines voisinent avec des hauteurs semblables, qu’une heureuse initiative a mises à l’abri des feux et autres dommages. C’est le cas, entre autres, des forêts qui couvrent les pentes de l’immense fer à cheval que forment, près de Bamako, les hauteurs de Koulouba, du Point G et de Balasokho. Grâce aux mesures judicieuses, prises en temps utile par les Eaux et Forêts et par l’LF.À.N., ces peuplements, depuis bientôt quinze ans, n’ont pas subi la moindre déprédation, ni par le feu ni par la hache. Aussi tranchent-ils par leur luxuriance et leur densité sur les maigres pelouses ravagées, pratiquement dépourvues d’arbres, qui les encadrent de part et d’autre. Ce panorama aux contrastes saisissants s’étale, éloquent, devant les yeux du voyageur qui, Amenant 'de Ségou ou de Bougouni, débouche en face de Bamako sur l’embarcadère de la rive droite du Niger.
- *
- * *
- p.156 - vue 159/558
-
-
-
- 157
- Fig. 5 et 6. — Feux de brousse sur le plateau sommital du massif de Kita au début de la saison sèche (mi-décembre).
- A gauche, pendant l’incendie. — A droite, immédiatement après le passage de la vague de feu (Photos P. Jaeger).
- Fig. 7, 8, 9. — Des arbres qui résistent aux feux de brousse.
- A gauche, tronc de karité (Butyrospermum Parhii), Sapotacée caractéristique du Soudan occidental ; le suber est curieusement divisé en petites surfaces carrées ou polygonales. .— Au milieu, tronc de kapokier (Bombax costatum) que ses émergences subéreuses protègent contre le feu. — A droite, tronc de dougoura (Cordyla pinnata), Césalpiniacée qu’on reconnaît de loin à sa cime en coupole ; l’écorce, subéreuse et fissurée, lui permet de résister aux
- feux (Photos P. Jaeger).
- Ce rapide tour d’horizon nous a mis en présence d’un danger imminent qui menace la savane soudanaise et qui, de plus, compromet l’avenir économique du pays. En toute hâte, nous devons conjurer ce péril avant que le mal soit irréparable. Il est urgent de remplacer le système ancestral de l’agriculture itinérante, désormais. désuet, par un système plus rationnel adapté aux besoins de la société de demain. Le sol des savanes soudanaises est d’une grande pauvreté en matières organiques et, partant, d’iine grande fragilité; il demande à être enrichi en humus. Plutôt que de laisser le bétail errer à travers la brousse à la recherche d’un butin toujours maigre et même inexistant en saison sèche, ne serait-il pas plus rationnel de le soumettre, au moins nuitamment, au parcage? Le sol, ainsi fertilisé, saura supporter les cultures les plus exigeantes. De même, plutôt que de laisser aux feux le soin de transformer en fumée des tonnes de matière herbacée, ne serait-il pas plus logique de créer des prairies et de constituer, sous la forme de foin ou de fourrage
- vert ensilé, des réserves alimentairés que le bétail apprécierait hautement en saison sèche ?
- Une transformation aussi profonde de l’économie rurale, l’instauration de méthodes culturales aussi différentes de celles que sanctionne une tradition déjà millénaire, ne peuvent être accueillies favorablement que par un agriculteur instruit et avisé. Sans vouloir méconnaître la valeur des données empiriques accumulées par le passé, il y a lieu d’asseoir sur d’autres bases l’avenir économique du pays. Mais la mise en place de nouvelles méthodes de cultures et d’exploitations exige le concours de Techniciens rompus aux disciplines les plus diverses. Bref, si nous voulons faire de l’Afrique des savanes non pas un désert, mais un pays d’avenir, nous devons, en premier lieu, tenir compte des découvertes les plus récentes que d’assidus chercheurs ne cessent d’enregistrer dans le domaine des sciences biologiques.
- Paul Jaeger.
- p.157 - vue 160/558
-
-
-
- 158
- Les Mégapodes
- Des oiseaux qui pratiquent l'incubation artificielle
- C’est un des compagnons de Magellan qui, au retour de la célèbre expédition de i5ig-i522, fut le premier à faire connaître en Europe l’existence d’un oiseau qui pratiquait 1’ « incubation artificielle ». Peu de gens ajoutèrent foi à cette information qui avait à la fois toute la saveur et toute l’invraisemblance des « histoires de marins ». « A beau mentir qui vient de loin » est un dicton qui avait déjà cours à cette époque.
- Lorsque les pi'emiers colons s’installèrent en Australie, ils manifestèrent la même incrédulité vis-à-vis des indigènes qui leur montraient des tertres de fortes dimensions, en expliquant que c’étaient des nids d’oiseaux. On continua à considérer ces
- cônes de terre et de feuillages comme des monuments funéraires jusqu’au jour où, en i84o, le naturaliste John Gilbert se décida à creuser un de ces monticules et y découvrit des œufs (figure de la couverture).
- Le fait est donc connu de longue date et a été maintes fois cité. Ce n’est pourtant que tout récemment qu’il a été méthodiquement étudié, en particulier par H. J. Frith : les observations de ce zoologiste, poursuivies pendant dix ans, ont fait l’objet d’un article dans la revue Scientific American (août 1969).
- Ces oiseaux appartiennent tous à la famille des Mégapodiidés, Gallinacés dont le genre Megapodius est le type. Ce nom est
- justifié par les dimensions et la force des pattes, dotées en outre d’ongles puissants. Leurs dimensions sont analogues à celles des grosses volailles de la basse-cour. Les Mégapodes ne volent que rarement et se laissent très difficilement approcher par l’homme.
- L’espèce la plus répandue est Megapodius Freycineti que l’on trouve sur un large périmètre qui englobe toutes les Iles de la Sonde, se prolonge au nord-ouest jusqu’aux Iles Mariannes, au sud-ouest jusqu’aux Fidji, au sud sur les côtes septentrionales de l’Australie, à l’ouest jusqu’à l’extrême pointe de Sumatra. Les autres espèces sont plus étroitement localisées : Megacephalon Maleo sur l’île de Célèbes, Euleipoa Walla-cei dans les Moluques, Tallegaius Jobiensis et Æpypodius Arfakia-nus en Nouvelle-Guinée, Alectura Lathami sur la côte orientale de l’Australie, Leipoa ocellata dans le sud de l’Australie.
- On peut se rendre compte, par cette énumération et par l’implantation géographique des différentes espèces, que celles-ci sont soumises à des conditions climatiques très variées qui justifient certains comportements et certaines « techniques » d’incubation artificielle.
- La méthode la plus simple est celle des Mégapodes des Célèbes et des Moluques. Vivant généralement sur les îlots, au large des grandes îles, ces oiseaux jouissent d’un climat chaud où les variations diurnes sont très faibles. C’est là un facteur favorable pour
- Fig. 1. — Le « Dindon de la
- brousse » (Alectura Lathami) et son tertre-couveuse exclusivement végétal.
- (Photo aimablement communiquée par les Services australiens d’information)
- p.158 - vue 161/558
-
-
-
- 159
- Fig. 2. — Un poussin de Leipoa, six heures après l’éclosion, a réussi à parvenir à Pair libre. (Photo aimablement communiquée par les Services australiens d’information).
- laisser les œufs se couver tout seuls en les enterrant dans un sol qui garde uniformément la même température. Toutefois les jungles ombragées où vivent Megacephalon et Euleipoa seraient malgré tout trop fraîches pour une couvaison optimale. Les oiseaux ont donc pris l’habitude de se diriger vers les plages ensoleillées où ils creusent des trous à faible profondeur pour y déposer leurs œufs.
- On a remarqué que leur choix va de préférence aux plages à sables noirs (dus à l’érosion de roches volcaniques), qui absorbent davantage la chaleur. Cette simple utilisation de l’énergie solaire présente un seul inconvénient : dans certaines îles, l’habitat des oiseaux est très éloigné de la côte et les couvaisons répétées les obligent à de fréquents déplacements sur des distances qui atteignent 3o km.
- La même technique simplifiée a été adoptée par le Megapo-dius, l’espèce dominante, lorsqu’il se trouve dans les mêmes -conditions que le Megacephalon et VEuleipoa. Chose curieuse, ses œufs voisinent très souvent sur les plages avec ceux qu’y déposent les tortues marines. Mais avec un parfait éclectisme, cet oiseau exploite, quand il en a l’occasion, l’énergie géothermique, soit auprès des fumerolles volcaniques, soit dans les cendres de cratères en activité.
- Sur les grandes îles et sur les continents, le Megapodius modifie progressivement sa technique. S’il se trouve près de la mer, il se contente de surélever la couveuse en un petit monticule qui mettra les œufs à l’abri des marées. Lorsque au contraire, il entreprend la couvaison dans une jungle éloignée du rivage, c’est à la chaleur dégagée par les feuillages en décomposition qu’il va faire appel. Entre ces deux extrêmes, il y a toute une gamme de solutions intermédiaires où l’action du soleil s’ajoute à l’énergie chimique de la fermentation végétale. Cela conduit parfois le Megapodius à construire des tertres mixtes (sable et feuillages) qui peuvent atteindre une quinzaine de mètres de diamètre et 5 à 7 m de hauteur.
- Chez les espèces de Mégapodes qui habitent les régions chaudes et humides de la Nouvelle-Guinée et de l’Australie du Nord (l’une d’elles est communément appelée le « dindon de la brousse »), la méthode est dictée par le climat : les tertres sont faits uniquement de feuilles pourrissantes qui sont facilement rassemblées sur des surfaces de 3 à 5 m de diamètre et s’accumulent jusqu’à plus de x m de hauteur (fig. 1).
- L’extraordinaire travail des « Leipoa » pour la régulation thermique des nids
- Les différents Mégapodes dont les comportements viennent d’être décrits bénéficient dans l’ensemble d’un certain confort et n’éprouvent pas de difficultés majeures à exploiter les sources de chaleur qui leur sont offertes. Moyennant un choix judicieux, ils ne sont pas condamnés à un travail accablant.
- Tout autre est le cas du Leipoa ocellata qui vit en zone aride. Les pluies ne dépassent pas 200 mm par an et, loin de pourrir, les feuilles dures et sèches sont éparpillées par le vent ou dévorées par les termites. Quant à la température, elle varie entre •— 6° et + 45°.
- L’oiseau doit faire face à cette situation difficile et la solution qu’il adopte est essentiellement de procéder au ramassage des feuilles, au début de l’hiver austral (c’est-à-dire au mois de mai), alors qu’elles reçoivent le maximum d’humidité. Pour que cette humidité se conserve, il les enfouit dans un trou, préalablement creusé, qui mesure environ 5 m de diamètre et un peu plus de 1 m de profondeur (fig. 3). Tout au long de l’hiver, il fait la collecte des feuilles mouillées qu’il tasse soigneusement : en août il les recouvre d’environ 5o cm de terre (fig. 4 et 5). La fermentation est ainsi obtenue. Sinon le Leipoa renonce à toute couvaison.
- C’est le mâle qui, dans le couple, assume toutes les opérations
- p.159 - vue 162/558
-
-
-
- Fig. 3 et 4. — Le nid en forme de cratère du Leipoa, rempli de débris végétaux, sera ultérieurement recouvert de terre.
- (Photos aimablement communiquées par les Services australiens d'information)
- p.160 - vue 163/558
-
-
-
- Fig. 5 et 6.
- Des Leipoa au travail pour régler la température qui convient à l’incubation des œufs.
- (Photos aimablement communiquées par les Services australiens d’information).
- p.161 - vue 164/558
-
-
-
- de protection et de chauffage des œufs : indispensable division du travail, car la femelle est accaparée par la ponte. A chaque saison, elle pond au total environ 35 œufs, à intervalles de 4 à 8 jours, et chacun d’eux pèse autour de 25o g, ce qui est considérable pour un oiseau dont le poids atteint rarement 2 kg.
- La régulation de la température est, pour le mâle, une tâche exceptionnellement délicate. Au cours de ses observations, Frith a pu noter que certains de ces techniciens ne tolèrent aucune variation autour de la température optimale qui est 33° (alors que le sol lui-même est à environ i5,5°). D’autres se laissent une marge, entre 32° et 36,5°. Quoi qu’il en soit, ceci exige une extrême attention : au printemps, la température de la couveuse, si elle n’était pas contrôlée, pourrait s’élever jusqu’à 46°, du fait d’urie fermentation trop brutale. Par la suite, elle tend au contraire à descendre. Dans l’un et l’autre cas, le Leipoa doit se livrer à toute une gamme de manœuvres compensatrices.
- Première manœuvre, au moment de la fermentation maximale : creuser la couveuse, laisser échapper les calories en excédent, refermer (fig. 6).
- Deuxième manœuvre : en été la fermentation est ralentie, mais le soleil chauffe le sol et cette chaleur s’ajoute par conduction à celle que dégagent les feuilles. Il faut alors s’opposer à cette surchauffe en accumulant une plus grande épaisseur de sol (matériau isolant). C’est à ce moment que la couveuse prend extérieurement l’aspect d’un tertre. Un contrôle périodique est toutefois nécessaire ; environ une fois par semaine, le tertre est complètement déblayé à l’heure fraîche de l’aube et un réglage de température est opéré; après quoi le tertre est à nouveau édifié.
- Troisième manœuvre qui a lieu à l’automne, lorsque l’oiseau ne peut plus compter sur la fermentation et que la chaleur solaire est sensiblement diminuée : à 10 h du matin, le Leipoa découvre le nid, laissant les œufs presque à nu pour leur laisser absorber le maximum de chaleur solaire, puis il accumule sur eux du sable chaud ramassé aux alentours. Le tertre est refermé à 16 h. Cette manœuvre doit être répétée chaque jour.
- Frith s’est demandé si ces différentes manœuvres correspondaient à un comportement de routine, dicté par les traditions instinctives de l’espèce. En ce cas, les méthodes seraient invariablement « temporisées » selon les saisons. Or, tout au contraire, elles s’adaptent avec souplesse à toutes les irrégularités climatiques : si le printemps est exceptionnellement chaud, la manœuvre de l’été est précocement employée; si l’automne est particulièrement froid, le Leipoa évite de découvrir les œufs, etc.
- Pour plus de précision, Frith s’est livré à un « sabotage expérimental » en faisant descendre à i5° la température d’une couveuse. Cela se passait en octobre (c’est-à-dire au printemps austral). L’oiseau a aussitôt réagi en adoptant la manœuvre automnale numéro trois. Lors d’une contre-expérience où le naturaliste avait accru la chaleur, en employant des résistances électriques, le Leipoa a répondu de manière imperturbable en procédant à une réfrigération de la couveuse.
- La conclusion est que cet extraordinaire oiseau opère selon les meilleurs principes de la technique et varie ses procédés selon la température du nid. Ceci implique qu’il puisse exactement la mesurer : en l’observant, Frith a pu noter qu’il plongeait à maintes reprises son bec dans les différents niveaux du tertre : il pense que le « thermomètre » se situerait dans les terminaisons nerveuses de la langue ou du palais.
- Malgré la minutie de la tâche qui incombe au Leipoa mâle, il est soumis à une « supervision » qui est exercée par la femelle. Lorsqu’une couveuse est prête pour accueillir les œufs, elle vient l’inspecter et si l’emplacement ne lui paraît pas favorable, elle exprime son refus en s’éloignant. Le mâle doit alors recommencer le travail à un autre endroit. Il est à noter que cette exigence féminine n’est pas admise chez les « dindons de la
- brousse » : la femelle est constamment écartée de la couveuse où elle n’a droit de pénétrer que pour y déposer ses œufs.
- Des résultats décevants
- L’étrange conséquence de ces comportements complexes est que les petits sont entièrement livrés à eux-mêmes. Leurs parents sont beaucoup trop occupés par les préliminaires de l’éclosion pour pouvoir se soucier de cet ultime aboutissement de leurs efforts. C’est ainsi que, solitairement, le poussin de Leipoa sort de sa coquille à 1 m de profondeur, sous le tertre qui le recouvre. Grâce à des efforts désespérés qui durent parfois i5 à 20 h, il progresse péniblement vers l’air libre (fig. 2). Puis, toujours seul et désarmé, il se dirige vers un abri de la jungle. Après s’v être reposé environ 2 h, il s’en va chercher sa subsistance. Aucune aide ne lui est apportée.
- Frith a constaté le peu d’efficacité de l’incubation artificielle. Les résultats en effet ne sont pas à la mesure du travail de forçat, imposé en particulier au Leipoa mâle : non seulement les petits sont dangereusement exposés au moment de leur naissance (ce qui entraîne de nombreuses pertes), mais les œufs, sous leur tertre, subissent souvent les effets d’un orage qui détruit l’édifice. Le pourcentage d’éclosions manquées est de ce fait assez élevé, sans compter l’action des prédateurs (renards et autres) qui savent fort bien déterrer les œufs.
- La technique classique des oiseaux (couver les œufs à la chaleur du corps) est certainement plus efficiente et singulièrement moins compliquée.
- *
- * *
- Quelle peut être l’origine du comportement spécial des Méga-podes ? Certains naturalistes ont imaginé que ce serait un comportement primitif, hérité des reptiles, ancêtres des oiseaux.
- Frith formule une hypothèse opposée : les Mégapodes, chez qui la nidification se faisait au début à même le sol, ont pris l’habitude de recouvrir les œufs pour les mettre à l’abri des prédateurs. Us se sont alors aperçus de la régulation automatique de température ainsi obtenue et ont cessé de couver leurs œufs. Dans le cas de Leipoa, cette pratique a été aussi facile que pour les Mégapodes de Célèbes et des Moluques, tant que le climat australien est resté humide. Cette phase a été constatée par les paléogéographès. Mais la zone où habite Leipoa étant progressivement devenue aride, cet infortuné volatile a dû perfectionner et adapter ses méthodes jusqu’à devenir un véritable esclave de son progrès technique ! Leçon que certains mammifères supérieurs pourraient parfois méditer.
- On peut accepter le schéma général de cette reconstitution historique tout en pensant que les Mégapodes n’ont pas élaboré consciemment leur comportement. Beaucoup de biologistes préféreront sans doute en attribuer les changements progressifs à des mutations qui se sont conservées parce qu’elles étaient utiles, ou du moins non nuisibles, aux époques où elles se sont produites.
- Gaston Cohen.
- Le système métrique aux Indes
- Aux Indes, dans certaines régions, l’enseignement officiel primaire et secondaire comporte l’étude du système métrique. Déjà, depuis deux ans, une nouvelle monnaie est chiffrée sur la base décimale. On prévoit que le système métrique, poids, mesures et monnaies, sera étendu au pays entier en 1966. En conséquence, les transactions commerciales avec l’étranger devront se plier aux normes du système métrique et décimal.
- p.162 - vue 165/558
-
-
-
- Un impératif de l'agriculture moderne :
- L'IRRIGATION PAR ASPERSION
- 163
- L’ampleur des réalisations industrielles de notre époque et les nombreuses applications scientifiques qui les conditionnent risquent, pour beaucoup de gens, de masquer certains impératifs agricoles. Il ne suffit pas d’évaluer sommairement l’insuffisance en quantité et qualité de la nourriture qui peut être distribuée à une importante fraction de la population du globe : on se doit également d’examiner si cette insuffisance est sans remèdes ou plutôt si elle ne provient pas d’une carence toute provisoire des techniques.
- Globalement, on a chiffré à environ 80 ares la surface de terre cultivable nécessaire pour assurer la subsistance d’une personne humaine. Puis, confrontant le recensement des surfaces avec celui des habitants de la planète, on a pu établir que d’ores et déjà les 80 ares unitaires ont cessé d’être disponibles. Les terres cultivables, en effet, seraient de i 620 000 000 ha, la population 2 700 000 000. Le quotient est 0,61 ha par habitant. A cela, il faut ajouter que ce chiffre moyen n’a qu’une valeur toute relative, par suite de la répartition très inégale des régions agricoles et des concentrations démographiques.
- Jusqu’ici, la sous-alimentation et la malnutrition ont été surtout sensibles dans les continents asiatique, africain et sud-américain. C’est donc de ce côté que se tournent les premiers efforts de l’Organisation des Nations Unies. Mais on ne peut se dissimuler qu’à assez brève échéance la pénurie mondiale risque de s’étendre aux nations habituées à vivre dans l’abondance. Elles ont, en effet, accumulé d’autres besoins pour lesquels des surfaces cultivables sont constamment sacrifiées : il ne s’agit pas seulement de l’extension des villes et des centres industriels, mais des routes, autoroutes, canaux, aéroports. La Hollande, pour ne citer que cet exemple, perd chaque année, du fait de ces empiétements, l’équivalent des terres qu’elle a reconquise sur la mer.
- Quant au quarante-cinq millionième Français dont on a fêté récemment la naissance, il est fort vraisemblable que cet heureux événement s’est accompagné de quelque conversion de parcelle rurale en parcelle industrielle ou urbaine.
- Une conclusion malthusienne s’impose-t-elle ? II serait peut-être rationnel d’examiner auparavant le problème sous un angle moins étroitement statistique et de réviser la notion assez floue du rendement agricole, à la lumière des résultats obtenus ou escomptés par la recherche agronomique.
- Les programmes d'irrigation. — Les facteurs bruts du rendement pour une espèce végétale déterminée sont la composition du sol, riche ou non en matières nutritives, et le climat, caractérisé par l’humidité, l’ensoleillement et les vents. Le premier de ces facteurs est couramment corrigé par l’apport d’engrais organiques ou minéraux, d’oligo-éléments, d’amendements. Quant au facteur climatique, on s’efforce d’en tenir compte en sélectionnant les végétaux qui y sont le mieux adaptés : des corrections génétiques peuvent non seulement faire prospérer certaines espèces sous un climat auquel le végétal était précédemment rebelle, elles favorisent également le rendement unitaire du végétal.
- Mais le climat lui-même n’est pas susceptible d’être modifié, en ce qui concerne du moins la température et la lumière. La seule correction possible — elle est primordiale — est que les végétaux disposent de la quantité exacte d’humidité qui correspond à leurs besoins physiologiques. À cet égard, il est de toute évidence que de très nombreux terrains ne répondent pas à cette dernière condition, soit qu’ils ne reçoivent pas le volume nécessaire de précipitations, soit qu’ils retiennent en permanence un excès d’humidité.
- Fig. 1. — Mise en place d’une des six pompes de 2 250 l/s qui alimentent la branche maîtresse des Costières (Gard).
- Une enquête va être prochainement entreprise en France pour tenter d’évaluer les surfaces qui répondent à l’un et l’autre de ces cas défavorables. En l’absence de chiffres précis, les services agricoles se contentent provisoirement de mettre l’accent sur l’importance des travaux d’assainissement et de drainage qui seraient actuellement souhaitables. On est un peu mieux orienté au sujet des zones qui sont déjà irriguées ou susceptibles de l’être.
- Un recensement déjà ancien indique que 2 5oo 000 ha sont actuellement irrigués, ce qui correspondrait à 7 pour 100 environ de la surface agricole utile du pays. Ce chiffre est très approximatif. Par contre, on connaît l’étendue des irrigations entreprises par des organismes collectifs et qui portent sur environ 25o 000 ha. Les prochaines années vont être employées à augmenter considérablement cette superficie. Les aménagements en cours de réalisation ou en projet sont les suivants ^
- Bas Rhône-Languedoc irrigables
- Canal de Provence 35 000 ))
- Basse et Moyenne Durance 100 000 ))
- Coteaux de Gascogne 77 000 ))
- Marais de l’Ouest 12 000 ))
- Corse 10 800 ))
- Vallée du Rhône 23 000 ))
- Var (vallée du Reyran) 2 500 ))
- Total 365 300 ))
- Une remai'que ne peut manquer d’être faite, à -la lecture de-cette liste. C’est que l’effort entrepris intéresse surtout les provinces soumises au climat méditerranéen, très favorable an point de vue de l’ensoleillement, mais où les précipitations, considérables en automne, sont très faibles pendant le reste de-
- p.163 - vue 166/558
-
-
-
- 164
- Fig. 2 — Départ des conduites qui refouleront à la cote 22 m les 60 m3/s destinés au canal principal Pichegu-Béziers.
- l’année, avec cette aggravation que le vent et le soleil activent perpétuellement l’évaporation du sol et des végétaux.
- L’urgence de ces aménagements méridionaux ne peut donc êti’e contestée. N’empêche que, sur la presque totalité du territoire français, il existe un déficit de précipitations qui varie de 5o à 4oo mm par an. Ce déficit, précisons-le, est une valeur moyenne : il peut être nul pendant les années humides, bien plus accentué au contraire pendant les années sèches, telles que, par exemple, iqôg. C’est ainsi que l’on considère que, dans le bassin parisien, la vallée de la Loire et le Sud-Ouest, l’optimum n’est atteint qu’une à trois années sur dix.
- Est-ce à dire que les champs de ces régions devraient être uniformément irrigués, cela d’un bout à l’autre de l’année ? Évidemment non : tout dépend en premier lieu de la capacité de rétention du sol. Une irrigation sur des sols à rétention élevée pourrait être plus nuisible qu’utile. Dans le cas contraire, il ne s’agit cependant que de compenser les déficits d’eau qui se produisent pendant les périodes dites critiques, au moment par exemple où l’évapo-transpiration des végétaux est intense et où le sol se vide de son humidité par infiltration. On tient compte également du stade auquel sont parvenus les végétaux : les agriculteurs savent que les semis de printemps exigent, pour une levée rapide et la réussite des cultures, environ io mm de pluie, répétés à 4 ou 5 jours d’intervalle.
- C’est en vain, le plus souvent, qu’on attend cette pluie arrivant à point nommé. Se fier à une moyenne climatique généralement <c acceptable » équivaut à prédire par avance une inégale succession de récoltes, tantôt bonnes, tantôt médiocres. Les considérations qui précèdent ne sont plus compatibles avec ce fatalisme. Et c’est ainsi que se fait jour actuellement le concept généralisé de l'irrigation de complément. Signalons que l’Unesco l’a inscrite à son ordre du jour et que de nombreux pays étudient actuellement les systèmes d’irrigation qui répondent aux nécessités nouvelles. Le point sur lequel on ne saurait trop insister est le coût très élevé des ouvrages qui doivent être édifiés pour retenir l’eau destinée aux irrigations : de semblables investissements doivent impérativement être compensés par une stricte économie de l’eau et par une efficacité maximale du mode d’irrigation.
- L'irrigation à la raie, système ancestral. — La
- méthode généralement employée depuis les temps les plus anciens est celle de l’irrigation superficielle, souvent appelée irrigation à la raie. Elle débute par une prise d’eau qui dérive une partie du débit d’une rivière dans le canal principal d’irrigation. A ce canal on fixe un tracé tel qu’il puisse « dominer » une certaine superficie de terres situées en aval de la prise. L’eau peut être ainsi distribuée par gravité dans ces terres, au moyen de branchements latéraux qui la dirigent vers les parcelles à irriguer.
- Ces branchements doivent nécessairement se ramifier en un grand nombre de canaux secondaires, de rigoles et de raies qui répartissent l’eau à travers toute la surface irrigable. Ce réseau, pour être correctement établi et ne pas occasionner de pertes d’eau, représente une dépense assez importante en main-d’œuvre. En outre, il occupe une surface qui peut être estimée entre 3 et 5 pour xoo du terrain cultivable. On peut enfin noter qu’il s’oppose, en de nombreux cas, au passage des tracteurs.
- Le terrain lui-même serait impropre à l’irrigation s’il n’était soigneusement nivelé : l’eau, en effet, doit s’écouler lentement et régulièrement, ce qui suppose une surface aussi plane que possible et présentant une très légère pente. Il va de soi qu’une telle condition est exceptionnellement réalisée, à moins que les cultivateurs eux-mêmes ne fassent disparaître les creux et les bosses. Cette opération, coûteuse en main-d’œuvre, n’est réalisable que sur des surfaces qui se rapprochent de l’horizontale. Les sols en pente ou fortement mamelonnés sont d’avance exclus de l’irrigation superficielle.
- Ce procédé est généralement appliqué selon des règles locales qui attribuent à chaque propriétaire son tour d’arrosage (ou, selon le terme consacré : son « tour d’eau »). La périodicité ainsi imposée n’est pas toujours favorable aux cultures : il est facile de comprendre que le « tour d’eau » survenant un jour de pluie devient sans objet, ce qui est d’autant plus pénible que, dans l’intervalle, les végétaux ont pu souffrir de la sécheresse.
- Ces mécomptes assez fréquents ont une incidence psychologique : lorsque son tour arrive, le cultivateur a tendance à utiliser en totalité l’eau qui lui est allouée. Le moindre mal, en ce cas, est que l’excès d’eau ruisselle inutilement sur le terrain. Mais il se peut également que cette eau, trop généreusement libérée, ce lessive » le sol et provoque à la longue une montée du niveau des nappes souterraines, au grand préjudice des parcelles situées en contrebas.
- En résumé, l’irrigation superficielle exige de nombreuses heures de travail, implique des connaissances techniques éprouvées, réduit la surface effectivement cultivée et entraîne d’énormes gaspillages d’eau. À quoi il faut ajouter que le réseau des rigoles et les parcelles aplanies ont modelé le terrain une fois pour toutes, ce qui rend souvent impossibles les remembrements destinés à une meilleure exploitation des terres.
- L’aspersion. — Tous les défauts de ce système ancestral étant connus, il était logique de rechercher un mode d’irrigation qui permettrait de fournir l’eau à la mesure exacte des besoins et de telle sorte qu’elle soit toujours disponible pour chacun, aux moments critiques de la végétation. Si ce but est atteint, la stricte économie qui en découle a pour conséquence de pouvoir étendre l’irrigation à de plus larges surfaces.
- C’est l’irrigation par aspersion qui semble devoir répondre le mieux à l’optimum recherché. Elle est appliquée depuis quelques années sur » une large échelle dans divers pays, parmi lesquels les États-Unis, l’Allemagne, l’Italie et Israël. Elle se répand également en France, où les aménagements cités plus haut ont été conçus en vue de ce mode d’irrigation.
- Le principe est d’humidifier le sol par une pluie artificielle, arrosage en tous points préférable à celui qui ne fait que baigner les racines des plantes. Mais on conçoit qu’un tel arrosage
- p.164 - vue 167/558
-
-
-
- 165
- Fig. 3. — Jeune plantation d’arbres fruitiers sous aspersion sur le plateau des Costières.
- (Photos aimablement communiquées par la Compagnie nationale d’aménagement du Bas Rhône - Languedoc.
- ne peut être réalisé qu’à condition de recevoir l’eau sous pression. Pour créer cette pression, les aménagements collectifs ont évidemment dû tenir compte de la topographie. Pour la Provence et la vallée de la Durance, les reliefs accidentés permettent de créer de vastes réservoirs qui dominent largement les terres à irriguer, tout en stockant d’importants volumes d’eau. Le Bas Rhône-Languedoc (sauf pour sa partie occidentale) est tribütaire du Rhône, situé en contrebas, et une série de stations de pompage refoulent l’eau dans des canaux dont le niveau est plus élevé que celui du fleuve. Ce premier pompage ne suffit pas cependant à assurer la distribution sous pression et c’est pourquoi des châteaux d’eau ont été édifiés le-long des canaux (voir : Vers l’irrigation du Languedoc, La Nature, décembre 1957, p. 465).
- En d’autres régions (comme par exemple les Coteaux de Gascogne), dépourvues de rivières importantes et au relief peu accentué, on a proposé de constituer des petites réserves dites « collinaires ». Elles ont pour rôle de retenir des cours d’eau secondaires derrière des digues en terre d’une hauteur qui varie entre 5 et x5 m. Le volume de la retenue dépasserait rarement 200 000 m3.
- L’eau sous pression doit être distribuée à travers la campagne : elle emprunte un réseau de canalisations enterrées qui ne diffèrent pas sensiblement de celles qui existent dans les villes ou les villages. Ce réseau représente évidemment une lourde dépense, mais les tuyaux, recouverts d’environ 1 m de terre, n’ont pas le même inconvénient que les rigoles superficielles : le sol peut désormais être intégralement cultivé. La division rigide du terrain est du. même coup abolie.
- Chaque bi’anche du réseau aboutit à une borne d’arrosage à deux ou quatre sorties. Des compteurs y sont disposés, ainsi que des limitateurs de débit et des régulateurs de pression. Le principe, en effet, est que les cultivateurs, tout en payant l’eau selon le volume effectivement utilisé, ont droit à un débit réglé une fois pour toutes et à une pression dont l’amplitude des variations ne doit en aucun cas dépasser 20 pour xoo.
- Dans le périmètre du Bas Rhône-Languedoc, chaque boi-ne d’arrosage (à quatre sorties) permet l’irrigation d’un rectangle de 4 ha. C’est cette opération qui constitue l’originalité du système, bien qu’elle s’apparente à l’arrosage des jardins et des potagers, depuis longtexnps en-honneur autour des localités
- qui disposent d’eau sous pression. Il a fallu cependant ci'éer un matériel spécial, très maniable et se prêtant parfaitement aux fréquents déplacements qu’imposent les arrosages successifs de tout le terrain.
- Actuellement, trois types de matériels sont en usage : tuyaux en acier galvanisé, tuyaux en alliage d’aluminium, tuyaux en chlorure de polyvinyle. Chaque bout dont la longueur atteint parfois 5 m peut être soulevé sans effort, il se raccorde au bout précédent par un joint très simple dont l’étanchéité est assurée par la pression de l’eau. Aucune bague, aucun vissage ne sont nécessaires.
- A des intervalles déterminés, on interpose entre deux bouts Vasperseur (ou sprinkler), fait d’une matière plastique, nylon ou rilsan, qui est autolubriliante. L’asperseur répand l’eau en pluie dans un rayon d’environ 6 m.
- Le maniement de ce matériel n’exige aucun entraînement spécial. Il peut être pratiqué sur des terrains mamelonnés et même (s’il s’agit de prés) sur des pentes assez fortes. En principe, les cultivateurs habitués à la culture en sec n’ont aucune peine à s’adapter à ce nouveau mode d’irrigation.
- L’expérience déjà acquise semble démontrer que l’irrigation par aspersion permet d’obtenir les mêmes résultats que l’irrigation superficielle avec une consommation d'eau réduite de moitié. Les gaspillages qui résultaient du système ancien se trouvent automatiquement éliminés par le compteur! Par voie de conséquence, l’utilisation pai’cimonieuse des réserves d’eau en périodes courantes permet des soutirages massifs aux époques critiques de la végétation. L’eau est à la fois fournie « à la demande » et gérée « en bon pèi'e de famille ».
- Ajoutons que l’aspersion peut être employée pour l’épandage de solutions nutritives, système souvent préférable à celui de l’épandage d’engrais secs. Une autre application est en train de se développer aux Etats-Unis et en France dans les industries alimentaires (sucreries, laiteries, conserveries), qui déversaient autrefois à la rivière des effluents malodorants et particulièrement nuisibles pour la faune et la flore aquatiques. Disséminés en pluie sur des surfaces de quelques hectares, ces effluents ne portent aucun préjudice aux végétaux terrestres. Ils peuvent au contraire constituer d’utiles apports en azote et enrichir le sol en bactéries.
- Yves Mériel.
- p.165 - vue 168/558
-
-
-
- Comment un engin spatial habité sera-t-il propulsé ?
- Le temps semble proche où des véhicules habités seront lancés sur les routes du ciel ouvertes par les satellites artificiels et les fusées cosmiques. De tels astronefs devront évidemment être dirigés à volonté et revenir sur Terre. L’un des principaux problèmes qui se posent maintenant à l’ingénieur de l’astronautique est donc le choix du système de propulsion, qui ne devra être ni trop encombrant ni trop lourd au regard de la charge utile.
- Les fusées à combustible chimique actuellement utilisées ne sont pas parfaitement adaptées à la solution de ce problème. Un moteur à réaction, quel qu’il soit, est en effet caractérisé par son rendement de propulsion, rapport de la puissance utile de propulsion à la puissance totale dépensée pour accélérer le fluide propulsif. La puissance utile est égale au produit de la vitesse de vol V par la poussée T — mv, où m est la masse de gaz éjectée par seconde et v la vitesse d’éjection des gaz. La puissance totale est la somme de la puissance utile et de l’énergie cinétique perdue par les gaz d’éjection. On a donc :
- mvV _ 2 yV
- mvV + m (v — V)2 v2 + V2
- Ce rendement est maximal et égal à x lorsque la vitesse de vol et la vitesse d’éjection sont égales. On voit donc que pour des vitesses de vol de plusieurs kilomètres par seconde qui seront celles des véhicules spatiaux, l’obtention d’un rendement favorable est incompatible avec les meilleures réactions chimiques, même celles qui font appel à des radicaux libres.
- Propulseurs adaptés au vol spatial. — Le premier procédé auquel on peut songer consiste à éjecter à l’arrière du moteur des ions positifs que l’on accélère au moyen d’un champ électrique produit par une différence de potentiel établie entre la source d’ions et une électrode d’accélération. Toute l’énergie électrique est transformée en énergie cinétique communiquée aux ions, ce qui fait que le rendement est assez bon et au moins égal à 5o pour ioo. Les ions utilisés seraient des ions lourds tels que ceux de césium ou de mercure; une maquette à vapeur de mercure développant ioo g de poussée a d'ailleurs été essayée récemment par la société américaine de propulsion par fusée Rocketdyne.
- En envisageant des différences de potentiel de l’ordre de xo ooo V, il semble que l’on puisse espérer des vitesses d’éjection des ions supérieures à 3oo km/s, ce qui conduirait à une impulsion spécifique de plus de 6o ooo s. Il est nécessaire que le faisceau d’ions soit assez fin et ne vienne pas frapper les électrodes d’accélération. Si Y est la tension d’accélération et g/m le rapport de la charge à la masse des ions, l’impulsion spécifique est donnée par :
- et la puissance nécessaire par unité de poussée produite est :
- Si d est le diamètre des particules éjectées, on a d’autre part :
- Poussée par unité de surface =
- F\2
- On voit que bien qu’il soit désirable d’avoir une tension
- d’accélération aussi élevée que possible pour produire la poussée maximale, il faut un rapport de la charge à la masse des ions assez faible pour réduire la puissance nécessaire.
- •Le principal inconvénient de ce type de moteur est le suivant : l’éjection de charges positives laisse le véhicule chargé négativement, et cette charge négative finira par attirer les ions positifs émis, réduisant considérablement le rendement de propulsion ; de même les ions .positifs émis les premiers finissent par s’accumuler en constituant une barrière de charges qui tend à s’opposer à l’éjection de nouveaux ions positifs, du fait que deux charges de même signe se repoussent. Il a été proposé de remédier à cela en injectant dans le faisceau d’ions des électrons animés de la même vitesse, mais il est très difficile d’obtenir une neutralité parfaite du flux éjecté.
- On se trouve alors amené à accélérer un faisceau de particules qui soit déjà neutre; un tel mélange d’ions, d’électrons et d’atomes neutres est désigné sous le nom de plasma et il en a été déjà question ici à plusieurs reprises, soit au sujet de la fusion thermonucléaire, soit au sujet des souffleries à grande vitesse.
- Deux procédés peuvent être utilisés pour communiquer une accélération élevée au plasma, l’un thermique, l’autre électrique. Dans le premier cas (moteur thermodynamique à plasma), le chauffage est obtenu par un arc de grande puissance; la température maximale que l’on peut atteindre est de l’ordre de 5o ooo0, ce qui ne permet pas de communiquer aux ions des vitesses plus grandes que quelques kilomètres par seconde. Quelques essais d’application de ce principe ont déjà été réalisés, en particulier par la firme américaine Avco. Le plasma étant, comme nous l’avons dit, un mélange d’ions positifs et d’électrons, l’équilibre thermique suppose que les particules des deux types seront portées à la même température ; leur vitesse sera donc inversement proportionnelle à la racine carrée de leur masse et, par suite, beaucoup plus grande pour les électrons que pour les ions positifs. Le rendement propulsif de l’éjection des électrons peut alors devenir extrêmement faible. II semble que l’on puisse obtenir des impulsions spécifiques comprises entre i ooo et i 200 s.
- Il s’ajoute enfin l’impossibilité de trouver des matériaux qui résistent à des températures comptées en milliers de degrés, si bien que la tuyère devrait avoir des parois immatérielles. Un tel problème a déjà été rencontré dans la mise au point des réacteurs thermonucléaires, et il avait été résolu par l’emploi d’un champ magnétique. Ici aussi, les recherches devront s’orienter dans cette voie. Signalons en particulier les configurations à « miroir magnétique » dont il a été déjà question dans cette revue à propos des recherches sur la fusion contrôlée.
- Le procédé électrique fait appel à la loi bien connue en électrodynamique des « trois doigts de la main gauche ». Il consiste à accélérer un faisceau de particules de plasma reliant deux barres conductrices parallèles et placé dans un champ magnétique uniforme perpendiculaire au plan des rails, comme l’indique la figure 1. Le plasma est alors soumis à une force perpendiculaire au plan défini par son axe et le champ magnétique. Au lieu d’utiliser deux barres, on peut également prendre deux tubes conducteurs concentriques entre lesquels circule le plasma ; le champ magnétique est alors perpendiculaire aux deux tubes, et le courant électrique s’écoule radialement d’un tube à l’autre. La force qui prend naissance est parallèle à l’axe du système. Le seul inconvénient des dispositifs électriques est de nécessiter un champ magnétique uniforme d’assez forte intensité.
- Les recherches entreprises sur ce dispositif, tant aux États-
- p.166 - vue 169/558
-
-
-
- 167
- iCancfensateur
- Fig. 1. — Schéma de moteur électromagnétique à plasma.
- ‘La décharge du condensateur produit un courant i dans le plasma, d’où -une force due à l’action du champ magnétique H perpendiculaire au plan
- de la figure.
- 'Unis qu’en U. R. S. S., ont montré que la vitesse de déplacement d’un plasma sous l’action de la force F pouvait atteindre io7 cm par seconde. Toutefois, il semble, dans l’état actuel •de ces recherches, que le rendement énergétique puisse difficilement dépasser 3o pour ioo.
- Un dernier procédé consiste à utiliser directement l’énergie solaire pour échauffer un fluide tel que l’hydrogène, qui se détendrait ensuite à travers une tuyère. Le système optique d’un tel dispositif doit être continuellement pointé vers le
- Miroir
- Tuyère
- Wig. 2. — Les rayons solaires concentrés au foyer d’un miroir échauffent un fluide, tel que l’hydrogène liquide, qui est ensuite détendu à travers une tuyère.
- Sources d'énergie. — Si le moteur de l’engin spatial utilise l’énergie électrique, quelle sera la source de cette énergie ? Pour un moteur spatial, le poids du combustible prend une importance vitale du fait des longs temps de vol qui seront imposés; aussi, les. moteurs classiques ne pourront-ils être utilisés du fait de leur trop importante consommation spécifique. Il n’en est pas de même des différents types de réacteurs nucléaires qui n’ont besoin que d’une quantité de combustible très faible. Mais le moteur à fission utilisant les mêmes phénomènes nucléaires que les piles atomiques nécessite un poids de blindage élevé pour la protection contre les rayons gamma et les neutrons. Toutefois, il s’adapte bien à de petites dimensions.
- Faisant appel à l’énergie nucléaire, on peut aussi utiliser des radioisotopes. Un émetteur de rayons bêta comme le strontium 90 permettra d’obtenir un courant électrique sous une tension suffisamment élevée. L’avantage de cette méthode tient dans le fait que si la période de radioactivité du radioisotope est suffisamment élevée, la puissance développée sera constante pendant de longues périodes de temps.
- Quoi qu’il en soit, la faible intensité des sources de radioisotopes connues ne permet de les utiliser que pour fournir T' « énergie de servitude » de l’engin spatial, c’est-à-dire celle qu’il utilisera pour ses manœuvres dans l’espace, en dehors du départ et de l’arrivée. C’est vers l’énergie solaire que l’on peut se tourner de nouveau, comme étant sans doute la plus intéressante dans l’état actuel de la technique. Elle impose évidemment au groupe propulseur d’être toujours orienté de façon à intercepter au maximum le rayonnement solaire, mais elle présente un rapport très élevé de la puissance fournie au poids, puisqu’elle ne nécessite plus' d’emporter du combustible. On sait facilement transformer l’énergie de rayonnement en énergie électrique au moyen des corps semi-conducteurs tels que le silicium. Ce dernier peut se présenter sous deux formes n et p de polarités différentes; si l’on a une couche n et une couche p adjacentes et qu’un rayonnement arrive à l’intersection des deux couches, il se produit entre elles une différence de potentiel qui donne naissance à un courant électrique. Les puissances produites par unité de surface sont assez faibles, mais si l’on admet que l’engin spatial déploie en dehors de l’atmosphère des ailes d’une surface de plusieurs milliers de mètres carrés (ce qui est sans inconvénient puisqu’il n’y a aucune traînée en dehors de l’atmosphère), on peut concevoir un générateur électrique développant plusieurs centaines de kilowatts.
- La mise en œuvre de tous ces principes demandera évidemment beaucoup d'expériences. Quelques-unes ont déjà été effectuées dans les laboratoires américains et ont donné des résultats très encourageants.
- Jacques Spjncourt.
- Soleil, ce qui peut être difficile avec un véhicule en cours de manœuvre. La plus grande partie de l’énergie solaire se trouve dans le voisinage de l’infrarouge et du spectre visible.
- Pratiquement, on ne peut guère compter transformer plus de 60 pour 100 du rayonnement incident en énergie utilisable, par suite des pertes par absorption, de l’erreur dans le pointage de direction du Soleil et de l’imperfection du miroir qui concentre les rayons solaires. Pour un engin se déplaçant au voisinage de la Terre, la surface de miroir nécessaire pour obtenir une puissance de propulsion d’un kilowatt serait de 7,4 m2. Une méthode proposée pour réaliser le miroir dit « voile solaire » est d’employer une sphère en plastique, dont une moitié est revêtue d’un métal réfléchissant, l’autre moitié fonctionnant comme une fenêtre transparente; elle permet de construire un dispositif très léger. Pour avoir des puissances convenables, il faut des sphères de près de 100 m de diamètre, ce qui nécessite que la voile soit pliée quand elle ne sert pas.
- Acide ascorbique et résistance aux radiations
- Une communication à l’Académie des Sciences (Comptes rendus, 4 janvier 1960) par M. Robert Jouard vient confirmer une hypothèse de Bacq, Alexander et Cooke, selon laquelle la richesse des tissus vivants en acide ascorbique (vitamine C) augmente leur résistance aux radiations. Cette vérification a été faite, pour le règne végétal, au cours d’expériences pratiquées sur le tissu de Scorsonère, composée connue pour être particulièrement sensible aux rayons X. Ces rayons — le fait a été contrôlé sur des colonies témoins — exercent une nette inhibition sur le développement des tissus. Par contre, lorsque les colonies ont été cultivées sur des milieux contenant de l’acide ascorbique, cette inhibition est réduite dans d’importantes proportions. Il est spécifié que cette radioprotection n’est efficace que pour une culture préalable en milieu enrichi en acide ascorbique. Elle est nulle, en cas d’un apport de cette même vitamine au moment de l’irradiation. Notons que cette irradiation a été faite à la dose de 1 000 rœntgens.
- p.167 - vue 170/558
-
-
-
- L'HYDRAZINE
- produit stratégique comme agent propulseur de fusées et ses nombreuses applications
- L’hydrazine était avant la guerre un de ces nombreux produits réservés exclusivement à des usages de laboratoire. Or, au cours de la seconde guerre mondiale, les Allemands découvrirent l’intérêt de l’hydrazine comme agent propulseur des fusées et par suite furent, amenés à entreprendre sa production industrielle. L’idée a été reprise un peu par tous les pays et en particulier par les États-Unis, si bien que l’hydrazine, devenue un produit d’importance stratégique, est maintenant fabriquée à l’échelle industrielle par de nombreux pays. L’hydrazine devenant un produit courant a suscité de nombreuses recherches et ses emplois multiples font que l'industrie de ce composé est actuellement en pleine expansion.
- La molécule de l’hydrazine ordinaire NIL — NH2 se développe ainsi :
- II
- N
- \n.
- Un ou plusieurs atomes d'hydrogène peuvent y être remplacés par un radical hydrocarboné, et l’on parle alors d’hydrazine primaire, secondaire, etc. Ainsi la phénylhydrazine C6HS — NII — NH3 est une hydrazine primaire.
- Fabrication de l’hydrazine. — Avant d’être isolée, l’hydrazine n’a d’abord été connue que par ses dérivés. C’est en 1870 que la phénylhydrazine, dont, le rôle dans la compréhension de la chimie des sucres a été considérable,- fut préparée par le célèbre chimiste Emil Fischer, mais il faut attendre 1887 et les travaux des savants allemands Curtius et Jay pour que soit réalisée la préparation en laboratoire de l’hydrazine elle-même. A vrai dire, la réaction utilisée était assez compliquée et ce mode de formation ne convenait pas pour la fabrication en grandes quantités. Ce n’est qu’en 1907 qu’un autre savant allemand, Raschig, indiqua un mode d’obtention convenant à une fabrication industrielle en oxydant l’ammoniaque par l’hypochlorile de sodium :
- 2NH3 + NaOCl -> NH2 — NH2 + HaO + NaCl.
- hydrazine
- Un procédé analogue est également utilisé dans lequel l’ammoniaque est remplacé par de l’urée :
- CO(NH,), + NaOCl + aNaOIi
- -> NH2 — NH2 + NaCl + Na2C03 + H20.
- Raschig avait remarqué que le rendement de la réaction était très peu élevé si l’on ne prenait pas la précaution d’ajouter de la colle ou de la gélatine au mélange réactionnel. Raschig pensait que l’effet favorable de ces additions était dû à une « augmentation de la viscosité du mélange », et ce thème de la viscosité inspira de nombreux brevets. En réalité, il semble prouvé que la gélatine a pour principal effet de complexer (1) certaines impuretés métalliques qui catalysent la décomposition de l’hydrazine formée (le cuivre par exemple, à la concentration de deux millionièmes, fait tomber le rendement de la réaction à des valeurs extrêmement faibles). Ceci a été mis à profit en remplaçant la gélatine par des substances organiques telles que le trilon R, la mannite, qui ont la propriété de donner des complexes avec la plupart des métaux lourds. C’est également la
- 1. On appelle « complexe » d’un métal un composé dans lequel le métal est dissimulé et ne présente plus ses réactions habituelles.
- raison qui a amené les fabricants à s’adresser aux aciers inoxydables pour la réalisation des appareils de production industrielle ou aux métaux recouverts d’enduits macromoléculaires organiques (polythène en particulier).
- On arrive couramment à des rendements en hydrazine de l'ordre de 60 à 70 pour 100. Deux facteurs sont particulièrement importants : d’une part, un chauffage rapide du mélange réactionnel qui permet d’accélérer la réaction et par suite de diminuer l’importance des réactions de décomposition de l’hydrazine, d’autre part l’utilisation d’un excès d’ammoniaque, le rendement augmentant avec la valeur du rapport ammoniaque/hypo-chlorite.
- Le procédé était parfaitement au point en Allemagne pendant la dernière guerre puisque l’usine de Leverkusen produisait 20 t par mois d’hydrate d’hydrazine dans un appareil en acier inoxydable travaillant sous une pression de 4o à 5o atmosphères aux environs de 180° C avec un excès d’ammoniaque. Les Allemands avaient construit deux autres usines, à Ludvvigshafen et. à Gerschofen, cette dernière d’une capacité de 100 t par mois, mais en raison des bombardements militaires ces usines eurent une marche assez discontinue.
- Jusqu’en 1902, les États-Unis étaient en partie tributaires de l'Europe pour leur approvisionnement en hydrazine. L’importance stratégique de ce composé a incité l’industrie américaine à entreprendre la production de ce produit à grande échelle. Alors que l’hydrazine coûtait aux États-Unis environ 5o dollars la livre lorsque ce n’était qu’un produit utilisé pour les recherches, son prix n’était plus que 4>5o dollars vers 1950 et on prévoit que d’ici peu son prix descendra jusqu’à o,5o dollar la livre. Aux États-Unis, l’hydrazine est préparée soit à partir d’ammoniaque, soit à partir d’urée. En France, c’est l’urée qui est essentiellement utilisée comme matière première. Dès 1945, le Service des Poudres avait monté une installation pilote pour la fabrication de l’hydrate et du sulfate d’hydrazine. Aujourd’hui, cet organisme exploite un atelier pour la production industrielle de l’hydrate d’hydrazine à une concentration supérieure à 98 pour 100.
- Bien d’autres méthodes de préparation ont été proposées, de la réduction électrolytique des amides à l’oxydation catalytique de l’ammoniac par l’oxyde azoteux, mais, pratiquement, le procédé Raschig est le seul à avoir reçu des applications industrielles, les autres méthodes ayant des rendements trop faibles.
- Propriétés de l’hydrazine. — Propriétés physiques.
- — L’hydrazine anhydre est un liquide corrosif, incolore, de densité voisine de 1, doué d’une faible odeur de poisson avarié. Le liquide fume abondamment à l’air, les fumées étant constituées de fines gouttelettes d’un hydrate moins volatil formé aux dépens de l’humidité atmosphérique. Il se contracte lors de la congélation, qui se produit à 20 C, de sorte qu’il n’y a aucun danger de voir les conduites éclater lors des fortes gelées d’hiver. L’hydrazine bout à n3,5° G sous la pression atmosphérique et elle est miscible à l’eau en toutes proportions avec un grand dégagement de chaleur. A cause de sa grande avidité pour l’eau, il est d’ailleurs difficile de l’obtenir anhydre. On y parvient en distillant sous vide la solution aqueuse d’hydrazine en présence de soude ou d’oxyde de baryum, mais cette opération est dangereuse et des explosions sont parfois survenues au cours des opérations. Récemment, la firme Olin Mathieson a pris un brevet décrivant un procédé d’obtention de l’hydrazine anhydre sans aucun risque d'explosion. A cet effet, le mélange d’hy-
- p.168 - vue 171/558
-
-
-
- 169
- drazine et de soucie est distillé en présence d’un mélange d’hydrocarbures aliphatiques saturés, une coupe de pétrole par exemple, dont le point d’ébullition est compris entre go° C et i5o° C.
- Les préparations industrielles conduisent à des solutions aqueuses à faible teneur en hydrazine (4 à 6 pour ioo) dont on obtient par distillation un mélange azéotropique (2) correspondant à une teneur en eau légèrement supérieure à celle du monohydrate N2H4, H20. Pour beaucoup d’usages, on utilise cet azéotrope qui est à une concentration suffisante. Des concentrations plus élevées ne s’imposent que pour les emplois comme combustible dans les fusées.
- Disons pour conclure cet exposé des propriétés physiques de l’hydrazine qu’elle ressemble beaucoup à l’eau par sa densité, son point de fusion et son point d’ébullition; elle est aussi un excellent solvant ionisant de la même façon que l’eau et l’ammoniac liquide auquel elle ressemble par son caractère basique.
- Propriétés chimiques. — La chimie de l’hydrazine présente des aspects multiples que nous ne pouvons indiquer que très succinctement. L’hydrazine est un réducteur puissant et certains de ses dérivés présentent jusqu’à un certain point cette
- 2. L’azéotropisme est une anomalie des points d’ébullition d'un mélange, eu égard à ceux de ses composants. Un azéotrope négatif et un azéotrope positif bouent respectivement plus haut et plus bas que leurs composants.
- même propriété. L’hydrazine s’oxyde en fournissant un grand nombre de produits comme l’azote, l’ammoniac, le produit obtenu dépendant de la nature de l’oxydant, de la température et du pH. L’oxydation par l’air s’effectue lentement à la température ordinaire, la réaction étant considérablement accélérée lorsque la température s’élève et en présence de certains métaux agissant comme catalyseurs, tels que le cobalt. Une importante application de l’hydrazine est fondée sur sa réaction avec l’oxygène ainsi que nous le verrons plus loin. En l’absence d’oxydants, l’hydrazine, même absolument pure, se décompose de façon visible au-dessus de 5o° C en donnant un mélange complexe d’ammoniac, d’azote et d’hydrogène. Cette décomposition peut dégénérer en transformation tumultueuse au contact de poudres métalliques : platine réduit, nickel sous forme divisée, fer. C’est pourquoi l’hydrate d’hydrazine doit être contenu dans des récipients en acier stainless parfaitement nettoyés; les solutions doivent être préparées dans des cuves également en acier stainless et le personnel chargé de la préparation de ces solutions doit porter des vêtements protecteurs. C’est également la raison pour laquelle beaucoup d’utilisateurs préfèrent acheter directement une solution d’hydrazine renfermant moins de 4o pour roo de ce produit, dont la manutention ne présente alors absolument aucun danger.
- L’hydrazine est une base diacide susceptible de former par neutralisation deux séries de sels selon la nature et la proportion de l’acide. Quant à la chimie organique de l’hydrazine.
- p.169 - vue 172/558
-
-
-
- 170
- elle est très riche, ce composé présentant dans sa molécule deux atomes d’hydrogène « mobiles », c’est-à-dire doués d’une réactivité particulière. Ainsi l’hydrazine réagit avec les acides organiques et leurs dérivés pour donner des hydrazides, avec les aldéhydes et les cétones pour donner des hydrazones ou des azines, etc.
- Propriétés physiologiques. — L’hydrazine et son hydrate sont extrêmement toxiques. Une injection sous-cutanée de 0,1 mg de sulfate d’hydrazine provoque en deux heures et demie la mort d’un cobaye. A l’état de vapeur, une concentration de 18 mg/m3 a été trouvée fatale pour les animaux utilisés dans les expériences.
- Les sels d’hydrazine provoquent de la salivation et des nausées. Ils accélèrent d’abord le pouls avant la tombée dans le coma et la baisse de température. On constate ensuite des lésions sur le système nerveux central, le cœur, l’intestin, le foie et les reins. Le meilleur agent thérapeutique contre l’empoisonnement par l’hydrazine semble être le pyruvate de sodium, le traitement étant entrepris dans la demi-heure qui suit le début de l’empoisonnement.
- Applications de l’hydrazine. — Depuis la dernière guerre, l’hydrazine a trouvé des emplois multiples dont beaucoup sont passés au stade industriel ; les recherches se poursuivent activement et il n’est pas de mois qu’une revue spécialisée ne souligne un débouché nouveau de ce composé. Quels sont donc les principaux emplois de l’hydrazine et de ses dérivés ? C’est ce que nous allons essayer de passer en revue.
- Agent propulseur. — L’hydrazine concentrée convient particulièrement comme combustible pour fusées et c’est à cette circonstance, ainsi que nous l’avons déjà signalé, qu’est dû l’essor de son industrie. L’hydrazine peut être utilisée comme agent propulseur des fusées dans les systèmes comportant deux liquides, c’est-à-dire un combustible et un comburant, mais par suite de sa décomposition elle peut aussi être employée dans les systèmes qui fonctionnent avec un agent propulseur unique.
- Au cours de la deuxième guerre mondiale, les V2 allemands , étaient approvisionnés d’un mélange d’hydrate à 80 pour 100 et d’alcool méthylique, le comburant étant l’eau oxygénée concentrée ou perhydrol. Un mélange analogue était également utilisé par les Allemands pour l’alimentation des avions de chasse à réaction ME-162 et ME-iG3. On a également proposé comme autres comburants l’acide nitrique ou l’oxygène liquide. Les recherches se sont poursuivies depuis la guerre dans ce domaine, mais peu de résultats ont été publiés et l’on en est réduit le plus souvent à des suppositions.
- Dans un domaine plus terre à terre, l’hydrazine pourrait, semble-t-il, trouver des applications comme combustible de remplacement dans les moteurs à combustion interne. C’est tout au moins ce que prétend un brevet récent dans lequel sont décrites les modifications qu’il faut faire subir à un moteur de type classique pour lui permettre d’utiliser ce combustible. L’hydrazine est d’abord décomposée par une décharge électrique en un mélange d’hydrogène, d’azote et d’ammoniac. On introduit alors dans ce mélange combustible un comburant tel que l’air ou l’oxygène, ce qui en provoque l’explosion et libère l’énergie nécessaire. Ces deux opérations peuvent être effectuées soit successivement, soit simultanément, en introduisant dans le moteur, en même temps que l’hydrazine, une quantité convenable d’oxygène.
- Action anti-corrosion de l’hydrazine. — L’hydrazine a trouvé un débouché non négligeable pour l’élimination des traces d’oxygène dissoutes dans les eaux d’alimentation des chaudières afin d’éviter la corrosion des tôles. On sait en effet que l’eau dépourvue d’oxygène n’est pratiquement pas corrosive pour l’acier. Il existe trois méthodes principales pour
- l’élimination de l’oxygène : le dégazage à froid dans le vide,, le dégazage à chaud et le traitement chimique de désoxygénation. Ce dernier fait suite, en général, à un dégazage physique et jusqu’à ces dernières années on utilisait essentiellement,, comme agent réducteur capable de réagir avec l’oxygène, le sulfite de sodium. Or, ce produit présente de nombreux inconvénients. En fixant l’oxygène, il se transforme en sulfate, ce qui augmente la teneur en sels de l’eau et, de plus, il se produit des réactions secondaires comme la décomposition du sulfite avec mise en liberté d’hydrogène sulfuré ou d'anhydride-sulfureux, produits qui augmentent l’action corrosive de l’eau.. Enfin, un autre inconvénient du sulfite est que sa réaction avec l’oxygène n’est pas immédiate et qu’il faut donc en utiliser un large excès, ce qui a pour effet d’augmenter encore les-inconvénients cités précédemment.
- L’emploi de l’hydrazine présente sur celui du sulfite desavantages incontestables. En effet l’hydrazine réagit sur l’oxygène dissous selon le schéma réactionnel :
- N2H4 + 02 —> N2 + 2H20.
- On voit immédiatement que les produits de cette réactionr qui sont l’eau et l’azote, sont des corps qui ne présentent aucune action corrosive. U devient donc inutile d’ajouter des amines ou des sels d’ammonium, comme on le fait lorsqu’on emploie du sulfite de sodium, pour neutraliser les produits de décomposition acides qui proviennent de ce composé. Par ailleurs,, l’hydrazine réagit sur l’oxyde ferrique qui existe toujours plus ou moins sur les tôles de l’installation et le réduit à l’état de magnétite, formant ainsi un film d’oxyde réduit susceptible de réagir lui aussi avec l’oxygène dissous et constituant en quelque sorte une réserve solide d’hydrazine. Enfin l’hydrazine se décompose à haute température (au-dessus de 1800 C) en azote et en ammoniac, mais cette décomposition qui demeure assez faible,, la solution étant très diluée, n’est pas gênante, une légère alcalinité étant favorable pour la prévention de la corrosion.
- En définitive, bien que l’hydrazine soit un produit plus cher que le sulfite de sodium, les résultats obtenus ont montré qu’en fait il était beaucoup plus avantageux d’employer l’hydrazine-Des expériences faites en Allemagne sur un surchauffeur de-vapeur travaillant à 6oo° C ont montré qu’après 10 000 heures de marche la corrosion était pratiquement inexistante. L’emploi de l’hydrazine s’est maintenant généralisé aussi bien en Europe qu’aux États-Unis.
- Agents gonflants. — Ces produits, encore appelés agents moussants, sont des substances chimiques qui, incorporées dans les matières plastiques ou le caoutchouc, se décomposent sous l’action de la chaleur en fournissant un ou plusieurs gaz et produisant ainsi une structure alvéolaire. De nombreux dérivés de l’hydrazine sont utilisés comme agents gonflants et cette application constitue un débouché important de l’hydrazine. Un avantage de ces produits réside dans le fait que le gaz produit est de l’azote, gaz idéal pour cette application puisqu’il est stable, inerte, inodore et incolore. On employait autrefois, pour la production du caoutchouc alvéolaire utilisé dans la fabrication des semelles de chaussures, des agents gonflants inorganiques comme le bicarbonate de sodium et le bicarbonate d’ammonium, mais les agents gonflants organiques ont sur ces produits certains avantages, en particulier leur relative solubilité dans le caoutchouc qui permet de les disperser soigneusement au sein de la masse traitée. Il faut noter cependant que certains des produits de décomposition de ces agents gonflants peuvent être toxiques et des précautions doivent être prises dans l’emploi de ces composés.
- On doit distinguer deux sortes de structure alvéolaire : celle où les pores ne communiquent pas et celle du type « éponge » où la majeure partie des cellules communiquent entre elles. Dans le premier cas, le chauffage est effectué sous pression de
- p.170 - vue 173/558
-
-
-
- 171
- sorte que l’azote produit demeure emprisonné. Lorsqu’une structure du type « éponge » est recherchée, au contraire, la décomposition du porophore est effectuée à la pression atmosphérique. De très nombreux plastiques sont justiciables de ces techniques, tels que le chlorure de polyvinyle, le polythène, le polystyrène, le nylon, etc. Les produits obtenus sont utilisés dans de nombreux secteurs de l’industrie : constructions maritimes en raison de leur légèreté (c’est ainsi qu’avec le chlorure de polyvinyle on arrive à des densités de l’ordre de o,o3 g/cm3) ; industrie du bâtiment où ils sont utilisés comme isolants thermiques et acoustiques; éponges artificielles, etc.
- Les dérivés de l’hydrazine utilisés sont extrêmement nombreux et il est possible de trouver dans l’ensemble de ces produits des substances qui conviennent à une application déterminée; nous en citerons quelques-uns : le « Cellogen » ou p-p'-oxybisbenzène-sulfonylhydrazide qui libère son azote par chauffage vers ioo° C et fournit des pores extrêmement fins et réguliers; il a l’avantage de ne pas être toxique et les résidus de sa composition sont inodores et incolores; l’oxalate d’hy-drazine qui, utilisé dans la préparation du caoutchouc alvéolaire, rigidifie le mélange; le dinitrile-azo-isobutyrique, produit gonflant à action puissante qui a été largement utilisé en Allemagne pendant la seconde guerre mondiale, mais qui présente l’inconvénient de laisser un résidu toxique; on a cherché à éviter cet inconvénient et des produits analogues sont aujourd’hui disponibles qui laissent des résidus inoffensifs.
- Vulcanisation du caoutchouc. — L’hydrazine est utilisée dans l’industrie du caoutchouc pour la vulcanisation de ce produit et comme anti-oxydant. L’amélioration des propriétés du caoutchouc vulcanisé sous l’influence de 1 hydiazine a été essentiellement étudiée par des chercheurs japonais qui ont montré que le traitement des feuilles de caoutchouc naturel ou synthétique par de l’hydrazine concentrée augmente leur élasticité et leur résistance à la traction. Le mécanisme d’action de l’hydrazine n’est pas encore très bien connu, ce qui n’a rien d'étonnant si l’on pense que le processus de vulcanisation n’a pas encore été clairement élucidé. On a cependant constaté que le caoutchouc traité ne contenait pas d’hydrazine libre, mais que sa teneur en azote augmentait, ce qui a permis d’émettre quelques hypothèses, assez complexes d’ailleurs.
- D’autre part, en traitant le caoutchouc vulcanisé par l’hydrazine concentrée, la résistance au vieillissement et à la formation de craquelures superficielles se trouve améliorée. Il faut voir là l’influence des propriétés réductrices de l’hydrazine puisque le vieillissement du caoutchouc est dû à une oxydation par l’oxygène de l’air.
- Préparation du ilux pour soudure. — Certains dérivés de l’hydrazine, en particulier le bromhydrate et le chlorhydrate préparés par neutralisation exacte de l’hydrazine par les acides bromhydrique et chlorhydrique respectivement, constituent d’excellents flux pour soudure. Le mécanisme d’action de ces composés est schématiquement le suivant : déposés sur les pièces à souder, ils se décomposent à la température de soudure avec formation d’hydrazine et de l’acide fort correspondant. L’acide fait disparaître les graisses et la pellicule d’oxydes qui recouvrent les pièces à souder tandis que l’hydrazine, grâce à son pouvoir réducteur, empêche toute réoxydation des pièces décapées, ce qui facilite la formation d’une liaison exceptionnellement forte entre les deux métaux.
- L’emploi de ces nouveaux flux présente un certain nombre d’avantages : les produits utilisés étant volatils, ils ne laissent aucun résidu, de sorte qu’il devient inutile de laver ou de nettoyer les pièces à souder. On peut, soit les employer au moment même de la soudure, soit utiliser la méthode avec pré-application du flux qui consiste à déposer le produit sur la surface à souder et à sécher ce produit. L’objet ainsi préalablement enduit peut alors être soudé à n’importe quel moment.
- Applications médicales et biologiques. — Certains hydrazi-des sont utilisés dans le traitement de la tuberculose, le plus connu d’entre eux étant l’hydrazide de l’acide isonicotinique, encore appelé Rimifon. Ce composé s'est révélé particulièrement efficace en association avec la streptomycine et l’acide para-aminosalicylique (P.A.S.). Des recherches récentes ont attiré l’attention sur l’utilisation de l’hydrazide de l’acide cyanacé-tique dans le traitement des affections pulmonaires; quant à l’hydrazinophtalazine, elle est employée pour faire baisser la pression artérielle et il semble que l’on puisse attendre encore beaucoup des dérivés de l’hydrazine en thérapeutique.
- En biologie végétale, il faut signaler Lhydrazide maléique qui est un régulateur de la croissance des végétaux. Son utilisation en agriculture s’est développée au cours des dernières années ; il est en particulier utilisé pour éviter la mise en végétation des réserves accumulées dans les tubercules (betteraves, pommes de terre). Il permet également de retarder la floraison des arbres fruitiers, le pêcher par exemple, ce qui évite que la fécondation soit compromise par les gelées printanières tardives. Enfin c’est un herbicide efficace.
- Applications diverses. — U y a déjà longtemps que l’on envisage d’utiliser la double fonction amine de l hydrazine pour l’obtention de macromolécules et de nombreuses recherches ont été entreprises à cet effet. Il semble en particulier que l’hydrazine soit utilisable dans la fabrication des fibres synthétiques, mais à notre connaissance cette application n’a pas encore atteint le stade industriel. On a également préconisé divers polymères d’hydrazine pour le traitement des tissus afin de rendre ceux-ci infroissables.
- Un autre domaine d’application de l’hydrazine est lié à ses propriétés réductrices. C’est ainsi que l’on a signalé récemment l’emploi de l’hydrazine anhydre ou de la diméthylhydrazine comme agent « anti-peau ». Ajoutées aux peintures, aux vernis, elles empêchent la formation à la surface de ces produits, lorsqu’ils sont contenus dans des récipients, d’une « peau » résultant d’une oxydation superficielle. L’hydrazine et ses dérivés sont efficaces à de très faibles concentrations, ils ne communiquent pas d’odeur désagréable aux peintures et n’augmentent pas d’une façon excessive la durée du séchage.
- Le sulfate d’hydrazine peut être utilisé comme agent réducteur dans la préparation de l’acide sulfurique chimiquement pur, afin d’éliminer les oxydes d’azote présents dans le produit brut. Il suffit de 4 g de sulfate par tonne d’acide et la réduction est pratiquement complète en deux heures.
- L’hydrazine et certains de ses composés peuvent être également utilisés comme anti-oxydants et ils sont employés pour la stabilisation des phénols, des huiles, des graisses, etc.
- Enfin l’hydrazine est un réducteur suffisamment puissant pour permettre le dépôt de certains métaux à partir de leurs solutions. C’est ainsi que l’hydrazine peut être utilisée pour la fabrication des miroirs par dépôt d’argent, ou encore pour la métallisation d’objets en matières plastiques qui sont ensuite utilisés dans l’ornementation et la décoration, ou encore dans l’industrie des circuits imprimés.
- *
- # *
- Telle est dans ses grandes lignes l’industrie de ce composé dont il était courant autrefois d’entendre dire qu’il resterait toujours un produit de laboratoire. Jusqu’où le champ de ses applications va-t-il s’étendre P II est difficile de le prédire, mais on peut espérer cependant que la richesse et la souplesse des propriétés de l’hydrazine et de ses dérivés leur permettront de jouer un rôle important dans les besoins de la technique moderne.
- R. Rosset.
- p.171 - vue 174/558
-
-
-
- RAYONS X Générateurs haute tension 150 kV, 80 kV et 60 kV Tubes à rayons X démontables 150 kV et 80 kV Monochromateurs à cristal simples et doubles
- Diffractographes photographiques et à chambre d’ionisation
- Chambres photographiques de tous modèles
- Accessoires divers
- Supports de préparation, etc...
- Appareils pour l’étude des diagrammes
- Photosommateur de von Eller
- Éts BEAUDOUIN, 1 et l rue Rutuud, PflRIS-r - POR 4M9
- MESURE ET DÉTECTION
- Hypra^ne DES
- RAYONNEMENTS NUCLÉAIRES
- Références : C. E. A. : Marcoule P A3
- E. D. F. : Beautor, Porcheville, Creil, Chalon, Strasbourg, Ambès, Nantes... J. SHARPE et D. TAYLOR Ex-ingénieur fin Centre Chef de la division 'Électronique de Recherches de Ilar-.vell. du Centre de Harwell.
- CHARBONNAGES DE FRANCE INDUSTRIE PÉTROLIÈRE Énergie Électrique du Maroc, Michelin, Borg Service, Astra, Nobel-Bozel TRADUIT ET ADAPTÉ DE L'ANGLAIS PAR J. CHATELET Physicien principal au Laboratoire national d’Essais PRÉFACE DE J. GUÉRON Directeur au Commissariat à l’Énergie atomique.
- C. 1. R. xn-322 pages 14x22, avec 89 figures. 1958. Relié toile sous jaquette 34 KF
- 53, rue Claude-Lorrain, PARIS-I6e En vente dans toutes les bonnes librairies et chez
- Téléphone : MIR 75-08 Éditeur. 92, rue Bonaparte, Paris-6”, DA.N 99-15.
- p.172 - vue 175/558
-
-
-
- U Actualité instrumentale DOSEURS ET CONTROLEURS DE RADIATIONS
- Depuis le début du siècle, c’est-à-dire pratiquement depuis la découverte de la radioactivité, les effets biologiques des radiations ont été aperçus. Becquerel fut l’un des premiers atteints. Il transportait en permanence dans une des poches de son gilet un tube renfermant un peu de l’élément nouveau à l’époque : le radium. Il constata assez rapidement une altération de la peau, semblable à une brûlure, altération s’élargissant peu à peu autour de l’emplacement du tube. Cette atteinte est aujourd’hui bien connue : c’est la radiodermite.
- Les radiations nucléaires et les rayons X agissent sur l’organisme essentiellement par l’ionisation qu’ils provoquent autour de leur trajectoire. Cette ionisation marque le transfert important d’énergie entre la particule et la matière traversée, transfert important en regard des énergies mises habituellement en jeu dans les liaisons moléculaires : quelques électron-volts, soit quelque io-12 erg.
- L’énergie moyenne due à l’agitation thermique est, pour la température ambiante, de quelques centièmes d’électron-volt 3
- (E = - kT, soit environ o,o4 eV).
- Le passage d’une radiation nucléaire provoque un déplacement local d’énergie comparable à une élévation de température de quelque cent mille degrés. On comprend alors que peu de molécules résistent à une telle action; l’eau se dissocie déjà fortement vers mille degré absolus.
- Sans entrer dans le détail du mécanisme, on conçoit ainsi que l’altération peut avoir des conséquences plus ou moins importantes dans l’organisme, suivant la localisation, l’étendue et l’intensité des radiations reçues.
- Un fait semble acquis actuellement : les doses sont cumulables, c’est-à-dire que l’action d’un gramme de radium pendant une heure est la même au point de vue biologique que l’action d’un milligramme pendant quarante-trois jours (i ooo heures).
- La dose reçue par la moelle des os est actuellement de l’ordre de 4 millirem par an : cette dose est due aux rayons cosmiques et à la radioactivité du sol.
- Cette dose a très sensiblement augmenté depuis quelques années, depuis les explosions nucléaires.
- La dose reçue pendant une radioscopie peut atteindre i rem. La Commission internationale de Protection a fixé à 200 rems la dose maximale admissible pour un individu au cours de sa vie, et à 0,1 rem la dose moyenne par semaine.
- Les imités. — Il est utile de préciser les unités utilisées dans la détermination de la quantité de rayonnement reçu.
- D’abord le rœntgen, unité la plus fréquemment utilisée par les radiologues, est défini comme la quantité de rayonnement X ou y dont l’émission corpusculaire associée produit dans 1 cm3 d’air normal des ions dont la charge est égale à une unité électrostatique de charge (soit 1,6 x io12 paires d’ions).
- Il en dérive une unité, le rep (mot formé des initiales de « équivalent physique du rœntgen » en anglais), qui peut se définir comme la quantité de radiation dissipant g3,i ergs par gramme, soit la même énergie qu’un rœntgen dans un gramme d’eau.
- Mais depuis quelques années deux unités plus commodes sont apparues :
- — le rad, défini à partir des rayons X ou y comme étant la quantité de rayonnement dissipant 100 ergs par gramme de matière ;
- Fig. 1. — Dosimètres individuels présentés par La Physiotechnie.
- Seule la forme stylo n’est pas entièrement autonome ; il faut le recharger à l’aide d’un bloc spécial.
- — le rem, qui est la généralisation du rad aux autres radiations.
- 1 rem est donc la quantité de radiations qui dissipe 100 ergs par gramme de matière.
- Voici, pour les photons du cobalt 60 (1 MeV environ), l’énergie dissipée par une dose de 1 rœntgen : dans 1 gramme de muscle, 87 ergs; dans 1 gramme de graisse, 42 ergs; dans 1 gramme d’os, 883 ergs.
- D’autre part, il est utile de noter que, même pour les émetteurs y» le débit de dose est variable avec l’élément considéré. Voici, à titre d’exemple, le débit de dose (en rœntgen/heure) de quatre nuclides émetteurs y> reçu dans 1 cm3 d’une chambre à ionisation à air, placé à x cm d’une source de 1 millicurie de l’isotope considéré (1 mC = 3,7 x io7 désintégrations par seconde) : sodium 24 : 18,9 r/h; césium 137 : 6,5; radium 226 : 8,2; iode i3i : 2,25 r/h.
- Comment éviter le danger des radiations nucléaires ?
- — Le seul moyen actuellement connu est d’éviter l’atteinte du rayonnement. La méthode la plus efficace, sinon la plus simple, est d’éloigner suffisamment toute substance radioactive.
- Trois cas sont à considérer :
- Cas des particules chargées. — Leur parcours est défini; il est de quelques centimètres dans l’air pour les particules a, de l’ordre du mèti’e pour les rayons (L Si bien que, quelle que soit l’intensité de la source, il suffit d’êti’e au delà du parcours des particules émises pour que la dose reçue soit nulle.
- Cas des photons. — Un faisceau de photons traversant la matière voit son intensité diminuer suivant la loi :
- 1 = 10 exp (— (x®)
- où g, est un coefficient caractéristique de la matière traversée et de l’énergie des photons, x l’épaisseur de matière mesurée en masse superficielle. Pour l’eau jx. varie de 0,2 à 0,07 cm2/g pour les photons dont l’énergie passe de 0,2 à 1 MeV. Il faut donc 10 cm d’eau pour affaiblir d’un facteur 2 un faisceau de photons de x MeV.
- p.173 - vue 176/558
-
-
-
- Mesure des vides poussés
- EJ 1011
- Jauge du type BAYARD ALPERT pour la mesure des basses pressions IO-3 à I010 mm. de Hg.
- AJ 2001
- Alimentation stabilisée et amplificateur pour [auges EJ 1011, E4J et EJ 108
- Production des vides poussés
- Pompe à vide au titane Vide limite 10 9 mm. de Hg. Vitesse de pompage 151/sec
- PV 511
- Alimentation pourpompe au titane PV5I I et PV 528 avec dispositif de sécurité (en cas de rentrée d'air) et prise d'asservissement pour télécommande extérieure
- * *
- Compagnie générale
- Société Anonyme ou Copitol de 40.608.900 Nouveoux Francs
- de télégraphie Sans Fil
- Siège Sociol : 79, Bd HAUSSMANN - PARIS - 8' - ANJ. 84-60
- DIVISION TUBES ÉLECTRONIQUES
- DIRECTION COMMERCIALE - 55, Rue Greffulhe - LE VALLOIS-PERRET.. (Seine) — Tél. : PEReire 34-00 SERVICE EXPORTATION — 79, Boulevard Haussmann — PARIS 8' — Tél. : ANJou 84-60
- RAPY
- p.174 - vue 177/558
-
-
-
- 3Fig. 2. — Détecteur .portatif Philips PW 4014, sans son compteur CM.
- Un écouteur téléphoni-•que permet d’entendre les tops dans le cas de faibles activités.
- (Photo S. A.. Philips).
- On réduit le débit de dose à un taux raisonnable en plaçant entre la source et le lieu intéressé des écrans de nature et d’épaisseur convenables.
- L'épaisseur nécessaire dépend de l'intensité de la source.
- Fort heureusement, l’émis sion radioactive étant isotrope, le débit de dose varie proportionnellement à l’inverse
- du carré de la distance.
- Cas des neutrons. — Le problème est analogue à celui des photons. Leur interaction avec la matière est rare du fait de leur absence de charge. Pour les éliminer on cherche à les ralentir (thermaliser), puis à les éliminer par capture par des noyaux présentant une grande section efficace pour les neutrons thermiques (cadmium par exemple).
- Les doseurs et contrôleurs de radiations. — Après cet assez long préambule, nous pouvons énoncer les fonctions demandées aux contrôleurs de radiations :
- a) Contrôle de l’efficacité des protections mises en place;
- b) Détection des contaminations possibles après certaines expériences, manipulations, ou à la suite d’un incident;
- c) Contrôle de la radioactivité de l’air;
- d) Dosage du rayonnement reçu par le personnel au cours du travail ;
- e) Dosage dü rayonnement administré en gammathérapie principalement.
- Fig. 3. — Détecteur portatif 111 B de Précision Radiation Instrument ( distribué par Vilber-Lourmat).
- La détection est assurée par un scintillateur associé à un photomultiplicateur.
- (Photo Vilber-Lourmat).
- Fig. 4 (ci-dessus). — Intégrateur IN 1.A de la S.A.I.P.
- Ensemble autonome portatif (environ 4 kg) pour la recherche et la localisation de sources a, P ou y. (Photo S.A.I.P., Malakoff).
- Fig. 5 (à droite). — V « Atomat » WR 54 de l’Intertechnique.
- Présentation très légère (800 g) dans un étui forme appareil photographique, couvrant en 3 gammes les débits de dose de 1 à 1 000 mr/h.
- Les appareils proposés par l’industrie sont variés et nombreux.
- Pour le dosage du rayonnement reçu pendant les périodes de travail, on peut utiliser des films photographiques du type radio dentaire, ou choisir parmi les détecteurs individuels (fig. i). Ce sont en général des électroscopes associés à une petite chambre d’ionisation ; ils permettent d’évaluer les doses reçues jusqu’à 200 mr (millirœntgen) : La Physiotechnie, Mesco.
- Puis nous trouvons une gamme d’appareils portatifs, en général autonomes, grâce à l’utilisation des transistors. Ils mesurent le plus souvent, non plus la dose, mais le débit de dose, et pour les faibles intensités ils dénombrent les particules reçues.
- Les figures 2 à 5 présentent quelques aspects de ces appareils dont le fonctionnement est le même que pour les appareils fixes (La Nature, mars 1959, p. i34). Ils utilisent comme détecteur : soit un compteur de Geiger-Müller, le plus souvent à halogène (La Nature, décembre 1959, p. 549)j soit un scintillateur associé à un photomultiplicateur d’électrons. Nous noterons spécialement le détecteur logarithmique à rayons y et X. de la S.A.I.P. (fig. 6) qui, sous un poids de 4,5 kg, présente un appareil autonome permettant, sans changer d’échelle, de mesurer les débits de dose compris entre 1 mr/h et 10 000 mr/h avec un détecteur dont l’absorption est comparable à celle du corps pour les photons d’énergie comprise entre 3o et 20 000 keV.
- Le contrôle sanitaire de l’air est très important dans les centres nucléaires où se trouvent en particulier des enceintes cïiaudes, c’est-à-dire dans lesquelles on traite des isotopes actifs en quantités importantes.
- Divers appareils existent : Compagnie des Compteurs (fig. 7), Mesco, C.R.C. (fig. 8). Celui de la Cie des Compteurs est relativement transportable puisque constitué de deux blocs, un bloc-prélèvement de 60 kg et un bloc-mesure de 3o kg.
- Ces divers appareils aspirent l’air à analyser à l’aide d’une
- p.175 - vue 178/558
-
-
-
- CONTROLE" ET MESURE QUANTITATIVE DU
- Pour mesurer et contrôler les radiations
- DANGER BIOLOGIQUE
- DES RADIATIONS IONISANTES "X" ET "Y" PAR LES NOUVEAUX
- DOSIMETRES
- INDIVIDUELS "PHY
- BREVETS FRANÇAIS
- iS.G D.G i
- Défense Nationale /
- Huzar
- Physiotechnie k
- ET BREVETS te
- ÉTRANGERS J/,- k U
- bracelet]
- USINE • 34, Avenue Arislide-Briond ARCUEIL (Seine)
- LA PHYSIOTECHNIE
- LE DOSIFILM MASSIOT
- vous indiquera quantitativement et qualitativement la dose hebdomadaire de rayonnement que vous ne pouvez éviter, mais que vous devez absolument contrôler, afin de la réduire ou minimum.
- LE DOSIMÈTRE H MASS
- permet de mesurer les doses simultanément au centre du champ d'irradiation et en différents endroits de la zone de rayonnement.
- LE MICRODOSIMÈTRE MASSIOT
- vous permettra d'assurer le contrôle de protection à des fréquences allant jusqu'à la semaine. Sa haute précision permet toOtes mesures avec des erreurs de l'ordre de 2 °/o. Des indications sur la dépendance des mesures en fonction de la longueur d'onde sont fournies avec chaque chambre. Caractéristiques des chambres: I, 100, 200, 500 millirœntgens et I, 2, 5, 6, 10, 50, 100 rœntgens. Toute autre chambre sur demande.
- G. MASSIOT & C / Constructeurs 37 bis, RUE DE BELFORT - COURBEVOIE (Seine) - Tél. : DÉF. 45-50
- --- VIENT DE PARAITRE --------------------------
- LE SOUFFLAGE DU VERRE AU LABORATOIRE
- PAR
- M. GILLOIS
- PRÉFACE DE H. GAULT
- Professeur honoraire à la Faculté des Sciences de Paris,
- Directeur du C.E.R.C.O.A.
- xiv-274 pages 16 x 25, avec 390 figures. Relié toile sous jaquette ........................ 39 NF
- En vente dans toutes les bonnes librairies et chez iDYJINTOD Éditeur. 92, rue Bonaparte, Paris-6*. DAN 99-15.
- 14, rue René-Coche VANVES (Seine)
- ÉLECTRONIQUE NUCLÉAIRE
- APPAREILLAGE DE MESURE POUR LARORATOIRES APPLICATIONS INDUSTRIELLES DE LA RADIOACTIVITÉ
- BIBLIOTHÈQUE TECHNIQUE PHILIPS
- DÉCHARGES ÉLECTRIQUES DANS LES GAZ
- PAR
- F. M. PENNING
- 82 pages 16x25 avec 29 fig. 1959. Relié toile sons jaquette.. 14 NF
- Cet ouvrage ne peut être fourni en Belgique, Congo Belge, Espagne, Italie, Pays-Bas, Suisse.
- En vente dans toutes les bonnes librairies et chez UUKTOD Éditeur. 92, rue Bonaparte, Paris-6*, DAN 99-15.
- p.176 - vue 179/558
-
-
-
- 177
- Fig. 6. — Détecteur DRP I de la S.A.I.P.
- Détecteur pour pilotons ou rayons X étalonné en débit de dose qui, sans commutation, permet le dosage depuis 1 mr/h jusqu’à 10 000 mr/h.
- (Photo S.À..I.P., Malakoff).
- pompe de débit constant, et forcent cet air à traverser un filtre sur lequel se déposent les aérosols. Le filtre défile lentement, de 3 à 8o mm par heure, et passe devant un détecteur (compteur ou sciritillateur), puis, après un certain temps, devant un
- Fig. 7. — Ensemble M 100 de la C“ des Compteurs pour l’analyse de la radioactivité de l’air.
- En bas, le bloc de prélèvement ; en. haut, l’ensemble de mesure. Les deux parties doivent être réunies par un câble qui peut atteindre 100 m.
- (Photo C.D.C., Montrouge).
- Fig. 8. —1 Ensemble EAR 620 de la C.R.C. pour le prélèvement et la mesure d’aérosols.
- Cet ensemble permet de détecter des activités de l’ordre de 10-12 curie/m3 au minimum et peut doser jusqu’à 10~7 C/m3.
- (Photo C.R.C., Saint-Ktienne).
- nouveau détecteur aussi semblable que possible au premier. Une source étalon substituée au filtre périodiquement permet la vérification fréquente de l’étalonnage.
- Du rapport entre l’activité mesurée sur le filtre immédiatement après son imprégnation à celle mesurée après un certain temps, on peut déduire la composition des aérosols : produits à période courte (radon, thoron) et produits à période longue (strontium par exemple). L’EAR 620 de la C.R.C. peut être équipé d’un système d’alarme si l’activité croît brusquement. Il suffit d’utiliser la différence entre les activités mesurées au même moment par les deux détecteurs, l’un donnant l’activité à l’instant de mesure, l’autre celle qu’il y avait ayant un certain temps, avec une petite correction due à la décroissance des produits à période courte.
- Ces appareils sont très importants car l’ingestion de produits radioactifs, tant par voie buccale que par voie pulmonaire, est grave; leur détection est souvent difficile, les moyens d’action sont très réduits; il n'y a pas d'antidotes; les quantités nocives sont extrêmement faibles puisque l’individu est en contact permanent.
- Le danger est d'autant plus important que les radiations émises sont plus ionisantes, que le cycle biologique et la période de l'isotope sont plus longs.
- p.177 - vue 180/558
-
-
-
- POUR TOUT CONTROLE D* ALIMENTA T ION DE TENSION
- La nouvelle gamme de
- TRANSFORMATEURS VARIABLES
- Modèle à encastrer
- Puissance de 260 VA à 2080 VA
- en modèle simple (0-150 et 0*260 V)
- Puissance de 2080 VA à 6240 VA
- par montages en parallèle (0-150 et 0-260 V)
- Puissance de 4050 VA à 6240 VA
- par montages triphasés, étoile (0-260 et 0-450 V)
- Montages spéciaux.
- Documentation technique n° 155 sur demande
- Modèle de table
- C !£ DES PRODUITS ELEMENTAIRES POUR INDUSTRIES MODERNES. 7, Pass. Charles-Dollery, PARIS-XI'.VOL. 23-09
- MICROSCOPES « COOKE >»
- Agents exclusifs pour la France et les T.O.M.
- Éts F. C. DANNATT
- AZOTE 15
- ISOTOPE STABLE
- POUR LES PROBL SMES DE MARQUAGE, DANS LA RECHERCHE ET
- DANS L'INDUSTRIE
- FORMES STANDARD
- ACIDE NITRIQUE NITRATES
- PHTAUMIOE POTASSIQUE
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnu© par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles. _ ^
- Préparation aux diplômes d’État Brevets de Techniciens'd’Analyses Biologiques,
- -*?. Biochimistes, Biologistes.
- Cours dit jour — Cours du soir
- Section d'enseignement " à-domicile "
- (Joindre timbre pour notice)
- p.178 - vue 181/558
-
-
-
- 179
- Le dernier type d’appareils dont nous voulons parler ici sera celui des doseurs, utilisés surtout en gammathérapie ou en recherche biologique. Ce sont essentiellement des chambres d’ionisation dont les dimensions ont été adaptées aux doses à mesurer; citons entre beaucoup :
- — la série de « Victoreen » (distribué par Vilber Lour-mat) dont la gamme s’étend de 25 mr jusqu’à 25o r pour des photons dont l’énergie est comprise entre oo et 4oo keV;
- — le dosimètre universel Philips avec ses sondes variées.
- Le marché français, encore complété par quelques éléments d’importation, offre un choix assez grand de matériel pour que tous les utilisateurs puissent trouver l’appareil le mieux adapté à leur problème.
- Les progrès constants dans la recherche sur les semi-conducteurs permettent des réalisations toujours plus compactes, plus légères et d’une durée de vie très supérieure à celle qui peut être obtenue avec les tubes à vide.
- Yvon Deschamps.
- Autotransformateurs réglables
- Tant de modèles d’aulotransformateurs réglables, utilisés pour l’ajustage des tensions d’alimentation des appareils de laboratoire, existent maintenant qu’il nous a semblé utile de résumer les caractéristiques principales des modèles disponibles.
- Rappelons auparavant que le réglage des puissances d’alimentation des appareils électriques dotés d’une inertie suffisante, tels que les appareils de chauffage, peut être également effectué à l’aide des régulateurs d’énergie apparus depuis quelques années et qui tendent actuellement à remplacer, parce que moins onéreux, les rhéostats jadis utilisés. Ces régulateurs d’énergie fonctionnent suivant le principe du thermostat à bilame, le bilame étant chauffé par un petit circuit annexe monté en parallèle sur l’alimentation de l’appareil à réguler, et sont utilisables couramment pour des puissances qui atteignent i kVA. Cependant leur emploi reste très spécialisé par suite de leur fonctionnement intermittent.
- Chaque fois qu’un réglage fin et continu s’impose, le rhéo^-stat ou le transformateur réglable sont seuls utilisables; ce dernier possédant l’avantage de consommer infiniment moins de puissance, puisque la seule puissance dissipée dans l’appareil de réglage lui-même l’est par suite des pertes dans un circuit magnétique et des circuits électriques de résistance très faible.
- En ce qui concerne les pertes électriques, l’autotransforma-teur possède un avantage net sur le transformateur à primaire et secondaire isolés : les courants d’entrée et de sortie sont en opposition de phase et se compensent partiellement (fig. 9)
- dans la partie de bobinage dans laquelle ils circulent tous deux et réduisent ainsi les pertes thermiques. En outre, la construction d’un seul bobinage est plus simple que celle des deux circuits utilisés dans les transformateurs.
- Cependant, pour certains usages où il est nécessaire de pouvoir disposer d’un secondaire dont les deux bornes sont isolées de la terre, le transformateur à double bobinage reprend l’avantage. Pour cette raison, la Compagnie des Produits élémentaires pour Industries modernes (C.O.P.R.I.'M.) construit un modèle de transformateur réglable, le type B.S 70900, conçu pour une tension primaire de 220 V et pour une tension secondaire atteignant 33o V, soit un survoltage de 5o pour 100, mais qui ne débite que 1,6 A alors qu’un autotransformateur de même dimension atteint aisément trois fois plus, en limitant toutefois le survoltage à i5 à 20 pour xoo.
- Une autre qualité importante des autotransformatëurs est la
- 10 10 105 104 600 6,000 60,000 600,000
- 5 006
- Fig. 10. — Surcharge temporaire admissible pour un autotransformateur (Variac),
- facilité avec laquelle ils absorbent les surcharges momentanées, facilité due à leur masse thermique élevée en regard de la puissance qu’ils dissipent. A titre indicatif, la courbe de la figure 10 donne, en fonction du temps, la surcharge admissible pour un autotransformateur Variac de la General Radio. Cette qualité est importante chaque fois qu’une surintensité est attendue lors de la mise en route, comme c’est le cas, par exemple, pour les moteurs.
- Outre les particularités de construction propres à chaque fabricant, les autotransformateurs sont caractérisés par leur destination : appareils de table, protégés ou non, à encastrer sur tableau, etc., et la tension et l’intensité pour lesquelles ils sont prévus. La fréquence d’emploi est en général 5o ou 60 Hz. Pour les fréquences plus élevées, 4oo Hz par exemple, des circuits magnétiques à très faible perte sont utilisés.
- p.179 - vue 182/558
-
-
-
- - 180 —...................".... ..... - -............... -
- Nous ne pouvons évidemment énumérer dans le détail tous les modèles d’autotransformateurs construits, d’autant plus qu’il est possible d’obtenir pour chaque marque des modèles hors catalogue.
- La Société Ferrix construit sous la marque Alternostat (fig. n) plusieurs séries d’appareils qui permettent une surtension de 18 pour ioo, et couvrent la gamme comprise entre i,3 et 19 A pour les modèles 127 Y, et o,5 à 12 A pour ceux destinés aux réseaux 220 V. Le modèle 11 A, 127 Y, pèse 19 kg, ce qui correspond à des appareils largement dimensionnés, robustes, et possédant une rigidité diélectrique élevée entre bobinage et masse (2 000 V eff.).
- Les nouveaux autotransformateurs «Rototransfo » construits par les Ateliers Dereix (fig. 12) sont munis d’un bloc noyau magnetique-bobinage enrobé à cœur de résine polyester char-
- Fig. 12. — Rototransfo Dereix, modèle de tableau totalement enrobé.
- gée au mica qui permet le fonctionnement en service continu jusqu’à i5o° C, d’où un gain important sur le rapport puissance/poids. Certains modèles de table sont munis d’un jeu de bornes commutables qui permet d’étaler la variation totale de o à n5 pour 100 de la tension d’alimentation sur deux tours du curseur; la course de celui-ci peut être par ailleurs limitée par des butées réglables fichées dans le cadran de l’appareil. Les modèles récents sont prévus pour des puissances qui atteignent 2 200 VA. L’enrobage total des modèles de tableau possédant les mêmes performances en fait des ensembles compacts et parfaitement protégés contre les agents corrosifs.
- Les appareils « Transco » construits par la C.O.P.R.I.M.
- Fig. 13. — Transco de la Compagnie des Produits élémentaires pour Industries modernes, modèle 84526, 220 V, 1 A.
- Vue éclatée montrant le bobinage.
- (fig. i3) sont également de construction très compacte et leur poids a été réduit au minimum (le modèle 9 A, i3o V, ne pèse que 10 kg) afin d’en faire des ensembles aisément manipula-bles. Us sont prévus pour une tension de sortie comprise entre o et 120 pour 100 de la tension d’alimentation, et une puissance qui peut atteindre 2 080 VA.
- Enfin, parmi les appareils étrangers, on ne peut passer sous silence les modèles « Variac » construits par la General Radio Co. et dont la gamme est particulièrement étendue puisque, jusqu’à 5 000 VA, les modèles portables, capotés ou non, sont disponibles. Le chemin de glissement des balais est, sur ces modèles, traité par dépôt d’un alliage d’argent qui le rend très résistant à l’oxydation lors du fonctionnement à puissance élevée. R. Buvet.
- L’étude des variations de latitude en Asie
- Dans un article consacré au déplacement des pôles et aux études entreprises récemment à ce sujet dans le monde entier, la revue soviétique Priroda a signalé que plusieurs stations destinées à l’observation des variations de latitude ont été créées récemment en Asie. En effet, si ces stations sont nombreuses en Europe et en Amérique, elles étaient, jusqu’à ces dernières années, pratiquement inexistantes en Asie. Seule, la station japonaise de Mid-zousawa existait entre la côte occidentale des Etats-Unis, et la station de Kitab en Ouzbékistan (U.R.S.S.). A l’heure actuelle,
- la nouvelle station d’Irkoutsk a déjà procédé à l’observation de la variation des latitudes. Une autre station, située à Blagovest-chensk, sur le fleuve Amour, doit bientôt entrer en service. D’autre part, deux stations ont été construites en Asie, en dehors de UU..R.S.S., mais avec la collaboration de spécialistes soviétiques, l’une à Tsien-Tsin, en Chine, l’autre à Oulan-Bator, dans la République Populaire de Mongolie. La station de Tsien-Tsin a déjà entrepris des observations systématiques des latitudes.
- C. M.
- Richesses du sous-sol sibérien
- La Sibérie orientale est une des régions les plus riches de l’U. R. S. S. en ce qui concerne le charbon et les minerais. Ainsi, les réserves géologiques de charbon s’en évaluent, d’après la revue Priroda, en trillions de tonnes et constituent 80 pour 100 des réserves totales de l’Union Soviétique. De même, les minerais de fer sont particulièrement nombreux, en Sibérie : dans les seules régions de Krasnoïarsk, d’Irkoutsk, de Yakoutsk et de Tchita, les
- réserves atteignent le chiffre imposant de 12 à 13 milliards de tonnes. Enfin, le sous-sol de la 'Sibérie orientale est très riche en diamants, en or et en mica, sans parler de métaux rares et de métaux non ferreux, comme l’étain, le tungstène, le molybdène, le plomb, le nickel et le zinc. On y trouve également des' gisements importants de graphite, d’amiante, de talc, de magnésite et de quartz. G. M.
- p.180 - vue 183/558
-
-
-
- Pullulation de parasites consécutive à des traitements insecticides
- Les inconvénients d’un emploi massif des insecticides dans les cultures ont déjà été maintes fois signalés. Les insectes contre lesquels on veut lutter ne sont pas seuls à être détruits. Il arrive qu'on provoque dans la faune un certain déséquilibre qui amène une augmentation imprévue d’espèces qui ne se trouvent pas touchées par les insecticides employés ou dont le nombre était limité par certains prédateurs ou parasites que ces insecticides ont détruits. Le cas le plus typique, et le plus connu en France, de celte action est présenté par les petits acariens du genre Tetranychus, bien connus sous le nom d’araignées rouges, qui produisent par leurs piqûres de sérieux dégâts sur les feuilles et les jeunes rameaux des arbres fruitiers. A la suite de traitements effectués par le D.D.T. et le fluosilicate de sodium contre les vers des fruits, la pullulation des Tétranyques a été tellement rapide qu’ils sont devenus une source de soucis sérieux pour les producteurs de fruits du Midi de la France, qui ont dû entrer en lutte contre ce nouveau fléau. On a attribué cette augmentation brusque des acariens à l’action indirecte des insecticides *, ceux-ci, sans effet sur les Tétranyques, peuvent détruire, certains insectes qui en sont prédateurs en même temps que les Carpocapses et Ceratitis visés. On a constaté en outre une augmentation de la fécondité des acariens qu’on a pensé être en rapport avec le meilleur état des arbres débarrassés de leurs parasites.
- Plusieurs exemples comparables ont été constatés dans. Ie3 cultures tropicales. L’un d’eux est celui cité par M. Basilewsky, chef de la Section entomologique du Musée Royal du Congo Belge, à propos d’un Hémiptère Tingidé, Habrochila ghesquierei, qui produit quelques dégâts dans les cultures" de caféier du Congo Belge. Les planteurs ont effectué des pulvérisations massives de produits insecticides à base de D.D.T., pensant sè débarrasser de cet insecte indésirable. Les résultats se sont montrés tout différents de ceux que l’on escomptait;' VHabro-c'hïla s’est révélé résistant au D.D.T., lequel a par contre atteint une punaise de la famille des Miridés (Apoïlodotus chinai), espèce prédatrice qui fait de la première sa principale nourriture. Il s’en est suivi que la destruction de ce prédateur a amené une augmentation notable de l’insecte qu’on voulait atteindre.
- Un cas un peu comparable et fort intéressant, résumé dans le numéro du 26 décembre 1959 de la revue anglaise Nature, nous est offert par les entomologistes de la grande Station d’études du Cacaoyer, West African Cacao Research Institute, de Tafo (Ghana). Il est fourni par les résultats de la lutte contre certains parasites du cacaoyer, en particulier les Capsides Sahlbergella singularis et Distantiella theobroma, et diverses cochenilles, dont la plus importante est le Pseudococcus njalen-sis. Les dégâts produits par ces insectes ne résultent pas tant des piqûres qu’ils infligent aux cacaoyers que dé leur rôlè comme vecteurs d’une très grave maladie connue sous le nom
- de swollen shoot disease. Comme ce nom l’indique, cette maladie se manifeste surtout par des déformations des bourgeons, mais aussi par d’autres lésions de différentes parties de la plante; il a été montré que ce polymorphisme résulte de l’attaque de plusieurs virus. La situation a été si grave qu’une lutte sans merci a été entamée contre les insectes piqueurs, avec divers insecticides de la famille des hydrocarbures chlorés, et avec la dieldrine contre la cochenille et les fourmis qui favorisent sa pullulation.
- ! Les résultats ont été satisfaisants mais on a constaté que l’emploi des insecticides a été suivi de l’augmentation du nombre de certains autres insectes nuisibles. Ainsi, près de Bunso en 1955, après emploi intense de B.H.C. (hexachlorobenzène), on remarqua l’abondance du Cérambycide Tragocephala nobilis var. castnia, dont Ja larve vit en: xylophage à l’intérieur des branches du cacaoyer. En 1957, une augmentation spectaculaire d’un petit Lépidoptère Gracillariidé, du genre Marmara, fut également observée après applications de dieldrine contre les Capsides. Les chenilles de ce microlépidoptère vivent en mineuses dans l’écorce des cabosses du cacaoyer. La prolifération de ces deux insectes a régressé après la diminution de la fréquence des épandages d’insecticides.
- • A nouveau, en 1969, après traitement des cacaoyers par la dieldrine à Oyoko, deux autres insectes sont devenus anormalement abondants. L’un est un Lépidoptère Cosside (Eulopho-notm myrmeleon) dont la chenille vit en rongeur à l’intérieur des troncs et des plus fortes branches; dans l’autre cas, il s’agit égalêï|xent\de chenilles, appartenant à la famille des Métarbé-lidés^et représentant probablement deux espèces indéterminées, qui tissent à la jonction des branches une toile sous laquelle elles rongent l’écorce et creusent une galerie pénétrant vers; le cœur de la branche. Une statistique a pu être établie qui montre que le nombre des arbres attaqués diminue de. façon considérable lorsqu’on s’éloigne de la région traitée. Les chiffres concernant le Cosside Eulophonotus myrmeleon varient ainsi de 19,2 pour 100 au centre de cette région à 0,6 pour 100 à un mille de ce point.
- L’explication que l’on peut donner de ces faits .est la même que pour les Tétranyques. Il est certain que les larves xylophages ou mineuses se trouvent à l’abri de l’action des insecticides, tandis que leurs parasites, hyménoptères et diptères, sont parmi les insectes les plus touchés. Ces deux actions conjuguées sont parfaitement capables d’expliquer le développement anormal de ces espèces dont la nocivité est d’ailleurs presque négligeable si on la compare au danger que présentait le développement de la maladie transmise au cacaoyer par les insectè3 piqueurs. Mais le fait est très intéressant à signaler au point de vue biologique de l’équilibre des faunes.
- L. Chopabd.
- Le téléphone dans le monde
- Une récente statistique établit à quelque 120 millions le nombre de récepteurs téléphoniques en service dans le monde en 1958. Les États-Unis se placent naturellement en tête, avec plus de la moitié des appareils en service (63 000 000), précédant de très loin la Grande-Bretagne (7 400000), le Canada (5 000 000), l’Allemagne occidentale (4 800 000), le Japon (4000 000), l’U. R. S. S. (3 600 000) et la France (3 500 000). Rapportée au nombre d’habitants, la moyenne des appareils en service est de 37 pour 100 personnes aux États-Unis, de 33 en Suède, 29 au Canada, 27 en Suisse, 19 en Australie. La Grande-Bretagne en possède 15 pour
- 100 habitants, la Hollande 12, l’Allemagne occidentale 9, la France 8, l’Union soviétique 2.
- Parmi les capitales, Washington se classe en tête avec 70 numéros de téléphone pour 100 habitants. Stockholm en possède 57, Helsinki 37, Ottawa 37, Copenhague et Oslo 36, Paris 32. Reykjavik (29) se place avant Bruxelles (28), Londres (26) et Rome (25). Viennent ensuite Bonn (21), La Haye (21), Buenos Aires (18), Vienne (18), Lisbonne (16), Madrid (15), Tokyo (10), Moscou (9). Parmi les chiffres les plus faibles, on relève Delhi (2), Le Caire (3,6), Varsovie (4), Lima et Mexico (5).
- p.181 - vue 184/558
-
-
-
- 182
- LE CIEL EN MAI I960
- SOLEIL : du 1er mai au l«r juin (à 0*) sa déclinaison croît de 4- io°r à + 22°r et la durée du jour de 14*33™ à 15*49™ ; diamètre apparent le 1« (à 0*) = 31'47”,5, le 31 (à 24*) - 31'35”,o. — LUNE : Phases : P. Q. le 4 à 1*1™, P. L. le 11 à 5*43™, D. Q. le 17 à 19*55™, N. L. le 23 à 12*27™ ; périgée le 12 à 18*, diamètre app. 33’9" ; apogée le 28 à 4*, diamètre app. 29'25”. Principales conjonctions : avec Uranus le 4 à 10h, à 3°51' .-S. ; avec Neptune le 10 à 7*, à 1°47' N. ; avec Jupiter le 14 à 1*, à 4°37' N. ; avec Saturne le 15 à 3*, à 4°9' JN. ; avec Mars le 20 à 22*, à Û°8' N. ; avec Vénus le 24 à 18*, à 3°49' S. ; avec Mercure le 20 à 10*, à 6°36' S. ; avec Uranus le 31 à 18*, à 3°34' S. Principale occultation : le 15, de Vesta (mag. G,4), émersion à 0*1G™, 9. — PLANETES : Mercure, se montre le soir dans les derniers jours du mois, difficile avec le long crépuscule ; Vénus, s’efface dans les brumes de l'aurore ; Mars, brille un peu le matin près de 2 heures avant le lever du Soleil ; Vesta; dans le Sagittaire se lève avant minuit au début du mois, positions, le 1er : 19*6™ et — 18°34', le il : 19*11™ et — 18°43', le 21 : 19*12™ et — 19°3', le 31 : 19*11»» et — 19°33', mag. 6,3, se trouve non loin au N.-W. de Saturne ; Jupiter, dans le Sagittaire se voit dès la fin de la soirée, le 16 : diamètre pol. app. 41",6 ; Saturne, dans le Sagittaire, se lève 1 heure après Jupiter, le 16, diamètre pol. app. 13”,8 et axes de l’anneau : 41",2 et + 16",9 ; Uranus, dans le Lion 6e couche après minuit, le 16, position : 9*19™ et + 16°22', diamètre app. 3”,8 ; Neptune, dans la Balance se montre toute la nuit, le 16, position : 14*22™ et — 12°13', diamètre app. 2",4. — ETOILES VARIABLES : minima de p Lyre (3™,4-4™,3) le 10 à 11*,7, le 23 à 10*,1 ; minima de 6 Balance (4™,8-5™,9) le 4 à 0*,4, le 11 à 0*,0, le 17 à 23*,6, le 24 à 23h,l, le 31 à 22*,7 ; maxima de 6 Céphée (3™,7-4™,6) le 3 à 0*,5, le 8 à 9*,3, le 13 à 18*,1, le 19 à 2* 9, le 24 à 11*,7, le 29 à 20*,5 maxima de R Aigle (3™,7-4™,4) le 5 à 23*,9, le 13 à 4*,1, le 20 à 8*,4, le 27 à 12*,6 ; maximum de U Orion (5™,2-12™,9) le 25. — TEMPS SIDERAL : au méridien de Paris à 0* (T. U.) : le lw : 14*45™2S, le 11 : 15*24™288, le 21 : 16*3™53s, le 31 : 1G*43™19S.
- Phénomènes intéressants. — Surveiller l’apparition de taches et de facules, à la surface du Soleil. — Du 27 mai au 1er juin, lumière cendrée de la Lune, le soir. — Toutes les grosses planètes sont observables1 pendant le mois, ainsi que le plus brillant astéroïde : Vesta, qu’on pourra rechercher à la jumelle, dans le Sagittaire aux positions indiquées plus haut, on ne manquera pas, non plus, l’observation de l’occultation de cet astre par la Lune, le 15. — Etoiles filantes : du 1er au 13 : Aquarides (radiant y Verseau), maximum le 4, météores rapides à traînées.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIETE ASTRONOMIQUE DE FRANCE
- fondée en 1887 par C. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc
- Demandez les programmes au Siège Social
- Hôtel des Sociétés Savantes, 28, rue Serpente, Paris-6*
- Permanence, tous les jours non fériés de 14 à 17 h
- Cotisations : Région Parisienne, 25 NF ; France, 20 NF ; Étranger, 30 NF ; Étudiants, 3 NF ; Droit d’inscription pour tous, 2 NF.
- Spécimen gratuit de la revue sur demande.
- Demandez « Splendeur de l’Astronomie », les plus belles photographies astronomiques : 16 pages 13,5 x20,5, tirage néogravure bleu nuit.
- 0,65 NF franco.
- LES LIVRES NOUVEAUX
- Annuaire pour l’an 1960, publié par le Bureau des Longitudes. 1 vol. 13 x 16, 692 p. Gau-tliier-Villars, Paris, 1960. Prix, broché : 35 NF ; cart. : 40 NF.
- Comme tous les ans, le célèbre annuaire fournit les prédictions astronomiques pour l’année en cours, les généralités sur l’astronomie, les temps légaux, les signaux horaires, des études sur le Soleil, la Lune, les planètes, les comètes, les constellations, enfin les principales prédictions pour 1961. On a ajouté pour Jupiter les passages des ombres des satellites sur la planète ; la définition du temps des éphémérides qui doit remplacer le temps universel ; un tableau des familles radioactives, etc. On a cette année les articles sur la Météorologie, les nombres et unités de mesure, les données physiques et chimiques, la dynamique des courants marins (II. Lacombe) ; des notices sur la prévision du temps (A. Viaul), la Xe assemblée de l’Union astronomique internationale à Moscou (P. Couderc).
- Probabilité et Information, par A. M. Yaglom et I. M. Yaglom. Traduit du russe par W. Mer-couroff. 1 vol. 11x16, 185 p., 16 fig., Monographies Dunod, Paris, 1959. Prix, relié toile souple : 13,50 NF.
- La théorie de l’information est une des branches les plus jeunes de la théorie des probabilités. On peut, sans conteste, dire qu’elle date de 1948 à la suite des travaux de Shannon. Les auteurs ont écrit ici un livre élémentaire destiné à un public relativement large (ingénieurs, étudiants, biologistes, etc.). La lr” partie est consacrée à l’exposition de la notion de probabilité et d’événements. La 2“ traite de l’information et plus précisément de l’entropie considérée comme une mesure de l’information. Les deux dernières parties sont consacrées aux applications, dans le cas de certains problèmes simples et dans le cas de transmission d’information (téléphone, T. S. F., etc.).
- La théorie physique au sens de Boltzmann et ses prolongements modernes, par René Dugas. Préface de Louis de Broglie. 1 vol. 16 x 23, 310 p., Dunod, Paris ; Éditions du Griffon, Neuchâtel, 1959. Prix, relié toile : 37 NF.
- L’auteur s’est attaché surtout à l’aspect révolutionnaire (à l’époque de leur publication) des travaux de Boltzmann. Le père de la mécanique statistique avait tenté avec succès de retrouver les lois de la thermodynamique à partir de la théorie cinétique des gaz. Or à la fin du siècle dernier, la tendance était purement phénoménologique, les savants rejetaient par principe toute idée de modèle et l’interprétation statistique du deuxième principe de thermodynamique a soulevé de nombreuses difficultés, non encore toutes élucidées actuellement. Dans une 1” partie, l’auteur définit la position de Boltzmann par rapport à la physique de son temps. La 2” partie est consacrée surtout à l’aspect probabiliste du second principe et aux discussions qui s’ensuivirent. La 3' partie est consacrée à l’influence qu’a eue Boltzmann sur le développement de la physique ; en particulier, en reprenant la genèse de la théorie des quanta, l’auteur montre comment Planck a été guidé par les travaux de
- A NOS LECTEURS
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6*
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- Boltzmann et comment Einstein avait été inspiré par ces mêmes travaux lors de la publication de ses mémoires sur le mouvement brownien et la mécanique statistique. Le dernier chapitre met en parallèle la position « atomistique » de Boltzmann à l’égard de la phénoménologie énergétique et les tenants de l’interprétation causale de mécanique quantique vis-à-vis de l’école probabiliste.
- Calculatrices numériques automatiques, par
- M. V. Wilkes. Traduit de l’anglais par J. Ernest. 1 vol. 14 x 22, 402 p., 116 fig. Dunod, Paris, 1959. Prix, relié toile sous jaquette : 38 NF.
- Calculateurs numériques. Éléments et Circuits, par R. K. Richards. Traduit de l’américain par H. Soubies-Camy. 1 vol. 15,5 x 24, 538 p., 166 fig. Dunod, Paris, 1959. Prix, relié toile sous jaquette : 64 NF.
- Dunod présente simultanément deux ouvrages sur les calculatrices électroniques digitales dont l’introduction a permis des progrès importants dans les domaines scientifiques et techniques par la résolution de problèmes numériques jusqu’alors inabordables, et va conduire à une transformation des méthodes comptables et de gestion des entreprises. Le premier ouvrage, écrit par un pionnier de la technique digitale, est une introduction destinée aux étudiants et aux ingénieurs qui désirent se rendre compte des possibilités de ces machines et des problèmes que soulève leur exploitation. L’exposé, extrêmement clair, s’attache aux principes de l’organisation logique des calculatrices et de l’établissement des programmes. L’ouvrage se termine par une étude simple de la construction et des principaux éléments de calcul et de mémoire. Le second ouvrage traite les problèmes pratiques de la construction de ces calculatrices. L’auteur, ingénieur-conseil de la firme I.B.M., décrit les circuits de calculs réalisables avec : diodes (cristal ou à gaz), tubes à vide, transistors, noyaux magnétiques, et d’autre part les dispositifs à mémoires de grande capacité : ligne à retard, dispositifs à enregistrement magnétiques, matrices à noyaux ferromagnétiques, tubes à mémoire électrostatique et tubes compteurs spéciaux. Bibliographie complète jusqu’en décembre 1956.
- p.182 - vue 185/558
-
-
-
- 183
- Les organes des systèmes asservis, par M. Pelegrin, J. C. Gille et P. Decaulne. 2e édition. 1 vol. 19 x 27, 478 p., 530 fig. Dunod, Paris, 1959. Prix, broché sous jaquette : 52 N F ; relié toile sous jaquette : 57 NF.
- Ce volume fait suite à Théorie et calcul des asservissements des mêmes auteurs, et doit être suivi de Méthodes modernes d'études des systèmes asservis. Complétés par un recueil de problèmes, ces ouvrages constituent une seconde édition très élargie de Théorie et techniques des asservissements. Les auteurs insistent dans ce volume sur l'idée trop souvent négligée que les organes d'un système asservi ne doivent pas être considérés isolément, mais comme les parties d’un tout : chaque organe « débite » sur un autre organe, ce dont ne tient pas compte la seule fonction de transfert. On doit donc considérer les organes des systèmes asservis comme des quadripôles (électro-magnétiques ou mécaniques) qu’il faut adapter deux à deux. Ce point de vue domine la première partie de l'ouvrage qui est consacrée, après un rappel de la théorie fondamentale des systèmes asservis, à l'adaptation d’impédances. Les organes des systèmes asservis sont ensuite présentés dans les chapitres consacrés aux organes détecteurs, aux moteurs électriques et hydrauliques, aux amplificateurs et aux problèmes posés par le redressement, la démodulation et le filtrage des signaux. Chacun de ces chapitres fait une large place aux calculs pratiques (calculs de moteurs, d’amplificateurs magnétiques par exemple), ainsi qu’à certains développements originaux concernant en particulier les régulateurs à inertie variable ou les relais. Signalons enfin que des fiches techniques de matériel commercial, quelques abaques et trois calculs complets de systèmes asservis sont proposés aux lecteurs et leur permettent l’application des méthodes exposées.
- L'Électronique, par Maurice Ponte et Pierre Braillard. 1 vol. 12 x 38, 190. p. Éditions du Seuil, Paris, 1959. Prix : 4,50 NF,
- L’éminent physicien qui donna la' théorie du magnétron et créa le premier radar à ondes déci-métriques a voulu, avec son plus proche colla-boratcur, dresser pour un large public ce tableau d’une science et d’une technique conquérantes, qui constitue le premier volume de la collection « Le rayon de la Science ». Imaginant une « grève des électrons », on nous montre d’abord la place immense que tient déjà l'électronique dans la vie quotidienne. Puis les principales applications de l'électronique dans la science et les techniques sont brièvement maïs clairement expliquées. Un petit lexique termine l’ouvrage. Illustration abondante.
- La Télévision du noir à la couleur, par
- André Langevin. 1 vol. 11,5 x 18 cm, 192 p., 73 fig. Savoir et Connaître, Paris, 1959. Prix, broché : 4,95 NF.
- Sous une forme intelligemment vulgarisée, ce petit livre nous initie aux mystères de la télévision. Outre une description du principe des tubes analyseurs et récepteurs et des systèmes de transmission, il contient un historique fort intéressant et fait place aux perspectives d’avenir concernant la télévision en couleurs.
- Les récepteurs de télévision. Tome /, par AV. T. Cocking. Traduit de l'anglais par il. Pmaux. 1 vol. 14 x 22, 260 p., fig. Dunod, Paris, 1959. Prix, relié : 29 NF.
- Parmi les nombreux ouvrages consacrés à la télévision, peu sont capables de satisfaire le lecteur qui ne se contente pas de vulgarisation par trop approximative, mais qui ne désire pas cependant suivre des calculs détaillés. Le livre de Cocking est de ceux-ci, et son succès en France sera sans doute équivalent à celui qu’il connaît en Angleterre. Ce premier tome traite essentiellement des signaux utilisés en télévision, des tubes cathodiques et des bases de temps des
- lignes et des trames, de leur génération et de leur synchronisation. La traduction est très bonne, de même que la présentation du texte et de l’illustration.
- Nouveau Traité de Chimie minérale, publié sous la direction de Paul Pascal, membre de l’institut, professeur honoraire à la Sorbonne. Tome XVIÏI : Complexes du fer, du cobalt et du nickel, par J. àmiel, Cl. Duval, Mme Cl. Düval, P. Job, A. Michel, P. Pascal. 1 vol. 18 x 26, xl + 944 p., 97 fig. Masson, Paris, 1959, Prix, broché : 95 NF ; cartonné toile : 107 NF.
- Voici le neuvième volume de cette œuvre considérable pour laquelle se sont groupés autour du professeur Pascal les spécialistes les plus qualifiés, et qui sera pour les chimistes et pour les étudiants en chimie minérale et industrielle l’outil de travail le plus précieux. Le Tome XVII, encore à paraître, traitera du fer, du cobalt, du nickel et des sels simples de ces éléments. Le présent tome est consacré plus particulièrement à la description des complexes parfaits des trois métaux ; cependant, pour répartir les matières de façon plus équilibrée, on a inséré dans ce volume l'étude des composés ioniques du fer. L’étude des complexes de chaque élément est suivie de celle des métaux-carbonyles puis des métaux-nitrosyles correspondants. Une table semi-alphabétique aide le lecteur à retrouver rapidement les renseignements qu’il désire.
- Nouveau Traité de Chimie minérale, publié sous la direction de Paul Pascal, membre de l’Institut, professeur honoraire à la Sorbonne. Tome XVI : Fluor, Chlore, Brome, /ode, Asiate, Manganèse, Technétium, Rhénium t par A. Chrétien, L. Domange, J. Faucherre, M. Geloso, M. HaÏssinsky, P. Pascal, M1Ie S. Tribalat. 1 vol. 18 x 26, 1196 p. Masson, Paris, 1960. Prix, broché (2 vol.) : 170 NF ; cartonné toile (1 vol.) : 185 NF.
- Ce tome copieux réunit les éléments du
- COLLECTION ARMAND COLIN
- Encyclopédie du XXe s. en livres de poche
- 340 titres
- Tout ce qu'il faut savoir sur les grands problèmes actuels
- Dernière Nouveauté :
- LA LITTÉRATURE GRECQUE
- Jean Defradas
- groupe VII de la classification périodique. Le premier sous-groupe comprend les halogènes, fluor, chlore, brome, iode, auxquels est venu s’adjoindre Fastate, créé artificiellement à Berkeley en 1940, et dont les isotopes 210 et 211 (périodes : 8,3 h et 7,5 h) ont pu déjà être utilisés dans des études biologiques (il se fixe comme l’iode sur la thyroïde). Le deuxième sous-groupe, longtemps réduit au manganèse, s’est complété avec le rhénium, métal très rare dont les alliages sont intéressants, puis avec l’élément 43, qu’on avait cru découvrir en 1925 et qui figurait dans quelques tableaux sous le nom de masurium, mais qui finalement a été nommé technétium, parce que tout celui que l’on possède est d’origine artificielle. Chaque halogène est étudié en lui-même et dans ses dérivés hydrogénés et oxygénés, en insistant sur les combinaisons interhalogénées et sur les états ioniques positifs éventuels. Dans le deuxième sous-groupe le manganèse tient naturellement la plus grande place, avec l’étude des sels où il figure comme élément coordinateur d’un anion complexe. Rappelons que sont déjà parus les tomes I, III, IV, X, XI, XII, XIV, XVIII, XIX. On annonce la publication prochaine des tomes VII (scandium, yttrium, terres rares, actinium) et Xm (oxygène, soufre, sélénium, tellure, polonium), chacun en deux fascicules.
- The metallurgy of vanadium, par William
- Rostoker. 1 vol. 15 x 23,5, x-185 p., fig. John
- Wiley and Sons, New York, 1958. Prix, relié :
- 8,50 dollars.
- Le vanadium, qui peut être obtenu très pur, peut servir de constituant intéressant dans l’éla-borafion d’alliages ; il a donc paru opportun de lui consacrer cette monographie qui, après avoir traité de son extraction, passe en revue ses propriétés physiques, mécaniques et chimiques, scs principaux alliages, ainsi que la façon dont il se travaille et sa résistance à la corrosion.
- ***»“ leinpçrdiure enects m aircraft structures, édité par Nichols John Hoff. 1 vol. 16 x 25,5, 357 p., fig. h. t. Pergamon Press. Londres, 1958. Prix, relié : 70 sh.
- Avec l’augmentation des vitesses de vol, les problèmes thermiques sont de première importance dans la conception des structures d’avion. L’auteur en effectue une revue complète, depuis |e^ fluage jusqu’aux phénomènes plus complexes liés au « flatter » à grande vitesse. Il établit les formules qui permettent de calculer le niveau des contraintes auxquelles sont soumis les éléments d'avion. Un livre très utile aux techniciens des bureaux d’étude d'aviation.
- Ozone et ^énie chimique, par Paul Frison. 1 vol. 21 x 27, 83 p., 32 fig. Société Traili-gaz, Paris.
- Après un rappel des propriétés de l’ozone, on décrit les méthodes modernes d'obtention de ce composé, ainsi que ses applications tant en chimie minérale qu’en chimie organique.
- L'ozonation des eaux de consommation. 1 vol.
- ^ P*» 20 fig. Société Trailigaz, Paris,
- 195/.
- Présentation du traitement Trailigaz-Welshach, pour la stérilisation des eaux de consommation.
- Free Radicals as Studied by Electron Spin Résonance, par D. J. E. Ingram. 1 vol. 14,5 x 22, x-274 p., 66 fig. Butterworths Scicntific Publications, Londres, et Academie Press, New York (pour édition américaine). 1958. Prix, relié : 50 sh.
- Les radicaux libres sont des groupements chimiques qui possèdent un électron célibataire. Cela leur confère en général une très forte réactivité chimique, et ils jouent un grand rôle en tant que produits intermédiaires dans de nombreuses réactions. La présence de l’électron célibataire permet de les détecter par résonance paramagnétique et le présent ouvrage en expose la théorie, la pratique et les résultats obtenus. L’auteur étudie le cas des radicaux stables, ceux produits par des rayonnements, les radicaux organiques et inorganiques. Le dernier chapitre est consacré aux applications biologiques et médicales.
- Les nuages, par Roger Clausse et Léopold Facy. 1 vol. 12 x 18, 190 p. Éditions du Seuil, Paris, 1959. Prix : 4,50 NF.
- Deux ingénieurs de la Météorologie ont écrit avec talent ce petit livre pour la collection
- p.183 - vue 186/558
-
-
-
- « Le rayon de la Science ». Excellent résumé d’une science difficile dont les chapitres s’intitulent ; première rencontre ; le monde des nuages ; les nuages au microscope ; la vie des nuages ; l’instinct grégaire des nuages ; les nuages autour du monde ; les nuages dangereux ; nuages et phénomènes optiques révélateurs ; les nuages et les météorologistes ; les nuages et les hommes. Petit lexique. Excellente illustration par schémas et photos.
- La biochimie des acides nucléiques, par
- J. N. Davidson, professeur de Chimie physiologique à l’Université de Glasgow. Trad. par C. et R. Vendrely. 1 vol. 11 x 16,5 des ' Monographies Dunod, 256 p. Dunod, Paris, 1960. Prix : 16,50 NF.
- L’acide désoxyribonucléique (ADN), qui forme là partie essentielle des chromosomes, et l’acide ribonucléique (ARN) localisé dans le cytoplasme apparaissent comme les substances fondamentales qui règlent l’hérédité et l’édification des cellules vivantes. D’innombrables chercheurs y consacrent leurs efforts et nos connaissances sur ce sujet augmentent rapidement. Ce petit ouvrage en offre le résumé, mis à jour à la fin de 1956. Il traite : produits d’hydrolyse des acides nucléiques ; absorption en ultraviolet et chromatographie ; structure et propriétés des polynucléotides ; nucléases et enzymes apparentées ; histochimie des a. c. ; méthodes chimiques de dosage ; contenu des tissus en à. c. ; a. c. du cytoplasme ; noyau cellulaire ; catabolisme des a. c. ; biosynthèse ; activité métabolique ; fonction biologique de l’ARN ; fonction biologique de l’ADN ; ,a. c. des virus.
- Subcellular partiales, édité par Teru Hayashi. 1 vol. 16 x 24, vm-213 p., 93 illustrations. The Ronald Press Company, New York, 1959. Prix, relié : 6 dollars.
- Communications présentées au symposium organisé en 1958 par la Society of General Phy-siologists. Remarquables synthèses des connaissances actuelles sur la structure des mitochondries, des lysosomes, des membranes de Golgi, et sur le rôle des éléments nucléaires dans la synthèse des polynucléotides. C’est aussi l’exposé de recherches fondamentales sur la synthèse protéique, mettant en évidence l’intervention spécifique de divers composés phosphorylés à différents stades de cette synthèse. L’ensemble permet d’accéder à une connaissance non déformée de résultats habituellement disséminés dans les revues spécialisées, et de confronter les résul-
- tats obtenus à l’aide des méthodes qui leur sont propres par les morphologistes et par les biochimistes.
- Dix petits hôtes de nos maisons, par Karl von Frisch, professeur à l’Université de Munich. Trad. de l’allemand par André Dalcq. 1 vol. 14 x 19, 218 p., 53 fig. Albin Michel, Paris, 1959. Prix : 8,70 NF.
- L’illustre savant qui par ses patientes recherches et ses ingénieuses expériences nous a découvert le « langage des abeilles » est aussi un écrivain agréable et un vulgarisateur adroit. Il nous apprend ici à regarder et à connaître mieux quelques petits animaux que nous n’hé-bergeons le plus souvent que contre notre gré : mouches, moustiques, puces, punaises, poux, mites, blattes, lépismes (petits « poissons d’argent »), araignées, tiques, et après nous avoir intéressés à eux, il nous dit comment nous pouvons nous débarrasser des plus incommodes. Chacun d’eux est l’occasion de révélations du plus haut intérêt et d'une fructueuse leçon de biologie comparée, sans que le ton cesse un instant d’être celui de la conversation familière.
- Faune de France. 63. Coléoptères Scarabéi-des, par R. Paulian (2e édit, revue et augmentée). 1 vol. 16 x 25, 298 p., 445 fig. Lechevalier, Paris, 1959. Prix, relié toile : 55 NF.
- Ce volume n’est pas une simple réédition du volume 38 de la Faune de France paru en 1941 et épuisé depuis un certain temps déjà. L'auteur a repris complètement l’étude de certains genres difficiles comme Onthophagns et Apho-dius et il a donné une certaine importance aux variétés dans le cadre de l’espèce. Mais c'est surtout dans l’augmentation considérable des indications sur la distribution géographique des espèces de Scarabéides en France et sur la biologie des adultes et de leurs larves que l’on constatera les améliorations apportées par ce volume sur la précédente édition.
- Studies in Invertebrate Morphology. Smifh-sonian miscellaneous collections, vol. 137. 1 vol. 16 x 24, vi-416 p., 1 frontispice, fig., pl. 11. t. Smithsonian Institution, Washington, 1959. Relié.
- . Ce beau volume a été publié, à l’occasion de son 84* anniversaire, en hommage à Robert Evans Snodgrass, célèbre anatomiste américain qui a consacré presque tous ses travaux à l’étude morphologique des insectes. Après un portrait de Snodgrass, une très intéressante biographie par Ernestine B. Thurman et une liste des travaux du savant parus entre 1896 et 1958, le volume comprend 18 articles dus à des naturalistes du monde entier, spécialisés dans les recherches d’anatomie et de morphologie des Arthropodes. Dans leur majorité ces articles sont consacrés à des questions d’anatomie structure de la tête des Onychophores, morphologie de la tête de la larve des Chironomides, anatomie externe d’un Acridien semi-aquatique Marel-lia remipes, musculature spinasternale de certains insectes, musculature mésothoracique des Diptères, musculature métathoracique d’une Noctuelle Crymodes devastator, nerfs et muscles de la trompe de la mouche Phormia reginat système nerveux cervicothoracique d’une sauterelle. Quelques articles sont moins spécialisés ; on peut citer la note de D. Bodenstein sur le problème de la pigmentation des yeux des insectes, appuyée d'expériences de parabiose chez les blattes et de transplantation de disques imaginaux chez les Diptères ; la signification phylogénétique de l’endognathie chez les Aptérygotes ; l’analyse physiologique des relations entre les prédateurs et leurs proies ; enfin le remarquable article de Guido Grandi sur le problème de l’adaptation morphologique chez les insectes, article illustré de 20 belles planches qui donne une excellente idée de la richesse de ces adaptations.
- Géographie humaine préhistorique, par Louis-René Nougier, professeur à la Faculté des Lettres et Sciences humaines de Toulouse, directeur de l’Institut d'Art préhistorique. Préface de Pierre Deffontaines. 1 vol. 14 x 21,5 de la collection « Géographie humaine », 326 p., 10.5 fig., 16 planches de photos hors texte. Gallimard, Paris, 1959. Prix : 17 NF.
- M. Louis-René Nougier a toujours orienté ses recherches d’archéologie préhistorique avec le
- LA NATURE PLASTIFIÉE
- ENROBAGE DE SPÉCIMENS BIOLOGIQUES
- dans résine artificielle claire comme du cristal
- CHEZ VOUS
- Demandez renseignements pour colis d’essai avec instructions
- Joindre enveloppe timbrée avec adresse S.V.P
- INTERNATIONAL PLASTIC RESEARCH B. P. 03 CONTES (A.-M.)
- souci de faire revivre les anciens peuplements dans leur cadre, de reconstituer les milieux géographiques dans lesquels s’est déroulée l’évolution de l’humanité. De cette évolution et de ce cadre nous ne connaissons que les grandes lignes, qui sont naturellement d’autant plus floues que l’on s’éloigne davantage dans le temps. Cependant les vestiges qui nous en restent, géologiques, anthropologiques, archéologiques, sont suffisamment nombreux maintenant et suffisamment cohérents pour qu’on puisse esquisser cette histoire de façon hautement vraisemblable. M. Nougier s’est surtout intéressé d’abord au Néolithique et à ses origines ; on connaît son important travail sur les civilisations campigniennes de l’Europe occidentale/ Dans la célèbre grotte de Rouffignac, il s'est penché avec M. Romain Robert sur des vestiges plus anciens. Nos lecteurs se souviennent aussi des articles qu’il nous a donnés sur « les genres de vie de l’homme préhistorique ». C’est le même sujet, élargi et approfondi, qu’il traite dans ce livre, avec un souci didactique qui le fait accessible à tous. Peut-être n’a-t-il pas tenu compte assez de certains travaux comme ceux de M. Oscar Paret, qui semblent bien prouver que les fameuses « cités lacustres » de Suisse et d’Allemagne ont en réalité été bâties sur des rivages. Mais c’est un excellent ouvrage qui n’a pas son équivalent et qui complète heureusement les livres d’initiation à la Préhistoire.
- Acoustique musicale ; Colloque du C.N.R.S.
- tenu à Marseille les 27, 28 et 29 mai 1958.
- 1 vol. 18,5 x 23, 264 p., fig. Éditions du
- C.N.R.S., Paris, 1959. Prix, relié : 34 NF.
- Le Colloque d’acoustique de Marseille portait sur deux points pz’écis : théorie de la gamme et des accords, physique des instruments. En ce qui concerne les systèmes de gammes, toute justification physique semble devoir être écartée, et la psychophysiologie dans le cadre du sentiment musical de l’époque et de l’individu occupe la place primordiale. Plusieurs auteurs désireraient mettre en application des systèmes plus raffinés que la gamme tempérée, comme la gamme à 31 notes d’Euler. En ce qui concerne les accords, les bases physiologiques de leur perception et des écarts à la justesse sont mieux connues depuis peu de temps. Des progrès considérables ont été faits dans le domaine de l’acoustique des instruments, dont la qualité peut quelquefois être définie par des critères purement physiques (transitoires, spectres sonores) : les facteurs peuvent profiter des résultats de telles
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 2e trimestre i960, n° 3528. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566>, LAVAL, N° 4o82. — 4-1960.
- p.184 - vue 187/558
-
-
-
- N° 3301
- Mai I960
- LA NATURE
- TIROS I
- prélude à un réseau de satellites météorologiques
- Le lancement, le Ier avril, du satellite américain Tiros I marque le franchissement d’une nouvelle étape sur la voie qui fera des engins circumterrestres des appareils d’une utilisation courante.
- Tiros I (Télévision and Injra Bed Observation Satellite) est en effet destiné à l’observation des formations nuageuses. Il est donc équipé de manière à pouvoir recueillir des images et les transmettre au sol. Ce n’est pas la première fois qu’un dispositif de télévision est placé à bord d’un engin spatial : la station automatique interplanétaire soviétique (Mas) était déjà munie d’une caméra de télévision. Ce n’est pas non plus la première fois que les Américains essayent d’observer la Terre du haut d’un satellite artificiel : le Vanguard II était déjà muni de cellules sensibles aux infrarouges, destinées à mesurer" l’albedo de notre planète. Mais le Mas a photographié la facf) inconnue de la Lune et le Vanguard II n’a pas donné satisfaction à ses constructeurs. D’autre part, des caméras ont été placées à plusieurs reprises à bord de fusées à grand rayon d’action, mais les fdms qui ont été pris ainsi ne donnent que des images localisées dans le temps et dans l’espace. Tiros I est le premier engin à pouvoir prendre de façon continue des vues sur une fraction importante du globe terrestre.
- Mener à bien une telle opération suppose que trois problèmes ont reçu des solutions satisfaisantes : la précision de la trajectoire, l’orientation de l’engin par rapport à la Terre, enfin l’équipement de radio et télévision.
- La précision de la trajectoire. — Il faut que l’orbite effectivement suivie par le satellite soit la plus conforme possible aux prévisions faites. Faute de quoi, naturellement, les superficies photographiées ne correspondront plus aux calculs. D’autre part il y a avantage à ce que l’orbite soit circulaire, de façon à rendre les vues comparables.
- Ces conditions ont été remplies : Tiros I parcourt une orbite qui est presque parfaitement circulaire et qui se situe à quelque 65o km du sol, soit à une distance qui ne diffère pas de plus de quelques dizaines de kilomètres de celle qui avait été prévue. Cette performance n’a été rendue possible que grâce à l’accomplissement de sérieux progrès dans le guidage des fusées porteuses. En l’occurrence il s’agissait d’une Thor Able, analogue à celle qui avait été utilisée pour le lancement de l’engin circumsolaire Pionnier V. Autre détail qui a son importance : le poids de Tiros I est de 122,5 kg. Il est donc assez sensiblement supérieur à celui des précédents satellites américains. L’engin porteur a donc également gagné en puissance.
- L'orientation de Yengin. — Il ne suffit pas, pour prendre des photographies de la Terre qui puissent être utilisables, de faire tourner une caméra de télévision autour de notre globe. Les premiers engins (la même remarque vaut pour les satellites soviétiques et américains) étaient animés d’un mouvement de pivotement sur eux-mêmes, qui aurait rendu toute prise de v ues absolument impossible. Comment procéder ? Deux solu-
- Fig. 1. — Lancement du Tiros I, le 1er avril 1960, à Cap Canaveral.
- Le satellite, qui pèse 122,5 kg, a été placé sur une orbite circulaire dont l’apogée est à 759 km de la surface terrestre, et le périgée à 435 km. La durée de révolution est de 99 mn 15 s, l'inclinaison sur l’équateur est de 48°3. Tiros I pourra continuer à tourner pendant plusieurs dizaines d’années, mais son dispositif de télévision ne fonctionnera pas plus de
- trois mois.
- (Photo aimablement communiquée par le Centre culturel américain).
- p.185 - vue 188/558
-
-
-
- 186
- Fig. 2. — Les instruments contenus dans le satellite Tiras I.
- 1, une des deux caméras 1,3 cm de télévision (Vidicon) ; 2, objectif grand angle ; 3, enregistreurs à bande ; 4, chronométreur électronique pour l’enchaînement des opérations ; 5, émetteur de télévision ; 6, batteries chimiques ; 7, dispositif électronique des caméras ; 8, dispositif électronique des enregistreurs à bande ; 9, circuits de commande ; 10, commandes auxiliaires ; 11, convertisseur d’énergie pour enregistreur à bande ; 12, régulateur de voltage ; 13, régulateur de charge des batteries ; 14, générateur auxiliaire de synchronisation pour la télévision ; 15, antennes émettrices ; 16, antenne de réception ; 17, dispositif pour mesurer la position du satellite par rapport au Soleil; 18, cellules solaires (au nombre de 9 000, réparties sur les lianes et l’une des faces planes) ; 20, dispositif contre-rotationnel ; 21, fusées rotationnelles.
- (Document aimablement communiqué par le Centré culturel américain).
- tions se présentent aussitôt à l’esprit : on peut soit stabiliser le satellite, soit lui donner une orientation fixe.
- Stabiliser un satellite consiste à lui donner une position déterminée par rapport au sol. L’engin se comporte alors, toutes proportions gardées, comme un avion ordinaire. Cette solution est la seule qui puisse convenir à un engin destiné à
- être monté par un homme. Elle est évidemment la plus satisfaisante aussi pour un satellite chargé de photographier le sol puisque ce dernier se trouverait toujours à la même place par rapport à lui. Mais elle présente un inconvénient : elle n’est à la portée que des gros satellites. Il faut en effet loger à bord un système automatique de pointage qui comporte un « œil »
- p.186 - vue 189/558
-
-
-
- 187
- Fig. 3. — Une des photos transmises par Tiros I le 8 avril 1960.
- On voit nettement, coupés par des bandes nuageuses, les contours de la Mer Rouge (1), le golfe d’Akaba (2), la vallée du Nil en Egypte (3), la Méditerranée orientale (4). Des nuages couvrent l’Arabie séoudite (5).
- (Photo National Aeronautics and Space Administration,
- communiquée par The Associated Phess Ltd.).
- chargé de suivre Ja ligne d’horizon et de petites fusées d’appoint capables de modifier la position du satellite dans l’espace, le tout étant, comme il se doit, accompagné d’un système à programme capable d’interpréter les indications recueillies par 1’ « œil » et de transmettre les ordres voulus aux réacteurs d’appoint.
- Cette solution a déjà été utilisée dans deux circonstances. C’est à elle que les Soviétiques ont fait appel pour saisir dans l’objectif de leurs caméras la face inconnue de la Lune.
- Une seule différence avec le dispositif décrit plus haut : le Mas était muni de deux « yeux » qui étaient chargés d’effectuer un pointage par rapport au Soleil, puis par rapport à la Lune.
- Les Américains, d’autre part, y font régulièrement. appel dans leurs essais préparatoires au lancement, d’un homme dans l’espace (projet Mercure) : les satellites Discoverer sont stabilisés par rapport au sol.
- Mais un Discoverer est en fait constitué du second et dernier étage de la fusée porteuse, une Agena, auquel est adaptée une capsule récupérable. Il pèse plusieurs centaines de kilogrammes tandis que les performances de la Thor Able limitaient à un chiffre sensiblement inférieur le poids du Tiros. Aussi les spécialistes américains se sont-ils tournés vers la seconde formule : l’orientation.
- Le principe en est très simple : on anime l’engin d’un mouvement de rotation autour de son axe et, sitôt lâché dans l’espace, le satellite se comporte à la manière d’un gyroscope : il garde une orientation fixe par rapport aux étoiles. Cela implique qu’à tout moment durant sa rotation autour de la Terre, il change d’orientation par rapport au sol. C’est celte solution qui avait été adoptée sur le satellite « météorologique » Vanguard II.
- L’inconvénient de cette deuxième solution saute aux yeux : la bande de terrain balayée par la caméra de télévision revêt une forme des plus complexes puisqu’elle dépend à la fois des effets de la votation du satellite autour de son axe, de la translation du satellite par rapport au sol et enfin de la modification continuelle de l’angle que fait l’axe du satellite avec un plan langent à la surface du sol. Dans le cas du Vanguard, la situation se compliquait encore du fait de la disposition des deux cellules sensibles aux infrarouges : l’engin avait une forme sphérique et les deux cellules « regardaient » dans des sens opposés, leur axe commun faisant un angle de 45° avec l’axe de rotation de l’engin. A supposer, par exemple, que cet axe fût parallèle à la surface du sol, ce qui se produisait deux fois par révolution, l’une des cellules « regardait » vers l’avant et l’autre vers l’arrière et chacune balayait une bande de terrain qui revêtait la forme d’un feston. A supposer au contraire que l’axe de rotation fût perpendiculaire à la surface du sol, ce qui se produisait également deux fois à chaque révolution, l’une des cellules balayait le sol suivant la courbe composante d’un mouvement de rotation et d’un mouvement de translation (une cycloïde) tandis que l’autre ne « voyait » que le ciel. Naturellement, dans les deux cas, les rôles des deux cellules étaient inversés à chaque fois : celle qui pointait vers l’avant alors
- que l’axe de rotation était parallèle au sol regardait vers l’arrière après une demi-révolution; de même, la cellule qui « voyait » le sol lorsque l’axe était perpendiculaire au plan langent à la Terre n’apercevait plus, une demi-révolution plus tard, que le ciel.
- Encore s’agit-il là des positions les plus simples qu’ait pu avoir le satellite par rapport, au sol. Dans les positions intermédiaires, on obtenait des surfaces déformées dont le repérage par rapport au sol était des plus délicats.
- Les constructeurs de Vanguard II étaient parfaitement conscients des difficultés qui résulteraient de celte disposition. Aussi était-il convenu que seules, en principe, seraient prises en considération les « impressions » recueillies lorsque l’axe de rotation serait parallèle au sol. Cette disposition correspondait nécessairement, soit au périgée, soit à l’apogée de l’orbite. Un satellite est largué dans l’espace lorsque la trajectoire du dernier étage de la fusée porteuse est parallèle au sol et il est impensable que son axe de rotation sur lui-même puisse alors ne pas être confondu avec cette trajectoire. Encore fallait-il que lors de ces passages à l’apogée ou au périgée, les altitudes où devait se trouver le satellite fussent compatibles avec des observations, en d’autres termes que ces altitudes fussent suffisamment basses pour que la ligne d’horizon se trouvât dans le champ balayé par les deux cellules pendant leur mouvement de rotation autour dé l’axe. Seul, dans l’orbite choisie, le périgée répondait à ces conditions. Vanguard II ne recueillait donc des « impressions » qu’une fois par révolution.
- Le système adopté sur le Tiros, quoique beaucoup plus simple, permet d’aboulir au même résultat. L’engin revêt, cette fois, la forme d’un tambour. L’axe de rotation est perpendiculaire aux deux faces planes du tambour et lès deux caméras de télévision sont disposées toutes deux d’ün même côté de l’engin sur l’une des deux faces planes, leur axe optique étaht
- p.187 - vue 190/558
-
-
-
- 188
- parallèle à Taxe de rolalion. Les deux caméras voient ainsi le sol pendant un laps de temps inférieur à celui que met le satellite à effectuer une demi-période de révolution ; plus précisément : pendant le temps que mettra le satellite à décrire sur sa trajectoire le plus petit des deux arcs définis par l’intersection de cette trajectoire avec deux plans menés : i° tangen-tiellement à la surface de la Terre aux deux extrémités d’un diamètre du grand cercle défini lui-même à un moment donné par l’intersection du globe terrestre avec le plan de révolution du satellite; et 20 parallèlement à l’axe de rotation de l’engin. On peut, en toute première approximation, évaluer l’angle au centre de cet arc « utile »_à x3o°.
- Quant à la zone qui peut être observée, elle couvre en théorie la moitié du grand cercle « survolé » par le satellite durant une révolution. Mais pratiquement, aux extrémités de cet arc, les caméras ne peuvent avoir qu’une vue oblique de la surface terrestre et c’est seulement lorsque l’angle que fait l’axe de rotation de l’engin avec un plan langent à la surface de la Terre est proche de 90° que l’on peut prendre des clichés à la verticale, donc obtenir des vues plus précises. La rotation de la Terre fait naturellement qu’à chaque révolution, la zone où les prises de vues sont les meilleures varie.
- De toute façon, les caméras ne peuvent pas alors enregistrer l’image d’une bande continue de terrain puisqu’elles sont solidaires d’un engin qui est animé d’un mouvement de rotation relativement rapide sur lui-même (12 tours par minute). Aussi a-t-il été prévu qu’elles ne prendraient qu’une vue toutes les 3o s. Mais l’engin'est doté d’une « mémoire » magnétique qui peut enregistrer 32'images. Ce sont ces 32 images qui se rangeraient sur une cycloïde si tout au long de ces prises de vues on pouvait considérer que Taxe de rotation de l’engin était rigoureusement perpendiculaire à un plan tangent à la surface du sol; ce qui, de toute évidence, n’est pas le cas.
- Le dépouillement des images recueillies par Tiros I, quoique simplifié de façon appréciable par rapport à celui prévu pour Vanguard II, ne sera donc pas des plus aisés, mais il existe entre les deux expériences une différence importante qui est de nature à faciliter la tâche des spécialistes américains : Vanguard II ne devait recueillir que des « impressions », tandis que Tiros enregistre des images. Or, il est impossible, en étudiant les « impressions », de les localiser : seul le calcul peut dire à quelle portion du globe correspondent les variations du pouvoir réfléchissant enregistrées par les cellules. Au contraire, l’examen d’un lot de photographies peut fournir nombre de points de repère identifiables.
- Les Américains envisagent dès à présent de lancer un satellite qui, comme Vanguard II, serait équipé exclusivement de cellules sensibles aux infrarouges; d’où, d’ailleurs, le nom donné à l’engin.
- A la lumière de ce qui précède, on comprend mieux qu’ils aient préféré d’abord acquérir une certaine expérience dans ce domaine en lançant un engin qui, tout en fournissant des résultats plus spectaculaires, permettait de « tester » le matériel. Pourquoi n’avoir pas opéré de même avec le Vanguard ? La réponse n’est pas moins évidente : ce dernier n’était pas suffisamment lourd pour que Ton pût songer à y loger tous les appareils nécessaires à la réception, à l’enregistrement et à la transmission des images.
- Notons en passant que, pour prendre des vues de la Terre, il est possible d’imaginer une troisième formule : celle qui reposerait sur l’envoi d’un satellite muni de caméras récupérables. L’engin, après avoir effectué un certain nombre de fois le tour de la Terre et pris grâce aux appareils perfectionnés dont on dispose, des vues extrêmement précises, ferait retour sur terre où Ton développerait à loisir la pellicule. Cette méthode ne serait guère utilisable pour l’étude des phénomènes météorologiques, car le temps d’exploitation des résultats doit pouvoir être bref : on estime qu’une image recueillie par le Tiros I
- peut se trouver à l’état de photographie entre les mains des spécialistes 3o nin après avoir été enregistrée. Cette troisième méthode, bien plus précise mais beaucoup moins rapide, semble surtout adaptée à la reconnaissance militaire.
- L'équipement. — Il est naturellement déterminé par la mission qui lui est confiée. Il comprend :
- — Deux caméras de télévision dont les axes optiques sont parallèles à Taxe de rotation du satellite. L’une de ces caméras peut prendre des photographies dont la superficie est celle d’un carré de iGoTm de côté. L’autre prend des vues dont la superficie est égale à celle d’un carré dont le côté mesurerait 1 Goo km. La qualité des vues dépend naturellement de la disposition de l’engin par rapport au sol et il est bien évident que les vues prises en oblique et embrassant une plus grande superficie seront moins nettes. Il a été dit que la caméra dotée du plus fort grossissement pouvait permettre de distinguer, mais non d’identifier, un objet de 35o m de long. Cette précision ne semble pas avoir été confirmée de source officielle.
- — Un poste radio récepteur et deux postes émetteurs. Le premier est destiné à recevoir les instructions lancées du sol : Tiros I, en effet, ne prend que des photos sur commande, mais il est équipé d’un mécanisme électronique qui lui permet de garder en mémoire les instructions reçues et de n’exécuter le programme qui lui a été imparti que le moment venu. Le premier poste émetteur sert à la transmission au sol des signaux représentatifs des images filmées. Cette transmission peut s’effectuer au fur et à mesure de la prise de la photographie,
- 'mais elle peut aussi être différée; aussi l’engin est-il muni d’une seconde « mémoire » qui lui permet de conserver les images jusqu’à ce qu’il se trouve dans une position favorable pour transmettre au sol les signaux recueillis. Quant au second, il sert à localiser l’engin et à transmettre au sol des indications, notamment sur sa température intérieure.
- — Les postes radio sont alimentés par des batteries solaires. Ces batteries sont alimentées par des cellules, au nombre de 9 000, disposées sur les flancs de l’engin et sur celle de ses faces planes qui ne porte pas de caméras.
- — Un dispositif qui permet, lors du largage dans l’espace, de réduire la vitesse de rotation de l’engin sur.lui-même : de 136 t/mn, cette vitesse est ainsi ramenée à 12 t/mn.
- — Quant au dispositif à terre, il repose essentiellement sur l’utilisation de deux stations : Fort-Monmouth dans le New Jersey, et Kaena Point dans les Iles Hawaii. Ce sont ces stations qui donnent à l’engin les instructions voulues et recueillent ses signaux.
- *
- # *
- L’expérience semble, jusqu’à présent, se dérouler conformément aux prévisions. La qualité des images qui ont été rendues publiques satisfait les techniciens et il faut noter l’insistance qu’ont mis les dirigeants américains de l’opération à expliquer que Tiros I n’était en aucune manière un satellite de reconnaissance. Le but de ce premier lancement, expliquent-ils, est essentiellement d’essayer un nouveau matériel. Si cet essai et si celui du Tiros II se montrent concluants, ils envisageront de lancer tout un réseau de satellites météorologiques. Tiros I ne décrit pas une orbite polaire (surtout, semble-t-il, pour ne pas survoler tout le territoire soviétique) mais les satellites météorologiques devraient logiquement décrire des orbites qui coupent l’Équateur à angle droit. Ce réseau, pour être complet et fournir à tout moment tous les renseignements voulus, devrait comprendre sept engins.
- Quant aux travaux de reconnaissance militaire, ils seraient confiés à des engins spécialisés dont on connaît déjà les noms : Midas et Samos.
- Nicolas Vichney.
- p.188 - vue 191/558
-
-
-
- 189
- Le rôle des pigments photosensibles
- dans la vision
- On sait, depuis fort longtemps cjue l’acle visuel prend son origine dans l’absorption de la lumière par des récepteurs, cônes et bâtonnets, dont la couche garnit le fond de la réline, à l’endroit où elle est soudée à la sclérotique par l’intermédiaire de Vépithélium pigmentaire de la choroïde.
- En 1855, Treviranus découvrit les cellules visuelles réceptrices. II. Müller (i853) fournit la preuve que ces cellules constituent bien la couche photosensible de la rétine. En produisant un éclairage transscléral, à l’aide d’une lource lumineuse mobile, Müller mesura la parallaxe de l’ombre d’un vaisseau sanguin rétinien. Le calcul montra que la distance entre ce vaisseau et la couche photosensible dans l’œil est de l’ordre de 0,2 mm, ce qui désigne comme couche réceptrice celle des cônes et bâtonnets.
- I.’épilhélium pigmentaire est constitué par une couche unique de cellules plates dont la longueur égale quelque 3 à 5 diamètres de cellules réceptrices. Une telle cellule est donc en contact avec un certain nombre de récepteurs. Elle les entoure même partiellement de ses franges qui peuvent descendre jusqu’à la membrane limitante externe. Les cellules épithéliales contiennent un pigment appelé mélanine qui semble être inerte à l’égard de la lumière. Ses grains sphériques d’un brun très foncé entourent le noyau de la cellule, tandis que des grains contenant un pigment plus clair se trouvent vers le bas de la cellule et dans ses franges. Ce pigment, d’une nature chimique inconnue, est partiellement décomposé par la lumière. Il se pré-
- Côté
- temporal
- Ora serrât a
- Corps ciliaire
- Rétine
- Humeur
- aqueuse
- vitré
- Myatonie
- Cornée
- Choroïde
- nasal
- Coupe schématique de l’œil.
- J .a choloïde est insérée entre la rétine et la sclérotique, à l’extérieur de l’épithélium pigmentaire figuré ici par une couche noire.
- sente sous forme de fines aiguilles orientées dans le sens de l’axe visuel de l’œil, donc aussi dans le sens de la lumière incidente. Des observations anciennes de Râhlmann laissent penser que ces aiguilles pourraient être constituées de pourpre rétinien (.rhodopsine) à l’état solide, mais on manque de preuves définitives à ce sujet.
- Fig. 2 et 3. — Coupe histologique d’une rétine de singe (à gauche) et coupe schématique d’une rétine humaine (fl droite).
- De haut en bas : C, choroïde ; B, membrane de Bruch ; 1, cellules de l’épithélium pigmentaire (double rangée) ; 2, couche des segments externes des bâtonnets ; 3, limilante interne ; 4, couche des noyaux des bâtonnets comprenant également les segments internes des bâtonnets ; 5, couche plexiforme externe comprenant les cylindraxes et les pieds des bâtonnets ; 6, couche des noyaux internes comprenant les cellules bipolaires et les cellules d’association (cellules horizontales et amacrines) ; 7, couche plexiforme interne formée par les cylindraxes des cellules bipolaires ; 8, couche des cellules ganglionnaires ; 9, couche des cylindraxes des cellules ganglionnaires formant le nerf optique ; 10, limitante interne.
- Les biochimistes spécialisés ne doutent pas que les pigments photosensibles contenus dans les récepteurs (rhodopsine dans les bâtonnets et deux pigments à structure encore inconnue dans les cônes de la fovéa) dérivent de la même substance-mère. En ce qui concerne la rhodopsine, on connaît le cycle de sa dérivation à partir de la vitamine A, de sa décomposition par la lumière et de sa recombinaison in situ, et, grâce au biochimiste YVald, de l’Université de Harvard (U. S. A.), on sait même la produire par synthèse. D’autre part, seule l’irrigation sanguine peut fournir aux récepteurs rétiniens les pigments élaborés en dehors d’eux, ou la vitamine A susceptible de servir à la synthèse in situ des pigments visuels du type rhodopsine.
- Le métabolisme des récepteurs visuels est tributaire de la choroïde fortement vascularisée et l’épithélium pigmentaire constitue l’intermédiaire entre ces deux tissus, d’où l’intérêt parr liculier qu’il revêt à nos yeux (fig. 2 et 3). Il y a de fortes chances pour que ses cellules assurent des fonctions très diverses et bien plus importantes que celles d’absorber passivement la lumière qui arrive à leur niveau après avoir traversé toutes les couches rétiniennes, y compris celle des récepteurs. Si le rôle de l’épithélium pigmentaire a été sous-estimé pendant longtemps, il est probable que des recherches modernes dans ce domaine permettront bientôt d’en estimer l’importance réelle pour la vision.
- Le cycle photochimique de la rhodo= psine. — La vitamine A, substance-mère des pigments visuels, existe sous deux formes, vitamines Ax et A2, qui se distinguent l’une de
- p.189 - vue 192/558
-
-
-
- 190
- ,c^
- h2c}
- H CHj H ÇHJ
- CW? OH
- ' C-CHj
- h7
- Tout trans vitamine A
- H
- H
- O
- retmpnp
- Lrl ^
- Ch^
- A
- Hn C
- C - CHj 'C^ CHi
- H
- Wi
- c.
- xc/'L<xc/
- 13 - as (neo - a)
- CH~OH
- h 2 C *~*2 '
- H C? J
- Çh3
- ,C
- ,C - CHjj
- "C CHi
- -c.
- H ^rH
- 9 -os ( iso - a)
- H,C
- Hj C .
- t-CH.
- 'C^CHJ
- Ç
- CHj
- c.
- CH2 Oh
- *V-'
- 9,13 - otos t/so - £>)
- /C^c/-CH2°H
- ch3
- H
- C H3 H
- Çhj
- Hj c "
- Hj c .
- \/\/c\/ N
- .C-CMj C^ CHj
- h2
- CHj
- Il - C/S
- ( ngo -bl
- C h2 Oh
- Fig. 4. — Les isomères de la vitamine A l et du rétinène,.
- Les structures correspondantes de la vitamine A2 et du rétinène A, s’en distinguent par une double liaison entre les atomes de carbone 3 et 4. Bien que l’isomère 11-cis (néo-b) constitue l’isomère dont l’existence est a priori la moins probable, c’est lui dont dérivent tous les pigments visuels
- connus.
- l’autre par une double liaison présente dans le seul cycle de la première. Leurs aldéhydes correspondants sont appelés rétinène1 et rétinène2 (*)• Dans les récepteurs visuels, Wald a pu trouver deux familles de protéines visuelles spécifiques appelées par lui opsines, les opsines des bâtonnets et celles des cônes. Les deux rétinènes se combinent avec les deux opsines, donnant ainsi naissance à quatre pigments visuels. L’un de ces pigments est le pourpre rétinien que Wald a appelé rhodopsine. Voici le schéma, d’après Wald, de sa synthèse :
- enzyme lumière
- (1) Vitamine Aj A~ _______^ RétinènCj + Opsine Amn^. rhodopsine.
- coenzyme
- La vitamine A se transforme en rétinène, en présence d’une enzyme (catalyseur); mais le processus inverse est également
- 1. Rappelons que d’après la nouvelle nomenclature (La Nature, mars 1956, p. 115) les vitamines A, et A, doivent être appelées respectivement rétinol et déhydrorétinol, les rétinènes correspondants devenant le rétinal et le déhydrorétinol (N.D.L.R.)
- possible, grâce à un autre catalyseur qualifié de coenzyme. La structure chimique de ces enzymes est connue. En présence de l’opsine appropriée le rétinène se transforme en rhodopsine, le pigment photosensible des bâtonnets. Son maximum d’absorption se trouve dans le vert bleu (couleur complémentaire du pourpre), à 5oo nip..
- Sous l’action de la lumière, la rhodopsine se décompose, ainsi que l’indique la direction de la flèche dans le schéma. Néanmoins, la reconstitution de la rhodopsine peut avoir lieu également dans ces conditions. Ainsi, un équilibre tend à se produire tel que le nombre des molécules décomposées par unité de temps égale le nombre des molécules de rhodopsine reconstituées.
- La figure 4 montre les isomères de la vitamine Ax. Ce sont des molécules identiques du point de vue de leur composition atomique et même de leur structure, mais qui diffèrent entre elles par leur disposition dans l’espace. On distingue les configurations cis et trans. Les formes cis peuvent être interprétées comme dérivant de l’isomère tout trans par une rotation de 1800, en partant d’une des quatre doubles liaisons de la chaîne latérale. Des inversions successives sont également possibles. Wald et collaborateurs ont pu démontrer que le seul isomère de vitamine A capable de former des rétinènes se combinant avec les opsines des récepteurs visuels est le n-cts. Comme on peut le voir, cet isomère présente une inversion à l’endroit de la double liaison après le 11e atome de carbone de la molécule. Par analogie avec d’autres molécules organiques, il était à prévoir que cet isomère serait très instable et n’existerait pas à l’état naturel. Il n’en est rien : les organismes ont choisi comme base de leur substance visuelle cet isomère qui est le seul et unique corps chimique naturel connu de ce type isomé-rique.
- Le schéma suivant montre le cycle complet de la rhodopsine :
- Rhodopsine
- t
- Lumière
- Rétinène 11 -cis -f-opsine Al
- Toul-trans rélinène-f opsine
- Enzyme
- Co-enzyme
- Vitamine A 11 -cis Al
- Tout-bxi/is vitamine A.
- Les doubles flèches indiquent que les réactions peuvent se faire dans les deux sens. Ceci, est lié au fait que les formes trans sont plus stables que les formes cis.
- La figure 5 illustre le cycle supérieur du schéma : on mélange une solution d’opsine extraite d’yeux de bœuf avec du rétinène n-cis (que Wald a baptisé néo-b). Dans un spectromètre enregistreur, des courbes d’absorption lumineuse en fonction de la longueur d’onde sont tracées (entre 3oo mp. et 65o mp.), au fur et à mesure de la progression de la réaction à l’étude. Connaissant les spectres d’absorption de la substance qui entre dans la réaction et de celle qui en sort, on peut suivre quantitativement la réaction, en fonction du temps.
- Dans l’enregistrement du haut, on suit la synthèse de la rhodopsine et en bas, son blanchissement par la lumière. La courbe hl montre le maximum du rétinène à 38o mp., mais bien qu’elle ait été tracée en l’espace de 20 s suivant le mélange du rétinène et de l’opsine, on distingue déjà une petite bosse vers 5oo mp. qui indique la présence d’une faible quantité de rhodopsine. Toutes les courbes h jusqu’à h7 sont obtenues dans l’obscurité totale. Après 2 h, le rétinène a complètement disparu. La petite bande d’absorption à gauche est, en effet, caractéristique de la rhodopsine; c’est la bande p située à 35o mp. en plein ultraviolet.
- Les courbes b sont obtenues par exposition brève à la lumière
- p.190 - vue 193/558
-
-
-
- 191
- Fig. 5. — Synthèse et décomposition par la lumière de la rhodopsine en solution.
- En haut : un mélange de rétinène néo-b et d ’opsine de bœuf est constitué dans l’obscurité. Les spectres d’absorption spectrale du mélange sont enregistrés automatiquement aux temps suivants (après la constitution du mélange) : 1 : après
- 1 mn ; 2 : après 2,5 mn ; 3 : 7 mn ; 4 : 16 mn ; 5 : 26 mn ; 6 : 41 mn ; 7 : 60 mn. — En bas : 7 : identique à la courbe 7 du haut ; 8, apres un bref et intense éclairage. Interpré-taiion dans le texte (D’après une communication personnelle de Wald).
- de la solution de rhodopsine synthétique. Le contenu en rhodopsine de la solution diminue au fur et à mesure de ces irradiations, mais on a l’impression de récupérer davantage de rétinène qu’on n’en a introduit dans la cuve (comparer la hauteur des bandes d’absorption 38o mp. en haut et en bas). La cause en est qu’on récupère du rétinène tout-frans dont l’absorption spécifique est sensiblement plus forte que celle du rétinène néo-b.
- un pigment photosensible appelé par lui iodopsine.-C’est une combinaison de rétinène néo-b avec l’opsine spécifique contenue dans les récepteurs visuels de la poule. Ce pigment présente un maximum d’absorption à 56 a mp. et sa courbe d’absorption correspond à la sensibilité en vision diurne d’un grand nombre d’espèces d’invertébrés et de vertébrés, y compris l’Homme. Il est évident que la question de la vision des couleurs n’est pas élucidée pour autant. Des expériences spectaculaires dues à Rushton (Cambridge, Angleterre) et à Weale (Londres) ont permis de découvrir la présence dans l’œil humain in situ de deux pigments photosensibles localisés dans la partie centrale de la rétine, la fovéa. Celle-ci ne contient que des cônes, récepteurs diurnes indispensables à la vision des couleurs. La figure 6 montre qu’un mélange des deux pigments peut présenter une courbe d’absorption qui cadre avec celle de l’iodopsine. Mais que dire du récepteur du bleu ? Et pourquoi n’a-t-on jamais
- Longueur d'onde
- Fig-. 6. — Absorptions comparées des pigments fovéaux et de l’iodopsine.
- Courbe 1 : sensibilité du système récepteur fovéal du vert (Rushton). Courbe 2 : sensibilité du récepteur fovéal du rouge (Rushton). Courbe 3 : absorption spectrale de l’iodopsine (Wald). Les cercles sont des éléments de la courbe d’absorption de l’ensemble des pigments fovéaux (Ruhston) ; cette courbe semble pouvoir coïncider à peu de chose près avec la courbe d’absorption de l’iodopsine.
- Bases photochimiques de la vision des couleurs. —
- Si notre compréhension des mécanismes de la vision non colorée progresse lentement, ceux de la vision des couleurs commencent tout juste à nous dévoiler leur inextricable complication.
- Les faits bien connus de la trichromie suggèrent que trois systèmes récepteurs rétiniens fonctionnent selon un principe que la technique moderne emploie dans le film en couleurs. L’un des systèmes, plus sensible dans le rouge que les deux -autres, « prendrait un cliché rouge », le second, particulièrement sensible dans le vert, un cliché vert, et le dernier un cliché bleu. Les messages nerveux qui émanent des trois systèmes créeraient dans le cortex cérébral la sensation colorée avec toute la gamme de ses nuances et saturations.
- De nombreuses tentatives de vérification de ce schéma ont -été entreprises. Dans cette intention, on a choisi les rétines d’animaux à activité exclusivement diurne, contenant des cônes seulement. Jamais on n’a réussi à en extraire des pigments photosensibles qui puissent correspondre à ceux dont la présence dans les récepteurs cadrerait avec les propriétés de vision colorée des espèces étudiées, qu’il s’agisse de propriétés contrôlées par •des expériences de dressage ou, au laboratoire, par les réponses bioélectriques des éléments rétiniens à des stimulations en lumière monochromatique (expériences électrophysiologiques).
- Au contraire, Wald a réussi à extraire de la rétine de la poule
- réussi à extraire l’iodopsine ou tout autre pigment photosensible d’une rétine dépourvue de rhodopsine ? Questions troublantes auxquelles aucune réponse satisfaisante ne peut être donnée à l’heure actuelle.
- On a constaté que les spectres d’absorption de solutions extraites des rétines étudiées se distinguent souvent significativement des spectres observés in situ, ou dans des suspensions de cônes et de bâtonnets intacts. Cela s’explique par des faits d’ordre anatomique et physique. En effet, les récepteurs in situ reçoivent la lumière à travers des couches rétiniennes aux qualités souvent filtrantes et la réflexion par le fond rétinien peut également influer sur la courbe d’absorption. Ces déformations de la courbe d’absorption spectrale propre au pigment photosensible lui-même n’ont pas lieu lorsque le spectre d’absorption est déterminé à l’aide d’une suspension des récepteurs. Mais lorsqu’on opère avec un extrait de pigments en solution, une nouvelle déformation se présente. On l’attribue au fait que les pigments se trouvent dans les récepteurs sous forme cristalline ou quasi-cristalline; l’orientation spatiale de leurs molécules (à ne pas confondre avec leur isomérie, qui concerne l’orientation spatiale infra-moléculaire) semble influer sur leur spectre d’absorption. Il convient de rappeler à ce sujet que Ségal, ancien collaborateur du professeur Piéron, a prouvé, il y a déjà dix ans, qu’aucun récepteur du rouge ne peut exister dans quelque rétine que ce soit s’il ne contient que des pigments liquides.
- p.191 - vue 194/558
-
-
-
- 192
- Revenons-en à la relation (i). En remplaçant la vitamine A1 par la vitamine A2, on peut écrire :
- ! lumière
- opsine des bâtonnets ^ porphyropsine
- lumière
- opsine des cônes ^ cyanopsine.
- Dans les yeux de poisson d’eau douce (perche, tanche), on a constaté la présence de la porphyropsine, pigment photosensible des bâtonnets dont la sensibilité maximale se situe à 5aa mp., et de la cyanopsine, pigment de cônes, au maximum situé à 620 mp.
- Il existe une parfaite analogie entre la cyanopsine et l’io-dopsine, en ce sens que ces pigments reflètent très bien la sensibilité diurne globale des organismes dont les cônes les contiennent. Mais la cyanopsine, pas plus que l’iodopsine, ne peut expliquer la vision des couleurs.
- La porphyropsine accuse un spectre d’absorption qui suit l’évolution spectrale de la sensibilité crépusculaire des poissons d’eau douce en question, mesurée par Granit à Stockholm (méthode éleclrophysiologique). Une différence légère (10 mu.) entre les mesures d’absorption faites respectivement par Wald et Dartnall (Londres) subsiste.
- L’adaptation à la lumière. — Sans entrer dans le détail d’un mécanisme complexe et encore controversé, effleurons pourtant ici le problème de l'adaptation à la lumière. C’est un fait d’observation que la sensibilité de l’œil diminue lorsqu’il est exposé à la lumière.
- On sait bien que l’une des causes en est le passage de la vision crépusculaire (bâtonnets) à celle dite diurne (cônes) et que la configuration des liaisons nerveuses entre bâtonnets les rend beaucoup plus sensibles que les cônes. Mais une fois la vision diurne établie, la sensibilité baisse tout de même au cours d’une adaptation qui dure quelques minutes. D’autre part, le niveau de sensibilité qui est atteint au bout du processus d’adaptation dépend du niveau lumineux choisi.
- Nous avons bien appris dans les livres que ce processus est déterminé par le taux des pigments photosensibles contenus dans les cônes, taux qui baisse au fur et à mesure qu’augmente le niveau lumineux utilisé pour l’adaptation. Or, s’il est vrai que ce taux y est pour quelque chose, on s’est rendu compte qu’il faut également considérer bien d’autres facteurs. Au cours de l’adaptation à la lumière, la section pupillaire diminue. Entre la pupille grande ouverte dans l’obscurité totale et celle qui est adaptée à une lumière de jour radieux, le rapport de section est de 16 environ, ce qui divise par autant la sensibilité apparente.
- Plus la coopération entre récepteurs rétiniens voisins est étroite et plus la sensibilité du système est élevée. Or on peut montrer que cette coopération diminue de façon très sensible lorsque augmente le niveau d’adaptation,
- Mais ce n’est pas tout. On sait que l’absorption de la lumière se fait par quanta lumineux et qu’elle est un événement de caractère statistique. Si 100000 quanta sont absorbés en moyenne par unité de temps et d’aire rétinienne, cela signifie que des absorptions de 99 ooô' ou de 101 000 quanta sont chose très courante, que l’absorption de 98 000 ou de 102 000 quanta est peu fréquente (cette fréquence est de 5 pour 100, c’est-à-dire que, si l’on faisait 100 expériences, on constaterait 5 fois des écarts supérieurs à 2 000) et que des écarts supérieurs à 3 000 ne se produisent guère (< 1/1 000). Il est évident que le cerveau ne perçoit pas ces variations dont l’existence physique est hors de doute. Cela signifie que la sensibilité globale est affectée d’un facteur de correction biologique dont 'l’évaluation approximative est possible et montre que l’adaptation à la lumière n’est guère d’ordre pholocliimique, tant que le niveau
- d’adaptation ne dépasse pas celui d’une pièce d’habitation modérément éclairée.
- Or, lorsqu’on fait encore augmenter le niveau d’adaptation, les trois facteurs mentionnés finissent par atteindre des valeurs peu variables, mais la sensibilité continue à diminuer. C’est à ce stade qu’intervient l'adaptation photochimique. Elle s’exprime par le déplacement continu de l’équilibre établi entre la décomposition des pigments photosensibles et leur recombinaison, selon les schémas (1) et (2). Le mécanisme biochimique de production des pigments photosensibles ne peut plus suivre le rythme de décomposition de ces pigments par une lumière devenue trop intense et ainsi un équilibre plus bas de concentration des pigments s’établit, ce qui fait diminuer la sensibilité.
- Vision et carence vitaminique. — Une étude très récente retrace l’histoire d’une carence vitaminique d’un groupe de rats blancs : maladie expérimentale et sa guérison (fig. 7). Des rats sevrés sont mis à un régime pauvre en vila-
- 5emaines de régime
- Figr. 7. — Variations de concentration de différents éléments biochimiques dans un groupe de rats blancs mis à un régime très pauvre
- en vitamine A.
- 1 : taux de vitamine A. dans le foie ; 2 : taux de vitamine X dans le sang ; 3 : taux de rliodopsine dans la rétine ; & : taux d’opsine dans la rétine.
- mine A. D’abord, les réserves de vitamine A accumulées par le foie diminuent et atteignent des valeurs minimes au bout de quelques semaines. A partir de ce moment, la concentration de vitamine A dans le sang commence à baisser très rapidement et tombe à zéro. A ce point, le contenu en rliodopsine de la rétine commence à baisser à son tour et détermine le début d’une héméralopie caractérisée (défaillance de la vision crépusculaire). Objectivement, le degré d’héméralopie peut être déterminé par l’étude de Vélectrorétinogramme (ERG), réponse électrique de la rétine à une stimulation lumineuse.
- Durant deux à trois semaines, la concentration en rliodopsine baisse, mais le contenu en opsine demeure stable. Puis l’opsine disparaît également et cela marque le début d’une détérioration
- Heures après înjechor»
- Fig. 8. — Retour à la normale de Vélectrorétinogramme de rats blancs héméralopes, après injection de vitamine A.
- Apres 3 jours à peine, l’ERG est redevenu normal. A noter que l’amplitude de l’ERG est proportionnelle au logarithme de la sensibilité de l’organisme : l’importance physiologique est donc plus grande que ne peut le refléter cet enregistrement (D’après Dowlinc et AVald).
- p.192 - vue 195/558
-
-
-
- 193
- biologique des tissus rétiniens. En effet, le contenu en opsine des segments externes des bâtonnets et des cônes des Vertébrés est considérable, ce qui explique que sa disparition modifie histologiquement les tissus. Jusqu’à ce niveau extrême, les transformations sont réversibles. Deux à trois jours de traitement à la vitamine A, de préférence par injections intrapéritonéales, suffisent à rétablir complètement la concentration en rhodopsine de la rétine et à faire traverser à l’ERG toutes les phases de détérioration en sens inverse (fig. 8).
- Systèmes photochimiques et électrogenèse. — Le
- caractère photochimique de l’excitation visuelle, c’est-à-dire du début de la chaîne de processus qui mène à la sensation, a été suffisamment mis en lumière. Néanmoins, nous n’avons pas encore touché le cœur du problème, à savoir de quelle manière les événements photochimiques initiaux dans les cônes et les bâtonnets peuvent déterminer une excitation nerveuse.
- On sait par expérience que l’excitation quelconque d’un élément nerveux produit une réponse électrique dès que son intensité dépasse un certain seuil. Il nous faut donc découvrir grâce à quel mécanisme la décomposition par la lumière d’un pigment peut provoquer des variations d’ordre électrique. Une étude expérimentale de Wald et Brown montre que la synthèse de la rhodopsine à partir du rétinène néo-b et de l’opsine devient impossible en présence de traces infimes de p-chloromercuri-benzoate. Cette substance est un poison puissant pour les groupes — SH ; on en conclut que la présence de radicaux — SH libres est indispensable à la synthèse de la rhodopsine. Wald et Brown ont démontré que le blanchissement de chaque molécule de rhodopsine libère 2 à 3 radicaux — SH, qu’il s’agisse de rhodopsine du Bœuf, de la Grenouille ou du Calmar.
- Le groupe — SH est l’un des plus réactifs sinon le plus réactif des radicaux qu’on rencontre en biochimie et ses propriétés spécifiques sont potentiellement électrogènes. Il est faiblement acide, réducteur et avide d’ions métalliques. Il s’ensuit que la libération de radicaux — SH par la décomposition de la rhodopsine offre tout un faisceau de possibilités d’électrogenèse. Wald considère qu’une organisation physique appropriée est fournie par la microstructure très particulière du bâtonnet. Nous y reviendrons un peu plus loin.
- L’action de la lumière sur une solution acide de rhodopsine détermine immédiatement une hausse du pH, c’est-à-dire une baisse de l’acidité, par suite d’une raréfaction des ions d’hydrogène libres. Un tel processus constitue évidemment une autre possibilité d’électrogenèse, sans qu’il soit possible, à l’heure actuelle, de fournir d’autres précisions.
- On peut cependant affirmer que de tels phénomènes ne peuvent constituer la source même des variations électriques observées dans la rétine, variations qui déclenchent dans les cellules ganglionnaires l’envoi d’influx nerveux aux centres supérieurs. Entre l’électrogenèse massive observée et la décomposition des molécules de pigments photosensibles par la lumière, il doit exister un mécanisme amplificateur qu’il s’agit de trouver.
- Il a été prouvé de façon certaine que l’absorption d’un seul quantum lumineux dans un bâtonnet peut stimuler, sans toutefois déterminer l’éveil d’une sensation lumineuse. Or une telle absorption ne peut provoquer que la dissociation d’une seule molécule du pigment et ainsi libérer 2 ou 3 radicaux — SH ou neutraliser un seul ion H+. De telles variations électriques ne constituent même pas un millième de ce qui apparaît comme le minimum susceptible de déclencher un seul influx nerveux.
- Revenons sur le contexte physique, la microstructure des bâtonnets. La figure 9 montre qu’elle est lamellaire. Depuis longtemps on s’en doutait, mais seul le microscope électronique pouvait en fournir la preuve objective. On pense que cette structure correspond à des couches alternées de rhodopsine et de lipides. La décomposition d’une seule molécule de rhodopsine
- pourrait provoquer un trou dans ce qui constitue peut-être une membrane. Un tel trou pourrait provoquer un flux ionique assez important, surtout si les couches stratifiées correspondent, à des éléments isolés électriquement (les lipides sont des isolants).
- Ce n’est qu’une image, l’esquisse d’une hypothèse, mais faute de mieux, cela constitue un point de départ qui paraît prometteur. Une autre possibilité vient à l’idée par comparaison avec la photographie et le rôle catalyseur qu’y peut jouer une seule molécule de bromure d’argent qui, réduite en ion d’argent métallique par l’absorption de quelques quanta lumineux, sert comme catalyseur pour la réduction du grain entier dont elle fait partie.
- Ne pourrait-on pas imaginer, suggère Wald, qu’un pigment visuel constitue une enzyme en puissance qui, activée par l’absorption d’un quantum de lumière, se comporte comme le grain de bromure d’argent de la couche photographique sensible ? La molécule de pigment serait « bouchée » par le chromophore (le rétinène). Le rétinène étant parti lors de l’absorption d’un quantum de lumière, un centre catalyseur de l’opsine pourrait être mis à jour et provoquer ainsi une catalyse active intéressant des quantités très importantes de molécules de pigment. Un tel processus ne constitue pas entièrement une vue de l’esprit, car toute activation enzymo-gène connue à ce jour implique l’ouverture d’une brèche dans une molécule de protéine, du fait de la séparation d’un petit fragment de la longueur d’un ou de quelques acides aminés seulement. Une telle brèche découvre le centre catalyseur de la molécule et la rend hautement active. C’est ce qui se produit, par exemple, lorsque la pepsinogène se transforme en pepsine et la trypsinogène en trypsine.
- Fig. 9 (à gauche). — Microphotographie électronique de bâtonnets de Cobaye.
- Partie supérieure : segments externes ; partie inférieure : segments internes. Grossissement : X 13 500
- (D’après Sjostrani») .
- Cependant, l’hypothèse de la catalyse se heurte pour l’instant à une difficulté sérieuse méconnue par son auteur. Une telle action en cascade paraît inconciliable avec le fait que le contenu en rhodopsine des bâtonnets demeure quasi-constant, même aux éclairements assez élevés qui provoquent des milliers d’absorptions de quanta par seconde et par bâtonnet. Puisqu’un bâtonnet contient seulement quelques dizaines de millions de molécules de rhodopsine, il subsiste une contradiction qu’il faudrait pouvoir éliminer.
- p.193 - vue 196/558
-
-
-
- Rôle de l’épithélium pigmentaire. — Du point de vue embryonnaire, la couche de l’épithélium pigmentaire fait partie de la rétine, bien qu’on ne lui ait pas trouvé de caractère nerveux. Que savons-nous sur l’interaction entre 1 ’épithé-
- Fig. 10 (à droite). — Microphotographie électronique d’une section du segment externe d’un bâtonnet de la Grenouille Rana pipiens.
- M : membrane qui semble ënîeTmer te segment entier. Remarquer 20 à 25 incisions profondes. Grossissement : x 20 000.
- (D’après Wald et Philpott).
- lium pigmentaire et la couche des récepteurs, cônes et bâtonnets ?
- Nous avons déjà mentionné le rôle d’intermédiaire entre les récepteurs d’un côté et la choroïde vascularisée de l’autre, que joue l’épithélium pigmentaire. Une rétine de grenouille séparée de l’œil ne peut pas régénérer de la rhodopsine, mais lorsqu’on la pose simplement sur le fond de l’œil où l’épithélium est demeuré vivant, cette régénération devient possible.
- Le décollement rétinien chez l’Homme empêche le fonctionnement de la partie de la rétine décollée de l’épithélium pigmentaire. Lorsque le chirurgien réussit à rétablir un contact entre les deux couches, récepteurs et épithélium, les scotomes disparaissent et la vision est rétablie.
- Dans l’œil de la Grenouille, l’enzyme qui permet la transformation en isomère n-cis de la vitamine A tout-frans semble être surtout concentrée dans l’épithélium pigmentaire.
- La constitution intime des segments externes des bâtonnets de la Grenouille, telle que la montre le miscroscope électronique (fig. io), suggère que tout y est fait pour que la surface des milliers de plaquettes qui composent un bâtonnet soit rendue aussi grande que possible. En effet, de nombreuses incisions bien visibles sur les microphotos des sections des bâtonnets de la Grenouille Rana pipiens et de la Salamandre Necturus suggèrent qu’il existe des processus de diffusion entre les filets protoplasmiques des cellules épithéliales et des bâtonnets.
- Quoi qu’il en soit, les segments externes des cônes et des bâtonnets sont reliés aux cellules contiguës de l’épithélium pigmentaire à peu près aussi intimement qu’à leurs propres segments internes. Peut-être doit-on considérer l’ensemble formé par la cellule épithéliale, le segment externe et le segment interne comme un sandwich à trois couches dont la médiane, porteuse de pigment photosensible, varie de résistance au cours de la stimulation lumineuse, provoquant ainsi une électrogenèse. On sait, en effet, qu’une partie bien déterminée de l’ERG prend naissance dans cette région.
- Malgré le caractère très hypothétique de tout ce qui concerne l’électrogencse dans le contexte de l’activation photochimique rétinienne, il nous a paru utile d’attirer l’attention sur un domaine de la biochimie qui est en train de faire des progrès très rapides.
- Ernest Baumgardt,
- Maître de recherches au C.N.R.S.
- Les algues d’eau douce sont bien disséminées par les oiseaux
- On se demande depuis assez longtemps comment les algues d’eau douce se transportent d’un lac ou d’une rivière à l’autre, alors qu’aucune communication n’existe entre ces habitats possibles. Une opinion communément admise était que les algues pouvaient adhérer aux pattes, aux plumes ou aux becs des oiseaux migrateurs. Cette hypothèse se heurtait cependant à une objection : placées dans de telles conditions, les algues avaient toutes les chances d’être détruites par dessiccation.
- Dans un article de la revue Science (ii septembre 1959), V. W. Proctor, du Département dé Biologie du Texas, a rendu compte d’expériences réalisées en vue de savoir si les algues ont pu survivre, non plus à l’air libre, mais après un transit à travers le tube digestif de certains oiseaux. Des individus de 25 espèces différentes de migrateurs, appartenant à l’avifaune qui vit dans le milieu lacustre, ont été abattus. Pour chacun d’eux, un segment d’intestin, pris entre le cæcum et le cloaque, a été ligaturé, puis prélevé et placé en milieu stérile. Le contenu a été ensuite extrait pour subir une culture qui a duré
- de 3 à 10 jours. De rares algues unicellulaires ont été ainsi trouvées dans l’intestin des oiseaux piscivores, aigrettes,, hérons et grèbes. Par contre, les canards et les oiseaux qui se nourrissent dans la vase des étangs ont été reconnus comme les hôtes d’assez nombreuses espèces d’algues. Du côté des hôtes, ôn peut signaler particulièrement Fulica americana, Charadrius vociféras et Limnodromus griseus. Parmi les algues le plus souvent retrouvées, nous citerons Pediastrum, Scenedesmus et Cosmarium.
- En général, les algues se trouvent en plus grande abondance dans l’intestin des oiseaux au printemps : elles sont sans doute, à cette époque, un aliment de remplacement, compensant la rareté des graines ou des insectes. On peut considérer, en prenant comme base la rapidité du vol des oiseaux et la. durée du transit intestinal, que le transport des algues peut être fait sur des distances de plus de 200 km. S’il s’agit de cellules végétatives, pouvant séjourner dans le cæcum, cette distance sera facilement multipliée par dix. G,. G.
- p.194 - vue 197/558
-
-
-
- 195
- Modifications du dessin des ailes d’un papillon sous l’influence d’un stimulant chimique
- Figr. 1. — Ailes de la Noctuelle Phy-tometra gamma.
- 1, forme normale ; 2, forme faiblement transformée ; 3, forme moyennement transformée (forme S) ; 4, forme fortement transformée (forme triangulaire).
- (D’après Rymar et Dabrowski).
- D ans une série de mémoires publiés entre x8g4 et 1907 et devenus classiques, Standfuss et E. Fischer ont fait connaître le résultat de leurs études sur l’action de la température sur les chrysalides de certains papillons, en particulier des Vanesses. Des travaux analogues ont été repris par Kühn et ses élèves sur les Nymphalides et la Teigne de la farine (Ephestia kuehniella), par Catala sur l’Uranide de Madagascar (Chrysiridia madagascarien-sis), par Kôhler et Feldotto qui ont repris comme sujet d’étude Vancssa urticæ. Le dessin des ailes a été minutieusement analysé et les auteurs ont montré que les excitations thermiques provoquent à un moment précis du développement des changements de ce dessin, dont les différents éléments montrent des périodes de sensibilité bien limitées et caractéristiques pour chacun d’eux.
- Plus récemment, J. K. Rymar (1946), expérimentant sur la Noctuelle Phytometra gamma, a obtenu des résultats comparables en injectant dans des chrysalides âgées de 3 à 20 heures des produits d’oxydation enzymatique de l’extrait de grains de café vert. Cet extrait contient une quantité relativement importante (7,7 pour 100) d’acide chlorogénique. Ce sont les produits d’oxydation de cet acide qui provoquent les changements dans le dessin des ailes du papillon, spécialement du signe gamma, qui a fait donner son nom à l’espèce. Ce dessin peut arriver à être transformé en une assez grande tache claire, métallique, plus ou moins triangulaire.
- J. K. Rymar, de l’Institut de Riologie de Cracovie, et G. St. Dabrowski, de l’Institut de Zoologie expérimentale de l’Académie polonaise des Sciences, ont continué cette étude dont ils viennent de publier les résultats dans la Revue de l’Académie des Sciences polonaise Folia Biologica (vol. 7, 1959, p. 277-299). Ils mirent en expérience environ x 800 chenilles, élevées d’abord sur orties, puis sur choux à partir de la troisième mue. Par suite de maladies, ils en obtinrent 600 chrysalides seulement, qui reçurent une injection de o,o5 ml d’extrait de grains de café vert enzymatiquement oxydé. A cause de la fragilité de l’aiguille de verre employée, les injections durent être faites dans des chrysalides ayant moins de 48 heures, c’est-à-dire avant que leur tégument fût complètement durci. On peut noter d’ailleurs que cette période semble être celle durant laquelle les chrysalides sont particulièrement sensibles à toutes les actions extérieures.
- Les papillons obtenus montrèrent des modifications du dessin alaire d’autant plus importantes que l’injection avait été faite dans des chrysalides plus âgées. Ces modifications peuvent être réparties en trois classes : la première à dessin peu changé (forme macrogamma), la seconde à modifications moyennement
- marquées, le signe gamma plus ou moins agrandi et déformé rappelant l’aspect de la lettre S (forme S); dans la troisième, le signe gamma a complètement disparu, transformé en une assez grande tache à éclat métallique, en forme de triangle irrégulier; d’autres modifications du dessin alaire sont constatées parmi lesquelles on note l’apparition d’éléments qui ne se présentent jamais chez les individus normaux.
- Pour leur permettre de préciser les changements obtenus, les auteurs ont soigneusement analysé le dessin de l’aile de Phytometra gamma et ils ont cherché s’il était possible de déceler des périodes de sensibilité des différents éléments comparables à celles reconnues pour l’action de la chaleur sur les chrysalides de Lanessa urticæ et d'Ephestia kuehniella. La méthode des injections ne donne pas des résultats aussi simples à analyser que ceux qui sont dus à l’action de la chaleur ou du froid; la durée de l’action du facteur chimique est difficile à déterminer puisqu’elle dépend non seulement du moment de l’injection mais de la façon dont les métabolites de la chrysalide réagissent. Un fait est cependant facile à établir concernant le degré d’accroissement des changements dans le dessin des ailes qui suit Page de la chrysalide. En outre, il semble exister dans ce dessin deux systèmes d’éléments; le premier est un système stable, réfractaire à tout changement, et qui est composé de trois lignes, l’une ondulée, les deux autres transversales; ces lignes constituent le prototype du dessin de l’aile, fixé dès le début du stade nymphal; le second, comprenant certains détails du dessin, en particulier la tache gamma, est susceptible d’être modifié sous l’influence des facteurs chimiques. Ces deux systèmes d’éléments du dessin semblent complètement indépendants.
- Cette conclusion est en tous points conforme aux règles établies par les auteurs précédents pour l’action de la température.
- L. C.
- p.195 - vue 198/558
-
-
-
- La production de l’eau lourde dans l'usine pilote de Toulouse
- La découverte des isotopes ne remonte pas à une date bien éloignée puisque c’est un peu avant 1914 que différents auteurs ont, pour la première fois, soupçonné que la plupart des éléments ou corps simples étaient en réalité des mélanges de plusieurs corps.
- Ce furent d’abord les trois plombs de poids atomique 206, 207 et 208, termes ultimes des chaînes de désintégration naturelle, qui intriguèrent les physiciens et les chimistes; peu après, le physicien anglais Soddy, après plusieurs essais infructueux, parvint à acquérir la certitude que le néon naturel était un mélange de deux « variétés » distinctes de poids atomique 20 et 22. Les recherches se poursuivirent de plus en plus activement de 1919 à 1939 mais il fallut attendre la découverte du neutron pour que le phénomène de l’isotopie fût expliqué de façon satisfaisante : les atomes des isotopes d’un élément donné comportent le même nombre de protons et d’électrons planétaires et diffèrent seulement par le nombre de neutrons de leurs noyaux.
- Tout le monde sait maintenant qu’il existe trois variétés ou isotopes de l’uranium; il en existe de même quatre du fer, dix de l’étain, etc., pour ne parler que des isotopes stables. Il existe en effet, en plus, un nombre important d’isotopes radioactifs d’origine naturelle ou artificielle.
- La plupart, mais non la totalité, des éléments sont des mélanges de deux ou de plusieurs isotopes. L’hydrogène ne fait pas exception à cette règle. Il existe deux isotopes stables de l’hydrogène : l’hydrogène léger, appelé parfois « protium » ou « protonium », dont le noyau se compose d’un proton et dont la masse atomique est de 1, et l’hydrogène lourd ou deutérium dont le noyau se compose d’un proton et d’un neutron et dont la masse atomique est approximativement de 2. En raison de son importance particulière, le symbole chimique D a été attribué au deutérium.
- Il existe en outre un hydrogène extra-lourd radioactif : le tritium de masse 3, dont le noyau se compose d’un proton et de deux neutrons. Le tritium est produit naturellement en quantité très faible dans l’atmosphère par l’action des rayons cosmiques. Il se désintègre en donnant un isotope de l’hélium de masse 3.
- De même que l’hydrogène combiné avec de l’oxygène forme de l’eau, l’hydrogène lourd combiné avec de l’oxygène forme l’eau lourde; la masse atomique de l’eau ordinaire est égale à 18, celle de l’eau lourde est égale à 20. La densité de l’eau lourde est d’environ 1,1 par rapport à l’eau légère. On négligera dans cet article les complications introduites par le fait qu’il existe trois isotopes de l’oxygène, de masses respectivement égales à 16, 17 et 18, qui permettent, par combinaison avec les différents hydrogènes, de produire six variétés stables d’eau dont la plus lourde 2D180 a comme masse atomique 22.
- La découverte de l’hydrogène lourd remonte à ig32 environ. Bien que l’existence de cet isotope fût soupçonnée depuis plusieurs années en raison des discordances constantes entre les diverses méthodes de mesure de la masse atomique de l’hydrogène, son existence ne fut prouvée définitivement qu’à la suite des travaux remarquables du physicien Urey qui parvint, par distillation fractionnée de l’hydrogène, à obtenir un produit suffisamment enrichi en deutérium pour qu’aucun doute ne subsistât sur son existence. Le prix Nobel de Chimie devait récompenser ses travaux.
- Il n’est pas surprenant que la mise en évidence du deutérium ait été délicate quand on sait que l’hydrogène naturel n’en contient qüfe i5o parties par million environ (i5o ppm)
- ou, ce qui revient au même, que l’eau ordinaire contient en volume i5o ppm d’eau lourde, soit 1/7 000 environ. Toutefois, et ce n’est pas un de ses moindres paradoxes, le deutérium est un des éléments les plus abondants de notre planète : il en existe des milliards de tonnes sous forme d’eau lourde diluée à i5o ppm dans l’eau des océans.
- Dès sa découverte, le deutérium suscita un intérêt très vif parmi tous les chercheurs en raison du rôle éminent de l’hydrogène dans la physique et la chimie.
- Un procédé de production d’eau lourde fut rapidement mis au point dès qu’on se fut aperçu que l’électrolyse de l’eau est particulièrement sélective et que l’hydrogène qui s’échappe à la cathode d’un électrolyseur du type filtre-presse contient sept fois moins de deutérium que l’eau qui reste dans le bac. Dès 1934, l’usine d’électrolyse de Rjukan, appartenant à la Société norvégienne de l’Azote, produisait quelques kilogrammes par an de cette eau lourde, alors simple curiosité de laboratoire.
- *
- * *
- La découverte du phénomène de la fission en 1939 devait conférer à l’eau lourde une importance beaucoup plus considérable : le brevet français pris dès 1939 par MM. Francis Perrin, Halban et Kowarski faisait déjà mention du rôle des ralentisseurs de neutrons et, en particulier, de l’eau lourde pour la réalisation des réacteurs nucléaires.
- Aussi, dès 1941, les Américains décidèrent-ils la création d’importantes usines d’eau lourde. Deux procédés furent alors retenus :
- — La distillation de l’eau (il existe un écart de i,4° C entre les points d’ébullition de l’eau ordinaire et de l’eau lourde à la pression atmosphérique) ;
- — Une électrolyse avec échange isotopique entre la vapeur d’eau et l’hydrogène (le deutérium ayant en effet tendance à passer préférentiellement de la phase hydrogène dans la phase vapeur).
- Mais ces procédés devaient se montrer si coûteux et si difficiles à mettre en œuvre que la production de l’eau lourde par distillation fut interrompue dès 1945 et que celle utilisant le procédé d’échange isotopique (mise en œuvre à Trail, au Canada) fut arrêtée vers 1955.
- Procédés modernes de production de Peau lourde.
- — En plus de son emploi comme traceur ou comme moyen d’étude dans les laboratoires de physique et de chimie, et comme modérateur d’un certain nombre de réacteurs nucléaires, l’eau lourde ou plutôt le deutérium est un des matériaux de choix des bombes thermonucléaires. Aussi, n’est-il pas surprenant que les Américains aient décidé, vers ig5o, la création de très importantes usines d’eau lourde destinées à fournir ce produit stratégique.
- Les études en vue de déterminer le meilleur procédé de production d’eau lourde n’avaient jamais été interrompues aux États-Unis depuis 1941. Lorsque le gouvernement américain eut pris la décision de construire une usine de production d’eau lourde de grosse capacité, deux procédés se trouvèrent en compétition :
- — La distillation de l’hydrogène liquide;
- — L’échange isotopique à deux températures entre l’hydrogène sulfuré et l’eau.
- Diverses considérations déterminèrent la décision de l’Atomic
- p.196 - vue 199/558
-
-
-
- 197
- Fig. X. — Vue extérieure de l’usine pilote de la C.F.E.L. à Toulouse.
- (Photo C. Laceeroy, aimablement communiquée par L’Air Liquide).
- Energy Commission des États-Unis pour le procédé à l’hydrogène sulfuré. Parmi ces considérations, il faut en citer notamment deux.
- Tout d’abord, ce procédé permet une production d’eau lourde aussi grande qu’on le désire car il utilise comme matière première l’eau. L’eau lourde produite par distillation d’hydrogène liquide, au contraire, doit être considérée (on le verra dans la suite de cet article) comme un sous-produit d’une usine de synthèse d’ammoniaque, ce qui limite la capacité de production de ce procédé.
- La deuxième raison du choix de l’Atomic Energy Commission fut le manque de pratique dans la technologie des très basses températures : il n’existait en effet à cette époque, aucune usine traitant de grandes quantités de gaz à des températures inférieures à celles de l’azote liquide (— 196° C).
- Les Américains mirent en oeuvre le procédé à l’hydrogène sulfuré et construisirent de 1960 à 1952 deux énormes usines à Dana et à Savannah River. La capacité totale de ces deux usines est de 900 t/an d’eau lourde à 99,8 pour 100. Cette eau lourde servit principalement à des usages militaires : réacteurs plutonigènes à eau lourde de Savannah River, production de tritium, etc.
- L’existence de ces usines et la méthode de production employée furent tenues soigneusement secrètes jusqu’à la première Conférence pour l’Utilisation pacifique de l’Énergie atomique, tenue à Genève en août 1955. C’est à cette date seulement que les Américains, dont la capacité de production d’eau lourde était supérieure à leurs besoins, commencèrent à propo-
- ser, sous certaines conditions, la fourniture d’eau lourde au prix alors extraordinairement bas de 28 dollars la livre (environ o,3i NF le gramme).
- L’effort français pour la production de l’eau lourde. — Toutefois, bien avant cette date, le C.E.A. français avait ressenti la nécessité pour la France d’avoir la possibilité de produire de l’eau lourde en quantité industrielle au cas où les réacteurs de puissance à eau lourde présenteraient un réel intérêt économique. On sait., en effet, qu’un réacteur de puissance à eau lourde devrait comporter une tonne d’eau lourde environ par MW électrique produit.
- Un réacteur de 100 000 kW électriques devrait donc avoir une charge d’au moins 100 t d’eau lourde comme modérateur; bien entendu, cette eau lourde n’est pas consommée et demeure dans le réacteur, aux fuites pi'ès. Il n’en demeurait pas moins que la construction d’un tel réacteur ne pouvait se concevoir, à l’époque, avec la seule production norvégienne qui était alors de 10 à i5 t/an (ce chiffre étant d’ailleurs purement estimatif, puisque aucune indication officielle à ce sujet n’a été donnée par la Société norvégienne de l’Azote avant 1959). Le prix de cette eau lourde norvégienne était d’ailleurs très élevé, de l’ordre de 1,5o NF/g. Le C.E.A. jugea donc intéressant d’entreprendre l’étude et la mise. au point d’un procédé permettant à la fois une production supérieure et un prix de revient plus bas.
- Diverses considérations l’amenèrent à penser que la distillation fractionnée de l’hydrogène liquide pouvait permettre
- p.197 - vue 200/558
-
-
-
- 198
- d’obtenir ce résultat; aussi, dès la fin.de ig5i, il prit contact avec la Société L’Air Liquide que cinquante années d’expérience dans le domaine de la liquéfaction et de la distillation aux basses températures qualifiaient tout particulièrement pour une telle entreprise.
- Le problème à résoudre était le suivant : amener à des températures très basses (de l’ordre de — 25o° C environ) des masses importantes d’hydrogène; liquéfier ces masses et distiller le liquide obtenu, en mettant à profit l’écart de température entre — 252,8° environ, point d’ébullition de l’hydrogène léger, et — 25i,i° G environ, point d’ébullition de la molécule mixte HD (hydrure de deutérium), qui est la forme sous laquelle on trouve le deutérium aux très basses concentrations (3oo ppm environ de HD dans l’hydrogène ordinaire).
- L’hydrure de deutérium doit ensuite être « cracké » suivant la réaction :
- 2 IID -> II2 + D,
- sur un catalyseur approprié, et une colonne de distillation permet de recueillir, en pied de colonne, du deutérium (D2) au degré de pureté voulu; ce deutérium peut, soit être stocké en bouteilles, soit être brûlé pour obtenir de l’eau lourde suivant la réaction :
- 2 D, + 02 —> 2 D20.
- La différence (i ,7/1° C) entre le point d’ébullition de l’hydrogène léger H2 et celui de l’hydrure de deutérium IID est exceptionnellement élevée pour deux isotopes ; la distillation est donc, en principe, tout à fait réalisable.
- Le procédé présentait toutefois deux inconvénients graves, comme on l’a déjà indiqué plus haut : en premier lieu, sur le plan technique, il n’existait aucune expérience industrielle à des températures aussi basses, de sorte que toute une technologie était à inventer; en deuxième lieu, sur le plan économique, le procédé ne pouvait être qu’un procédé « dépendant », branché en dérivation sur une usine de synthèse d’ammoniaque.
- Un calcul économique rapide montre en effet qu’il ne saurait être question de produire de l’hydrogène uniquement pour en extraire le deutérium. La séparation du deutérium par distillation de l’hydrogène ne peut donc être qu’un procédé dépendant, dans une usine utilisant cet hydrogène à quelque autre fin industrielle.
- La seule industrie qui emploie de larges flots d’hydrogène est celle de la synhèse de l’ammoniaque : l’hydrogène utilisé pour cette synthèse peut être produit de diverses manières, suivant les ressources disponibles et suivant le coût de l’énergie : électrolyse; gaz à l’eau; cracking de fuel lourd, de gaz naturel ou d’autres hydrocarbures; gaz de fours à coke.
- Suivant la méthode de production, l’hydrogène contient divers types d’impuretés à des taux variables; en outre, sa teneur isotopique peut varier sensiblement et descendre de i48 ± 2 ppm (teneur naturelle de l’hydrogène II2 en deutérium D2) jusqu’à ix5 ppm, ce qui a une influence considérable sur le coût du deutérium, c’est-à-dire de l’eau lourde produite.
- Les ressources françaises en hydrogène destiné à la synthèse de l’ammoniaque permettraient de produire 100 à 200 t/an d’eau lourde.
- Il fut décidé d’entreprendre la construction d’un pilote industriel traitant 4 000 m3/h de gaz de synthèse N2 + 3 II2 (soit 3 000 m3/h d’hydrogène) et susceptible, par conséquent, de produire 2 à 3 t d’eau lourde par an suivant le taux de mai’che, la teneur en deutérium du gaz traité et le taux d’extraction.
- Une telle unité paraissait aux techniciens de L’Air Liquide d’une taille suffisante pour une mise au point définitive du procédé à l’échelle industrielle, au cas où le C.E.A. jugerait intéressant de créer une industi’ie importante de l’eau lourde en France. L’étude du procédé et la construction de ce pilote industriel furent faites à Toulouse dans la plus importante usine
- de synthèse d’ammoniaque : celle de l’Office national industriel de l’Azote (O.N.I.A.). Une société fut créée, la Compagnie française de l’Eau lourde, dont le capital fut souscrit à 5o pour 100 par l’O.N.I.A. et 5o pour 100 par L’Air Liquide.
- La mise en œuvre du procédé et les marches d’essai, sur une unité de plus petite taille, traitant 5o à 200 m3 de gaz de diverses compositions, permirent de mettre en évidence et de surmonter toute une série de difficultés nouvelles, inhérentes généralement à l’emploi des très basses températures.
- Les principales difficultés rencontrées furent les suivantes :
- — Nécessité de purifier l’hydrogène traité d’une manière absolument rigoureuse : toutes les impuretés du gaz deviennent solides à la température de l’hydrogène liquide (sauf l’hélium) et bouchent les tuyauteries et les colonnes de distillation, causant l’arrêt de l’appareil au bout d’un délai très court; en fait, l’azote contenu dans le mélange gazeux qui alimente l’unité (N2 + 3 H2, gaz de synthèse de l’ammoniaque NH3) doit être rigoureusement éliminé à une fraction de millionième près;
- — Mise au point de nouvelles méthodes de dosage pour déceler des traces d’impuretés aussi faibles que celle citée plus haut, pour doser en continu des réactions isotopiques (comme le craquage de la molécule LID), les teneurs isotopiques du gaz ainsi que la forme de la molécule de l’hydrogène (celle-ci se présente sous deux formes : 1’ « ortho-hydrogène » et le « para-hydrogène », dont les propriétés différentes doivent être prises en considération) ;
- — Tenue mécanique des matériaux et des soudures à des températures aussi basses ;
- — Étanchéité de l’appareil, isolé sous vide, et des vannes;
- — Calorifugeage de l’appareil, etc.
- La récente mise en route du pilote industriel de Toulouse, en janvier dernier, signifie que ces difficultés ont été surmontées. Cet appareil, qui est abrité avec ses compresseurs et ses accessoires dans un bâtiment de 3o x 25 m et de 10 m de haut (fig. 1), correspond, dans son principe, au schéma suivant (fig. 2).
- Mélange N2+3H2 (gaz de synthèse d’ammoniaque contenant du deutérium)
- Gaz de synthèse épuisé de son deutérium ‘(vers la synthèse de l'ammoniaque)
- 'détente
- Fig. 2. — Schéma de principe de l’usine d’eau lourde de la C.F.E.L.
- 1, Appareil de séparation de l’hydrogène et de l’azote du gaz de synthèse et échangeur pour récupérer les frigories des gaz froids ; 2, Colonne de concentration primaire ; 3, Colonne double de concentration finale ; 4, Catalyse pour craquer la molécule HD en IIS et en Da ; 5, Synthèse finale de l’eau lourde, conditionnement, etc. ; 6, Vannes de détente.
- Le gaz d’alimentation, en provenance de l’atelier de cracking de l’O.N.I.A. arrive, sous forte pression, dans l’ensemble (1), où il est refroidi par détente avec travail extérieur, débarrassé de ses impuretés et séparé en ses deux constituants : azote et hydrogène. L’azote sert à fournir une partie des frigories néces-
- p.198 - vue 201/558
-
-
-
- 199
- Fig. 3. — A l’usine pilote de la C.F.E.L.
- Vue prise pendant le montage d’une partie des échangeurs de chaleur, à l’intérieur de l’enveloppe sous vide qui abritera toute la partie froide, dans une colonne de 12 m de hauteur et de 3 m de diamètre. {Photo C. Laciiehoy, aimablement communiquée par L’Air Liquide).
- saires à la marche de l'installation et l’hydrogcne est envoyé à la colonne de distillation primaire (a), au travers d’une vanne de délente (6), qui lui permet de se liquéfier.
- Un produit enrichi, contenant i pour ioo environ de HD se rassemble sous forme liquide au pied de la colonne, tandis que le produit plus léger, l’hydrogène pur II.,, épuisé de son deutérium, est retourné vers l’ensemble (il et, de là, à l’atelier de synthèse d’ammoniaque.
- Le produit enrichi est envoyé à la partie supérieure d’une colonne double (3) au pied de laquelle, par une nouvelle distillation, se rassemble l’hydrure de deutérium pratiquement pur.
- L’hydrure de deutérium est alors craqué dans la partie (5) et, de là, le produit de ce craquage, qui est un mélange de II2, de D2 et de IID, est admis dans la partie inférieure de la colonne (3), au pied de laquelle on recueille du deutérium à plus de 0,9,9 pour 100 de pureté.
- Le C.E.A. disposera donc, après quelques mois de marche de cette usine, d’un procédé bien mis au point et des diverses données économiques qui lui permettront d’en évaluer l’intérêt industriel. Il est en tout cas raisonnable d’affirmer dès maintenant que le procédé de production d’eau lourde par distillation d’hydrogène provenant de gaz de synthèse de l’ammoniaque présente un réel intérêt économique, tout au moins quand il s’agit d’usines d’une capacité de l’ordre de 10 à
- 20 t/an. Les conditions américaines, en effet, sont très différentes de celles qui prévalent en France (taux d’amortissement des capitaux, coût de l’énergie). Elles concernent en outre des usines d’une taille beaucoup plus considérable (la capacité de production américaine est de 900 l/an environ), ce qui rend les comparaisons délicates.
- On peut en outre citer, parmi les avantages du procédé mis en œuvre à Toulouse, la possibilité d’obtenir à un taux de pureté très élevé divers produits tels que le deutérium exempt de tritium, l’eau légère, etc. qui présentent un grand intérêt pour les laboratoires (chambres à bulles, etc.).
- *
- * *
- Outre la production d’eau lourde, l’hydrogène liquide commence à trouver d’autres applications industrielles ou scientifiques. En particulier son emploi comme comburant de fusées
- spatiales fait l’objet d’études très approfondies dans divers pays.
- Comme dans d’autres domaines scientifiques, la mise au point de nouvelles techniques et de nouveaux produits suscite des besoins nouveaux et des développements industriels imprévisibles au premier abord. Il est raisonnable de penser que la mise en service de cette usine d’eau lourde sera un pas décisif vers l’emploi à l’échelle industrielle des températures égales ou inférieures à — 25o° C (a3° K).
- Il convient de souligner l’aide constante que les laboratoires des services des isotopes stables du C.E.N. de Saclay ont apportée aux techniciens de L’Air Liquide, dans divers domaines particulièrement délicats, tels que celui de l’analyse des gaz, ou celui du cracking de la molécule HD, et la collaboration efficace du service de génie chimique et des laboratoires de l’O.N.I.A.
- Philippe Akah, Ingénieur des Mines de Paris, L’Air Liquide.
- p.199 - vue 202/558
-
-
-
- Les explosions atomiques souterraines et leur utilisation industrielle
- On a beaucoup parlé ces derniers temps des explosions atomiques souterraines sous l’angle des possibilités de contrôle qu’elles permettent. En effet, même très puissantes, elles ne sont détectables au loin qu’à l’aide de sismographes, comme de faibles tremblements de terre. Dans leur cas il n’est plus question d’ondes de choc et de rayonnements atmosphériques ni, fort heureusement, de retombées radioactives. C’est aussi pourquoi ces explosions, si certaines précautions sont prises, ne présentent aucun danger.
- L’intérêt qui s’attache à leur contrôle est d’ordre purement militaire : il s’agit seulement d’éviter qu’une nation puisse perfectionner en secret ses armes nucléaires. Les explosions souterraines ne sont pas par elles-mêmes redoutables pourvu qu’elles soient utilisées publiquement dans des buts pacifiques. Il n’est donc pas indifférent de savoir quelles connaissances ont été obtenues dans cet ordre d’idées. Ne pai’lons pas des Russes qui n’ont fourni que peu de renseignements sur leurs essais. Ce que nous savons provient des communications faites par les Américains dans leurs magazines spécialisés.
- La première explosion souterraine dont les résultats sont maintenant bien connus, dite « Opération Rainier », a eu lieu en septembre 1967. Elle a mis en œuvre une charge nucléaire correspondant à 1 700 t de TNT (trinitrotoluène), sous une colline d’origine volcanique, dans l’État de Nevada. Mais cinq autres explosions souterraines ont précédé la cessation des expériences, au moment de l’ouverture de la conférence de Genève. Leur puissance variait de 100 à 20 000 t (20 kilotonnes) de TNT, soit pour ce dernier chiffre la puissance de la bombe de Hiroshima. Il convient d’ailleurs de remarquer que de très fortes déflagrations avaient déjà été réalisées au moyen d’explosifs chimiques classiques. Line charge de 1 3oo t de dynamite a été utilisée en 1967 à Vancouver pour supprimer un éperon rocheux qui gênait la circulation sur une voie d’eau (explosion de Ripple Rock). On dit enfin que les Chinois ont employé
- à l’intérieur de mines • des charges allant jusqu’à 10000 t de dynamite. Les Américains G. W. Johnson et II. Rrown, qui rapportent ces faits dans Scienlijic American, font observer que de telles explosions sont comparables aux détonations atomiques de faible puissance. Mais naturellement les caractéristiques en sont différentes.
- Le programme dit Plowshare (soc de charrue), placé sous la direction de la Commission de l’Énergie atomique à Livermore (Université de Californie), est destiné à étudier la possibilité de production d’énergie industrielle grâce à des bombes atomiques mises en œuvre sous la surface du sol, à des profondeurs variables suivant leur puissance. Dans le cas de l’Opération Rainier on avait percé au flanc d’une colline, à un niveau situé à 270 m au-dessous du sommet, un tunnel de 5oo m de long, menant à une chambre étroite où la bombe munie de son système mécanique de détonation avait été placée. Naturellement le tunnel n’était pas rectiligne, afin que la formidable vague de choc ne prit en suivre l’axe. Il était creusé en spirale pour que la destruction des parois les plus proches de l’explosion le bouchât sûrement et cependant sur la moins grande longueur possible. En effet, on comptait pouvoir le rouvrir pour aller directement sur les lieux et se rendre compte des effets de la bombe, ce qui fut fait au bout de six mois pour laisser à la radioactivité le temps de s’atténuer.
- On découvrit que la chambre d’explosion avait été transformée en une vaste cavité sphérique de 4o m de diamètre dont les parois étaient faites de roche vitrifiée, formant une coquille brillante de 10 cm d’épaisseur. Les dimensions de cette grotte artificielle montraient que 700 t de roches au moins avaient été complètement vaporisées, pénétrant dans le sol avoisinant qui avait été brisé dans un rayon très supérieur à celui de la cavité (fig. 1). Quant à la roche vitrifiée, à la lave qui recouvrait les parois, elle avait coulé en se solidifiant, formant des stalactites et même des amorces de stalagmites. Des fragments
- Fig. 1 et 2. — Schéma d’une explosion atomique souterraine et de ses effets.
- A gauche : La bombe, placée sous une montagne à l'extrémité d’un tunnel, vient d’exploser ; le cercle noir représente la cavité créée par l’explosion ; elle est entourée par une bulle sphérique (en blanc) formée par la vaporisation de la roche sous l’effet de la chaleur. A droite : Une minute après l’explosion, une cheminée d’effondrement s’est produite, entraînant une masse de matériaux qui bouchent la cavité primitive ; ces matériaux sont soutenus par une calotte de roche vitrifiée (en gris) (Documents aimablement communiqués par le Centre culturel américain).
- p.200 - vue 203/558
-
-
-
- 201
- de cette lave, examinés au laboratoire, montrèrent, comme on pouvait s’y attendre, que des pressions fantastiques s’étaient exercées dans la cavité. Les fragments une fois chauffés se dilataient de plusieurs fois leur volume, ce qui indiquait une valeur de six millions d’atmosphères pour la pression de pointe. Cette pression, en amenant la matière à un état de densité considérable, y avait en quelque sorte enfermé la plus grande partie de la radioactivité produite. Ainsi les particules dangereuses restaient prises dans la lave, si bien qu’on pouvait recueillir celle-ci à la main en se protégeant seulement par des gants à doublure plombée.
- D’autre part, au moment où les experts, munis de leurs vêlements protecteurs et de leurs compteurs de radiations, atteignirent le lieu de l’explosion, ce ne fut que par l’examen de la courbure de la paroi vitrifiée qu’ils purent mesurer les dimensions de la cavité produite. Le plafond de celle-ci s’était en effet écrasé sous le poids des roches concassées qui le surmontaient. Le remplissage de la cavité avait créé une cheminée d’effondrement qui s’étendait vers le sommet de la colline sur une hauteur de près de 200 m (fig. 2). L’examen de la couche de lave vitrifiée montra aussi que sa rupture s’était produite une minute environ après l’explosion et que les conséquences de l’écroulement avaient porté à environ 200 000 t la masse des roches brisées et concassées. La chaleur transmise à ces roches représentait environ 5o pour 100 de l’énergie totale développée par la bombe, de sorte que la température mesurée par sondages quatre mois après la déflagration (soit deux mois avant l’exploration humaine) s’élevait encore à 8o° C dans la région centrale. Cependant la roche volcanique poreuse n’était nullement favorable à la conservation de l’énergie thermique, par suite de la grande quantité d’eau qu’elle contenait. Cette eau avait rapidement diffusé la chaleur à travers la masse de la colline, x'éduisant les millions de degrés engendrés au cœur de l’enfer nucléaire à une température qui ne dépassait pas celle de l’ébullition.
- Il est donc facile d’imaginer quels seraient les résultats obtenus si on faisait exploser la charge dans de la roche compacte et surtout si cette charge, au lieu de correspondre à moins de deux kilotonnes de TNT, s’égalait à celle d’une bombe II, mille à dix mille fois plus puissante (2 à 20 mégatonnes). Cependant il faudrait enteri’er une charge nucléaire de cet ordre â une pi’ofondeur de 4 ou 5 km pour éviter au niveau du sol tout effet dangereux. Le forage d’une galei’ie suffisamment large pour y descendre la bombe poserait quelques problèmes. Sans doute on peut imaginer une explosion peu éloignée de la surface à condition de la contenir par la construction d’une chambre d’acier très pesante au-dessus du lieu de l’expérience. Mais les calculs ont montré qu’il faudrait une masse d’acier de plusieurs millions de tonnes. Il serait certainement plus économique de procéder à un forage profond, malgré la nécessité de le recommencer à chaque expérience. On pourrait aussi employer une grotte naturelle, située à une profondeur moin-dx-e, mais suffisamment vaste pour que l’onde de choc arrive atténuée au niveau des parois. On éviterait ainsi théoriquement la propagation d’une onde dangereuse jusqu’à la surface du sol. Toutefois, dans le cas d’une détonation de 100 kilotonnes, la pression subie par les parois serait mulipliée par réflexion et poui’rait atteindre 10 kg/cm2 dans une grotte de 3oo m de diamètre, semblable à ces salles immenses que nous décrivent les spéléologues. De plus l’atmosphère de la grotte resterait polluée par une masse considérable de produits radioactifs.
- Utilisation industrielle. — Production d'énergie. —
- Johnson et Brown ont énuméré les diverses utilisations auxquelles pouvaient mener les explosions atomiques souterraines. La px’oduction d’énergie électrique vient évidemment en tête. Il suffirait de pomper à travers le lieu de l’explosion un fluide chargé de véhiculer en surface assez d’énergie thermique pour actionner des turbines. On devrait prévoir un tubage métallique
- Fig. 3. — Utilisation de vapeur.
- Un courant d’eau (flèche) est envoyé par une canalisation jusqu’au point de l’explosion atomique où la chaleur transforme cette eau en vapeur, qui est conduite jusqu’à la centrale électrique.
- pour la descente et un autre pour la remontée (fig. 3). Il s’agi-rait en somme d’installations analogues à celles qui sont déjà en action à Larderello, en Sicile, et à Wairakei, en Nouvelle-Zélande, où l’on utilise la vapeur d’origine volcanique provenant de couches d’eau naturelles (:). En Italie, de telles installations sont appelées à produire 10 pour 100 de la consommation électrique de la Péninsule. La l’entabilité est bonne puisque le pi’ix du kilowattheure s’inscrit autour de 0,025 NF. Mais, bien entendu, dans le cas d’explosions souterraines, la nécessité d’injecter un fluide compliquerait les choses.
- Les auteurs précités insistent d’ailleui's sur le fait que l’accroissement de la chaleur naturelle du sol, selon la profondeur, favoriserait l’utilisation de l’énergie d’une bombe atomique. On sait que cet acci’oissement atteint une ti’entaine de degrés G par kilomètre et peut être bien supérieur dans les régions volcaniques où des températures naturelles de 3oo à 5oo° C ne sont pas invraisemblables à la profondeur de 4 ou 5 km. C’est justement cette profondeur qui conviendrait à une bombe H de 3o Mt pour que les effets séismiques en soient bien contenus. La chaleur statique du sol s’ajouterait alors à celle de la bombe et en multipliei'ait le résultat. On a ainsi calculé qu’une seule bombe H fournirait 2,4 x io15 kWh, soit une quantité suffisante pour actionner pendant quinze ans une usine génératrice de 5oo 000 kW. Il ne s’agit évidemment que d’estimations théoriques dont seule l’expérience pourrait apporter la confirmation, mais on comprend que le fait de rendre perméable une masse très importante de roches brisées par l’explosion, à une profondeur où la température du sol est par elle-même élevée, puisse permettre l’injection et le pompage d’une quantité de fluide suffisante pour assurer pendant longtemps le transport en surface d’une énergie rentable. Ce sont les résultats de l’opération Rainier, montrant que la radioactivité avait été pratiquement piégée dans la zone de lave vitrifiée, réfractaire et absolument insoluble, qui ont permis d’envisager la circulation d’un fluide sans risque grave de contamination.
- Dans le même ordre d’idées, un des prochains essais du programme Plowshare prévoit une explosion dans une épaisse couche de sel située près de Carlsbad, au Nouveau-Mexique.
- 1. Voir : L’énergie géothermique, par Yves MÉmEr, La Nature, août 1959, p. 356-362.
- p.201 - vue 204/558
-
-
-
- 202
- Fig. 4. — Traitement d'une couche de minerai.
- Deux canalisations (flèches) conduisent des solvants jusqu’au lieu de l’explosion ; le minerai, pulvérisé par l’explosion et dissous par le solvant, est pompé jusqu’à l’usine de traitement.
- Chaque kilotonne d’énergie produite serait capable de fondre 3 ooo t de sel en élevant sa température à 8oo° C. Une détonation de l’ordre de la mégatonne (x ooo ooo t de TNT) fournirait donc 3 ooo ooo t de sel fondu, soit une masse sphérique de 200 m de diamètre. Le fluide transporteur d’énergie pourrait être un gaz, mais il serait sans doute difficile d’ep contenir la radioactivité dans des échangeurs de chaleur et des tubes d’une étanchéité suffisante. Le même inconvénient serait à redouter dans le cas où l’on voudrait utiliser directement le gaz carbonique suscité par une explosion au sein de roches dolomi-tiques ou calcaires.
- Selon des informations récentes, l’explosion de Carlsbad aurait lieu en janvier 1961 à 36o m de profondeur au sein de la couche de sel. Elle sera connue sous le nom d’opération Gnome. La charge prévue est de 10 kilotonnes et entrerait donc dans le cadre d’une limitation de puissance déjà discutée à Genève. De toutes façons, ses effets séismiques seraient faibles; on sait que l’opération Rainier, par exemple, n’a produit en surface que des effets minimes : ondulation légère de buissons et déplacement de galets, quoique l’origine de la secousse se situât à moins de 3oo m de profondeur.
- Exploitation des minerais et pétroles. — D’autres utilisations des effets brisants de l’énergie nucléaire au-dessous de la surface du sol ont aussi été envisagées aux États-Unis. Par e-xemple, dans une couche de minerai de faible teneur en cuivre, il suffirait théoriquement d’injecter de l’eau acidifiée pour pouvoir pomper en surface du cuivre en solution. On pourrait diriger et multiplier les effets de l’explosion par le percement préalable de tunnels à l’intérieur du minerai (fig. 4)-
- Mais c’est dans la voie de la régénération des gisements pétroliers, ou de la mise en exploitation des moins rentables, que s’ouvrent les aperçus les plus prometteurs. On sait que l’espacement des puits forés dans un gisement est calculé en rapport avec le rendement désiré et selon les frais d’exploitation. Lorsque le pétrole s’épuise, les poches éloignées risquent de ne plus être atteintes quand les forages sont trop espacés. Les moyens de récupération les plus couramment employés jusqu’ici sont les injections d’eau destinées à « balayer » la roche et les injections de gaz dont le but est de remettre le gisement sous pression. Or une explosion souterraine, en flui-
- difiant l’huile par réchauffement et en ouvrant des passages à l’écoulement des poches isolées, pourrait avoir des effets beaucoup plus spectaculaires.
- Même au début d’une exploitation, la fissuration en profondeur des roches qui servent de réservoir au pétrole permettrait sans aucun doute un drainage plus aisé ainsi qu’une meilleure appréciation de la valeur totale du gisement. En définitive, on parviendrait à des taux de récupération beaucoup plus élevés que par les moyens classiques. Il faut se rendre compte que la viscosité des huiles diminue très vite quand on les échauffe; un facteur 5 pour une variation de température de ioo° est admissible dans le cas d’huiles de qualité moyenne. Enfin une explosion thermonucléaire peut remettre en pression un gisement par la régénération de la calotte de gaz qui le surmonte. Ce moyen serait d’ailleurs utilisable assez tôt, par exemple pour régulariser le débit à la suite d’une baisse de pression causée par un essai de production intensive.
- D’un point de vue économique l’usage des explosions thermonucléaires se révélerait particulièrement intéressant pour les producteurs indépendants qui, n’appliquant pas comme les grandes compagnies une politique de modération dans l’exploitation des puits, ont intérêt à procéder à une récupération rapide qui libère plus vite le capital engagé. Il ne faut pas oublier que le risque d’un abaissement des cours, dû à la découverte de nouveaux gisements ou, sur le plan mondial, de nouvelles sources d’énergie, tend à pousser les producteurs indépendants à une exploitation plus rapide de leurs installations. D’ailleurs, l’emploi de charges thermonucléaires constituerait vraisemblablement une économie immédiate. Il est clair que les injections de gaz, par exemple, sont par elles-mêmes très coûteuses et ont de plus l’inconvénient d’immobiliser une partie des puits. On peut très probablement obtenir des résultats excellents avec une charge nucléaire, même en cas de couches d’exploitation superposées. Le prix de la récupération secondaire serait d’ailleurs encore diminué pour les gisements profonds où l’utilisation de charges puissantes ne présenterait aucun danger.
- Ajoutons que les explosions auraient aussi leur intérêt au voisinage de gisements de gaz qui contiennent des huiles légères en suspension. Ces huiles ont tendance à se condenser quand la pression tombe au cours de l’exploitation. Un réchauffement de l’ensemble du gisement empêcherait cette condensation et éviterait la perle de l’huile. Il ne serait pas nécessaire pour la sauver de procéder à ce que l’on appelle un recyclage, c’est-à-dire à une réinjection de gaz dans le gisement.
- Déjà très intéressantes pour l’exploitation des puits pétrolifères classiques, les explosions souterraines le seraient encoie plus dans le cas de gisements non rentables, ou actuellement abandonnés. Il existe dans le Nord du Canada, près du lac Alhabaska, de vastes étendues de sables bitumineux dont en a renoncé à extraire le pétrole lourd qu’ils contiennent, ies moyens essayés jusqu’ici s’étant révélés trop onéreux. C’est ainsi qu’on avait tenté de faire passer le sable dans d’immenses machines à laver où circulait de l’eau chaude et un détergent... Le réchauffement du gisement et son bouleversement par des charges nucléaires formerait au sein de la couche sableuse des nappes d’huile liquide qui pourraient ensuite être pompées en pratiquant des forages en des lieux appropriés; le sable se sépare en effet de l’huile à une température qui n’excède pas ioo° C. On a calculé qu’avec un taux de récupération de i5 pour 100 seulement, le traitement, sur une épaisseur de 3o m, de chaque kilomètre carré des sables situés au long de la rivière Athabaska, fournirait 4o millions de barils d’huile brute.
- L’exploitation des schistes bitumineux bénéficierait de techniques analogues. Il existe aux États-Unis un gisement considérable près de Green River, gisement qui contiendrait d’après les estimations du Bureau des Mines U. S., i5o milliards de
- p.202 - vue 205/558
-
-
-
- 203
- tonnes d’huile. Mais les difficultés de récupération sont considérables. Il faut en effet extraire préalablement les schistes et les chauffer à 5oo° C afin de prélever les hydrocarbures provenant des résidus organiques fossiles dont ces terrains sont imprégnés; de plus cette imprégnation est souvent insuffisante, n’atteignant pas les i5o litres à la tonne généralement considérés comme économiquement indispensables. Cependant, le fait que de tels gisements existent dans de nombreux pays les rend sans doute à peu de choses près aussi riches que l’ensemble des nappes de pétrole actuellement exploitées. Or, le réchauffement brutal de la masse schisteuse par une explosion produirait une véritable distillation des huiles en profondeur (fig. 5).
- Camille Rougeron, qui a été un des premiers en France et dans le monde à préconiser l’emploi des explosions atomiques souterraines pour favoriser l’exploitation des hydrocarbures, a fait observer que des essais de traitement par la chaleur ont déjà été tentés à l’intérieur même de couches de schistes bitumineux. Dans le Wurtemberg, pendant la dernière guerre, des galeries avaient été creusées dans le gisement : certaines étaient mises à feu tandis qu’on recueillait l’huile et le gaz dans les autres. En Suède, à Norrtorp, on a même essayé un réchauffement des couches schisteuses par l’emploi de l’énergie électrique aux heures creuses... Dans ces conditions, Rougeron a pensé que des charges nucléaires se montreraient très avantageuses en facilitant l’extraction et en simplifiant la distillation. Il serait sans doute possible de pomper directement les liquides qui se formeraient dans les terrains désagrégés par les explosions. L’étendue entière des couches pourrait être traitée, alors que l’exploitation minière telle qu’elle se pratique à Green River oblige à la conservation de piliers de soutènement importants qui correspondent à a5 pour ioo au moins du volume des terrains.
- Selon Johnson et Rrown, une explosion thermonucléaire de l’ordre de la mégatonne, à une profondeur d’un kilomètre, produirait directement un million de barils de produits pétroliers et briserait quelque 5o ooo ooo t de schistes. Du traitement ultérieur de ces matériaux en surface, on tirerait un surplus de 25 millions de barils d’huile. L’extraction pourrait théoriquement se faire par les puits mêmes qui auraient servi à l’introduction des charges nucléaires; mais il semble que quelques difficultés se présenteraient sur ce dernier point.
- L’exploitation de couches de charbon est aussi à envisager par la technique des explosions souterraines. Reaucoup de veines sont trop profondes pour être justiciables des moyens classiques : dans la Sarre, les couches de houille s’étagent jusqu’à 6 ooo m tandis qu’en Haute-Silésie elles atteignent 7000 m; on connaît même des points où les terrains carbonifères s’enfoncent jusqu’à 10 ooo m. Des forages d’une profondeur comparable à celles qui sont atteintes dans les champs pétrolifères permettraient justement d’atteindre de telles couches qui, échauffées et désagrégées par des explosions thermonucléaires de grande puissance, constitueraient une source de combustibles liquides et principalement gazeux. Des avantages sur le plan économique seraient aussi à envisager : on pourrait facilement faire varier la production pour l’adapter aux besoins mondiaux, ce qui n’est pas aisé dans les mines classiques si l’on veut éviter le chômage.
- *
- * . *
- Ne nous dissimulons pas cependant les problèmes propres aux explosions atomiques. En dehors des difficultés causées par la nécessité de forages de grand diamètre pour descendre les charges et leur mécanisme détonateur, on devrait renoncer à l’exploitation des gisements trop proches de la surface. Ce serait risquer la formation d’entonnoirs, à moins d’employer des bombes de très faible puissance dont le nombre accroîtrait
- Fig-, 5. — Schéma d’une explosion atomique utilisée pour récupérer de l’huile de schiste profondément enfouie dans le sol.
- beaucoup les frais d’investissement. Enfin et surtout, il resterait à savoir si la radioactivité pourrait toujours être piégée à l’intérieur de zones de compression vitrifiées comme cela a eu lieu dans le cas de l’opération Rainier. Si les produits d’extraction se trouvent contaminés, le prix des procédés de stérilisation de la radioactivité deviendrait prohibitif. Seule l’expérience nous renseignera utilement à cet égard, quoiqu’on sache déjà que les silicates constituent les terrains les mieux adaptés à la neutralisation des rayonnements dangereux.
- Citons enfin pour mémoire la possibilité envisagée par les Américains de créer des cheminées d’effondrement au voisinage de la surface du sol dans des terrains propices, ce qui donnerait naissance à de vastes zones de roches concassées et perméables qui seraient ensuite utilisées comme réservoirs d’eau (fig. G). Un dernier emploi des explosions souterraines résiderait dans l’introduction préalable de matériaux qui se transfor-
- Fig. 6. — Création d’un bassin de retenue par explosion atomique.
- (Documents du Centre culturel américain).
- p.203 - vue 206/558
-
-
-
- 204
- nieraient en radioisotopes d’usage médical grâce à leur irradiation par les neutrons issus des bombes. Rien n’empêcherait de récupérer ces matériaux au bout de quelque temps, puisque aussi bien les experts ont pénétré sans inconvénient dans le site même de l’opération Rainier. Il semble toutefois plus simple d’utiliser à cet usage les piles atomiques classiques.
- Rien entendu les explosions purement souterraines ne sont pas les seules à avoir une destination pacifique. On peut creuser des ports, rompre des isthmes. Les expériences Laites au voisinage de la surface du sol ont montré qu’une détonation de l’ordre de la kilotonne, à i5 m de profondeur, déplaçait une masse de ioo ooo m3 de terre, laissant un cratère de ioo m de diamètre et de 3o m de profondeur. Pour des déflagrations plus fortes, on a observé que les dimensions du cratère aug-
- mentaient comme la racine cubique de la puissance de la charge. Toutefois les excavations réalisées dans un terrain sec sont plus profondes que lorsqu’il s’agit d’un terrain humide. C’est un avantage sur lequel on a coutume d’insister, car l’onde de choc et surtout l’éclair de chaleur sont en grande partie coupés par les bords du cratère. Mais il ne saurait en être de même pour les projections de matériaux en hauteur. Le danger des explosions proches de la surface reste considérable par suite des retombées radioactives. Il semble donc qu’elles soient totalement à déconseiller et que seules les explosions réalisées à des profondeurs suffisantes pour que leurs effets ne soient pas à craindre au niveau du sol seront utilisées dans l’avenir.
- Jacques Fouciiet.
- La deuxième bombe A française
- La deuxième expérience atomique de Reggane a différé assez notablement de la première : la puissance de l’engin qui a explosé le ier avril était sensiblement inférieure à celle de la bombe qui a éclaté le i3 février; de plus les conditions dans lesquelles les spécialistes de la Direction des Applications militaires du Commissariat à l’Énergie atomique et du Groupement opérationnel des expérimentations sahariennes ont voulu chaque fois se placer présentent des différences substantielles (1).
- Le i3 février, les spécialistes avaient reçu une double mission : i° démontrer que la France était en possession des secrets de fabrication de la bombe A et même qu’ils étaient, lors de leur coup d’essai, plus avancés que les Américains lors de leurs premières expériences; 2° profiter de l’occasion pour recueillir un maximum d’informations sur la façon dont se comporterait la bombe elle-même, ainsi que sur ses effets. L’opération, bien qu’elle ait été qualifiée d’ a expérience d’ingénieur », n’était pas dépourvue d’un aspect politique : il fallait que, compte tenu de la quantité de matière fissile placée dans la bombe, celle-ci fût la plus puissante possible. On sait que le résultat a couronné les espoirs de ses constructeurs : l’engin a développé une puissance supérieure à 6o kilotonnes avec un « rendement », c’est-à-dire un pourcentage de matière fissile effectivement consommé, qui a pu être jugé excellent.
- Le ier avril, au contraire, les objectifs étaient essentiellement de voir dans quelle mesure un engin transportable donnait des résultats satisfaisants et aussi dans quelle mesure il était possible de déterminer avec précision la puissance de l’engin.
- C’est énoncer une évidence que de dire qu’une bombe n’est utilisable que dans la mesure où elle peut être transportée par un « vecteur », avion ou fusée. Mais pour cela, il faut parvenir à des degrés de « miniaturisation » qui varient d’ailleurs avec l’emploi que l’on veut en faire. Une bombe destinée à prendre place dans l’ogive d’une fusée devra sans doute être plus maniable que celle que l’on peut transporter dans la soute d’un bombardier lourd. Que dire alors des engins qui sont destinés à être logés dans un obus et lancés par un canon ?
- Aucun détail, naturellement, n’a été donné sur cette deuxième bombe, mais ses constructeurs se montrent catégoriques : il leur est désormais possible de répondre à toutes lés demandes en bombes A que pourraient formuler les militaires. En d’autres termes, ils s’estiment à même d’ « armer » le bombardier Mystère IY qui sera chargé de transporter la bombe A en attendant que des fusées soient mises au point.
- Même satisfaction en ce qui concerne le second objectif : la puissance de l’engin a été conforme à ce que les techniciens avaient prévu. Lors du premier essai ils n’étaient pas certains du résultat auquel ils allaient aboutir. Cette fois, au contraire,
- 1. Voir : Quelques aspects scientifiques et techniques ds la bombe A française, La Nature, mars I960, p. 117
- ils affirment avoir pu « doser » la puissance à leur convenance. C’est dire qu’elle était inférieure à ce qu’elle aurait pu être, compte tenu de la quantité de plutonium qui y avait été placée. Au moment où ces lignes sont écrites, aucun renseignement de source officielle n’a encore été donné sur cette puissance, mais il est certain qu’elle est assez inférieure à 20 kilo-tonnes, c’est-à-dire approximativement à celle de la bombe au plutonium qui a été lancée sur Nagasaki. Notons au passage que l’on donnait généralement pour puissance de la bombe à uranium 235 qui a été lancée sur Hiroshima une puissance équivalente : maintenant on admet que cet engin n’a pas développé une puissance supérieure à i3 kilotonnes.
- Naturellement, l’engin qui a explosé le ier avril n’était pas du même type que celui qu’on a expérimenté le i3 février. Le dispositif de formation de la masse « surcritique » était évidemment le même (à chaque sorte d’explosif correspond un meilleur mode de formation de cette masse surcritique), mais les mécanismes étaient différents, de même que la géométrie de la masse de plutonium. Toutefois, cette bombe ne saurait encore être considérée comme un prototype : l’engin ne pourra, en fait, être déclaré « opérationnel » qu’après que la preuve aura été administrée que le largage effectif par avion ne compromet pas le bon fonctionnement du mécanisme de mise à feu.
- Les conditions dans lesquelles les deux expériences ont été effectuées ont été également très différentes. Pour l’essai du i3 février des installations fixes importantes avaient été prévues et l’engin avait été installé au sommet d’une tour haute d’environ 100 m. Rien de tel cette fois : la bombe avait été seulement placée dans une baraque préfabriquée et les appareils de mesure avaient été logés dans des installations semi-fixes. Quant aux installations lourdes qui avoisinaient le premier « point zéro », elles n’ont pas été utilisées bien qu’elles aient été en principe conçues pour servir de support à plusieurs essais.
- Cet état de choses a eu une double conséquence : alors que la première bombe avait seulement provoqué la formation d’une tache noire de sable vitrifié, la seconde a occasionné la naissance d’un cratère. De même, alors que l’explosion du premier engin avait été accompagnée de la formation d’un nuage radioactif qui a occasionné des retombées à des distances relativement importantes du point zéro, l’éclatement de la deuxième bombe a été surtout acccompagné de retombées locales. Les poussières radioactives formées par l’explosion tendent en effet, lorsque l’engin explose au ras du sol, à retomber à proximité immédiate du point zéro, à condition naturellement que la puissance de l’engin soit faible, ce qui était justement le cas. Si l’on avait fait éclater la première bombe au ras du sol, les retombées à longue distance auraient été sensiblement plus importantes qu’elles ne l’ont été pour la deuxième. N. V.
- p.204 - vue 207/558
-
-
-
- La respiration des moustiques décapités
- Les moustiques décapités peuvent survivre plus de 24 heures si on les maintient en atmosphère humide dans une pièce à température constante. Ils restent en général immobiles quoique capables de répondre à certaines stimulations; ainsi, on a pu obtenir par des manœuvres appropriées l’accouplement de moustiques décapités (voir La Nature, août 1957, p. 026). Le métabolisme basal de ces insectes a été étudié par Mme Rachel Galun, de l’Institut de Recherche biologique de Ness-Ziona, en Israël, qui donne un résumé de ses recherches dans le numéro du 6 février 1960 de la revue britannique Nature.
- Chez les moustiques intacts cette étude est rendue difficile par les brusques reprises d’activité, du vol en particulier, qui augmente 5o à 100 fois la consommation d’oxygène. Cette difficulté se trouve éliminée avec des Aedes ægypti décapités et aussi avec des femelles de la même espèce dont les balanciers ou haltères ont été sectionnés; le vol est, dans ce cas, limité à de très courtes périodes. La respiration de ces insectes mutilés a été mesurée dans un appareil de Warburg, à 28° C, suides lots de dix femelles ; les lectures étaient effectuées toutes les i5 mn pendant 2 heures. On constate que la consommation d’oxygène des moustiques décapités reste très voisine de celle des insectes intacts et bien supérieure à celle des moustiques privés de leurs balanciers, résultat assez surprenant puisque ces derniers sont plus mobiles. C’est seulement 4 ou 5 heures après la décapitation que la respiration commence à décroître et elle devient à peu près égale à celle des individus sans haltères après 24 heures. On a pensé que les conséquences de la blessure pouvaient être cause de l'augmentation des échanges gazeux, mais les résultats ne sont aucunement modifiés si on prend la précaution d’obturer la plaie.
- L’effet de la décapitation est encore plus net si l’on maintient les moustiques à 120 car, à cette température, les Aedes intacts sont immobilisés comme ceux qui ont été décapités. La consom-
- mation d’oxygène est alors pour les premiers 0,96 mm3 et pour les seconds i,84 mm3 par heure et par insecte. La respiration des individus décapités reste très régulière, tandis que les Aedes intacts et, à un moindre degré, ceux qui ont été amputés des balanciers montrent des variations dues aux brusques alternances des périodes de repos et d’activité.
- Chez les moustiques intacts et inactifs les stigmates restent presque continuellement fermés. Une nainüfe après la décapitation, on constate une augmentation de'la moyenne des ouvertures, sans toutefois observer de trouble dans le rythme d’ouverture et de fermeture. Ce rythme persiste chez des moustiques décapités pendant que leurs stigmates sont actifs, mais la fermeture en est incomplète. Il n’y a pas d’augmentation des mouvements de ventilation.
- On connaît l’action des Corpora allata dans la consommation d’oxygène. Ces glandes ne sont pas enlevées par la décapitation mais il doit exister dans la tête un centre inhibiteur qui peut être responsable de l’augmentation de cette consommation. Les moustiques intacts et décapités répondent de la même façon à une réduction de la tension d’oxygène. Dans tous les cas expérimentés dans l’appareil de Warburg, où la pression était maintenue à une atmosphère en remplaçant partiellement l’oxygène par de l’azote, les insectes des deux groupes ont maintenu une absorption d’oxygène presque constante, même dans une atmosphère contenant seulement 3 à 4 pour 100 d’oxygène. La régulation de la prise d’oxvgène à basse tension est assurée chez les moustiques par des changements dans l’activité des stigmates, à la fois par des ouvertures plus fréquentes et plus grandes, ainsi que par une prolongation de la durée de cette ouverture. Ces trois phénomènes observés sur des moustiques décapités sont d’ailleurs conformes à ce qu’on savait de la régulation de la diffusion dans la respiration des insectes.
- ETC.
- L’activité des volcans du Kamtchatka
- La plupart des volcans en activité de l’U.R.S.S. sont groupés sur la presqu’île du Kamtchatka et dans les îles Kouriles. Soixante-dix volcans environ ont, en effet, été dénombrés dans ces régions. La population du Kamtchatka s’étant considérablement accrue ces dernières décennies, il a été jugé nécessaire d’envoyer sur place des missions scientifiques afin d’étudier les volcans, de déceler à temps les éruptions éventuelles et de protéger, dans la mesure du possible, la population, par exemple par des bombardements aériens du volcan, qui permettent souvent de dévier la coulée de la lave.
- Le volcan le plus élevé de la région, et du continent eurasien tout entier, est le volcan Klioutchevski, dont la hauteur atteint 4 85o m. Deux éruptions s’y sont produites récemment, en 1937 et en 1945,. celle de 1945 ayant été beaucoup plus violente. Ce volcan, nous dit la revue soviétique Priroda, est le volcan le plus actif du Kamtchatka. La durée de ses éruptions est très variable. En général, les éruptions brèves mais violentes alternent avec les éruptions relativement bénignes mais de longue durée. Les éruptions violentes se produisent, en moyenne, tous les 26 ans. Il est intéressant de noter que la présence d’une grande quantité d’eau a été relevée dans la lave en fusion provenant du cratère de ce volcan; certains spécialistes de vulcanologie ont, en effet, exprimé l’avis que le magma ne contient pas d’eau.
- Presque aussi actif que le volcan Klioutchevski est le volcan Avatcha, situé non loin de la ville de Pétropavlovsk. De dix à onze éruptions de ce volcan ont été enregistrées, tant au
- xviii6 qu’au xix6 siècle. L’éruption la plus récente date de ig45. Elle a été violente, mais elle n’a duré que huit heures. En 1945 également, se produisit la dernière éruption du volcan Chévéloutch, le plus septentrional des volcans du Kamtchatka. Il s’agit d’un volcan très ancien, en partie détruit. Ses éruptions sont rares, mais très longues. Celle qui a commencé en 1945 a duré six ans.
- L’éruption la plus imprévue, et peut-être la plus spectaculaire, fut celle du volcan Résimianny en 1955. Ce volcan avait toujours été considéré comme définitivement éteint. Aucune éruption ne s’y était produite de mémoire d’homme, depuis le jour, en tout cas, où l’homme a commencé à observer et à enregistrer les phénomènes volcaniques. L’éruption de 1955 fut cependant une éruption d’une violence exceptionnelle. Toute la plaine avoisinante fut recouverte de lave en fusion. Les masses de magma se mélangèrent avec la neige, dont la couche était très épaisse, et un torrent d’eau, un véritable fleuve, déferla sur la région en plein hiver sibérien, à une température de 20° au-dessous de zéro. La force de l’explosion égala celle de plusieurs bombes à hydrogène.
- Signalons, pour terminer ce bref résumé, qu’on envisage, à l’heure actuelle, en U.R.S.S., d’utiliser la chaleur volcanique tant pour la production d’énergie que pour des buts agricoles. L’exploitation des matières premières minérales accumulées au pied des volcans offre également d’appréciables possibilités.
- C. M.
- p.205 - vue 208/558
-
-
-
- 20b
- Flore d'importation et cultures dans la presqu'île du Cap Vert (Sénégal)
- Fig. 1 et 2. — Deux Cactacées en fleur. A gauche : Un Cereus (Photo Labitte, I.F.A.N.). — A droite : Opuntia tuna (Photo Naegelé).
- En ce qui concerne l’exploration de la côte occidentale de l’Afrique, on doit admettre, si l’on s’en réfère aux textes anciens connus actuellement, que la découverte de la presqu’île du Gap Vert par les Européens remonte à un peu plus d’un demi-millénaire. En effet, selon l’ouvrage Cronica do descobrimento e conquisla da Guiné que l'on doit à Gomes Eanes da Zurara,
- Ltxc
- Tanma,
- Mbaouane
- Aac Mbeubeussé
- Poub~
- Sebikotans o
- Rufisque
- Marrw/Jes'
- DAKAR
- Ile des‘— — Madeleines
- —Yenne-sur-Mer-
- Popenguine
- 0 5 10 15 20 km
- F'g 3. — La presqu’île du Cap Vert.
- la presqu’île du Cap Vert aurait été atteinte pour la première fois en 1444 par le navigateur portugais Dinis Dias qui toutefois n’y a pas pénétré.
- Trois siècles plus tard, en 1749, le naturaliste français Michel Adanson débarque au Sénégal et y séjourne jusqu’en 1753. Ce fut le premier et le plus célèbre des explorateurs scientifiques du Sénégal; aussi,. lui devons-nous, entre autres, les premières connaissances sur les. végétaux de la presqu’île du Cap Vert.
- Depuis Adanson, soit après plus de deux siècles d’investigations, nos connaissances phytologiques ont fait bien des progrès surtout dans le domaine de la floristique.
- On a dénombré jusqu’à présent, dans la presqu’île, près de
- I 3oo espèces de plantes vasculaires réparties sur une superficie d’environ 584 km2; il faut reconnaître là une richesse floristique prodigieusement élevée. Ce fait est d’autant plus marquant que la République du Sénégal, avec une superficie de 197 161 km2, ne renferme approximativement que 2 000 espèces végétales.
- On peut se demander d’où vient celte grande diversité spécifique qui se manifeste dans la presqu’île, point occidental extrême de l’Ancien Monde, ce qui fit dire à J. Richard-Molard : « Finistère par excellence, le Cap Vert est le bout du monde ».
- II est permis de penser que les facteurs climatiques particuliers dont jouit la presqu’île, grâce à sa position géographique, ainsi que l’existence d’une grande variété de biotopes sont à l’origine de cette richesse en espèces.
- Cependant, il ne faudrait pas croire que les 1 3oo espèces de la presqu’île sont toutes indigènes. Parmi celles-ci, au moins 5oo sont d’apport étranger. Ce sont ces étrangères qui vont faire l’objet de ce présent article dans lequel nous nous proposons de donner un aperçu sur ces végétaux importés.
- p.206 - vue 209/558
-
-
-
- Fig. 4 et 5.
- A gauche : Un pied d’Aloès
- (Aloe vera), Liliacée originaire des îles Canaries. linguiformis (Photos Chérif, I.F.A.N.).
- A droite : Une Cactacée, Opuntia
- Flore d'importation. — Elle est surtout l’apanage des centres d’habitation. Qu’il s’agisse d’humbles villages de la brousse ou de grandes cités modernes comme Dakar, l’homme se comptait à parer ses horizons de tous les jours d’une multitude de plantes exotiques remarquables soit par la grande beauté de leurs fleurs, soit par leur joli feuillage, ou encore par leur port curieux. Mais si beaucoup de ces plantes importées l’ont été dans un but uniquement ornemental, d’autres par contre furent introduites dans un but alimentaire (arbres fruitiers, légumes, céréales, etc.) ou encore économique (reboisement, brise-vent, plantes de couverture, engrais verts, etc.).
- L’importance de cette flore est telle qu’elle donne à tout voyageur qui débarque pour la première fois dans un grand centre une fausse idée sur les plantes africaines.
- Si l’on désire connaître l’origine géographique de ces espèces, on est vite frappé par leurs provenances excessivement variées et parfois prodigieusement lointaines. En effet, le moindre jardinet de Dakar n’est-il pas un lieu de rendez-vous international où l’on peut voir des représentants des cinq parties du monde ?
- Les étrangères (Vagrément ; il est bien évident que nous ne pouvons les citer toutes; nous en énumérerons quelques-unes parmi les plus remarquables : la Liane Corail (Antigonon lepto-pus), Polygonacée mexicaine; le Filao (Casuarina equisetifolia), Casuarinacée originaire d’Australie; l’Orgueil de Chine (Cæsal-pinia pulcherrima), Césalpiniacée, et le Lilas du Japon (Melia azedarach), Méliacée, toutes deux des Indes; les Bougainvillées (Bougainvillea spectabilis et glabra) appartenant à la famille des Nyctaginacées et qui sont brésiliennes; l’EIibiscus Rose de Chine (Hibiscus rosa-sinensis), Malvacée de la Malaisie; le
- Flamboyant (Poinciana regia), Césalpiniacée venant de Madagascar; la Rose de Yaoundé (Operculina tuberosa.), Convolvu-lacée de l’Amérique centrale; le Livistona chinensis, Palmier chinois; des Crucifères (Cheiranthus cheiri, Arabis alpina) et des Composées (Calendula, Anthémis, Aster) européennes; des Cactées américaines et indiennes; des Pélargonium, Géraniacées sud-africaines; le Sablier (Hura crepitans), Euphorbiacée sud-américaine; le Pourpier (Portulaca grandijlora), Portulacacée brésilienne et la Portulacaire (Poriulacaria afra) de la même famille mais sud-africaine; des Crassulacées malgaches (Kalan-choe, Bryophyllum), etc.
- Étrangères utiles. — Elles sont également très nombreuses et nous n’en donnerons qu’un court aperçu.
- Espèces productrices de fruits comestibles : L’Anacarde d’Occident (Anacardium occidentale), de la famille des Anacar-diacées, est un arbre originaire de l’Amérique tropicale. Ses produits sont la pomme et la noix de cajou. Ce que l’on appelle pomme cajou n’est autre que le pédoncule du fruit : pédoncule renflé, charnu, juteux, coloré en rouge ou en jaune suivant les variétés et qui se consomme tel quel. Il porte une sorte de gros haricot qui est le véritable fruit appelé noix de cajou. Ce fruit réniforme contient une amande comestible utilisée dans la préparation des confiseries et de la pâtisserie au même titre que la noisette ou l’amande. Cet arbre est très commun dans les endroits sablonneux de la presqu’île du Cap Vert. Signalons que récemment, au Sénégal, trois millions d’amandes ont été mises en terre. Jusqu’à présent, des difficultés de décorticage empêchaient la commercialisation de l’amande, mais ce pro-
- p.207 - vue 210/558
-
-
-
- Fig. 6, 7, 8. — En haut : Un « lougan » d’arachides (Photo Labitte, I.F.A.N.). — /tu milieu : Végétation luxuriante de « niaye », avec palmiers Elaeis (Photo Cocueteux, I.F.A.N.). — En bas : Défrichement d’une niaye en vue de l’établissement de cultures (Photo Labitte, I.F.A.N.).
- blême semble maintenant en voie de résolution puisqu’une société de Marseille serait disposée à acheter toute la production non décortiquée du Sénégal.
- Le Goyavier commun (Psidium guayava), de la famille des “Myrtacées, est un arbuste originaire de l’Amérique tropicale. Son fruit est la goyave.
- Le Manguier (Mangijera indica), Anacardiacée de l’Asie (Inde, Indochine). Son fruit est la mangue.
- Le Papayer (Carica papaya), de la famille de Caricacées, est originaire de l’Amérique tropicale, probablement du Mexique. Son fruit est la papaye.
- Le Corossolier (Anona- muricatd), de la famille des Anacar-diacées, est un petit arbre de l’Amérique tropicale. Son fruit est le corossol.
- Le Sapoliilier (Achras sapota), de la famille des Sapotacées, est originaire de l’Amérique méridionale. Son fruit est la sapotille.
- La Passiflore (Passiflora edulis), de la famille des Passiflora-cées, est une liane originaire de l’Amérique tropicale. Son fruit est la grenadille.
- Les Orangers et Citronniers (Citrus ssp.), de la famille des Rutacées, originaires de l’Asie orientale et australe, Chine et Cochinchine.
- Les Bananiers (Musa ssp.), de la famille des Musacées, originaires des régions les plus chaudes de l’Asie et de la Malaisie.
- Plantes oléifères : Le Sésame (Sesamum in dieu m) est une Pédaliacée originaire, croit-on, de l’Asie tropicale et cultivée depuis la plus haute antiquité en Extrême et en Moyen-Orient. Ses graines donnent une huile comestible. Sa culture, qui est très simple, mériterait d’être développée.
- Le Cocotier (Cocos nucifera), de la famille des Palmiers, semble originaire de l’Archipel indien. Ce Palmier, dispensateur de tant de choses utiles, fournit au commerce un produit qui a pris une importance considérable : le coprah. Il serait souhaitable d’augmenter sensiblement les plantations de Cocotiers de la presqu’île en vue de la production d’une matière industrielle dont l’importance, au point de vue du commerce national, n’a pas besoin d’être démontrée.
- L’Arachide (Arachis hypogæa) est une Papilionacée très vraisemblablement originaire du Brésil. Nul n’ignore qu’elle fournit l’huile d’Arachide tirée de ses graines dites cacahuètes et qu’elle est cultivée en grand au Sénégal au détriment d’autres cultures. Soulignons que la monoculture arachidière pose de graves problèmes au gouvernement sénégalais. Voici ce qu’écrivait récemment à ce sujet M. Joseph M’Baye, ministre de l’Économie et de la Coopération : « L’Arachide est la seule culture industrielle importante qui soit pratiquée au Sénégal. Elle absorbe toute l’énergie des masses paysannes et la vue économique de notre pays est conditionnée par elle. Les différentes actions entreprises ces dernières années, vulgarisation des engrais, des traitements fongicides, de l’utilisation de matériel tracté ou attelé, ont abouti à un tel développement de l’arachide que celle-ci a mordu sur les cultures vivrières. Le Sénégal se voit obligé d’importer des céréales, ce qui est d’autant plus anormal que 85 pour roo de sa population est constituée de paysans. Ainsi, nous arrivons au paradoxe suivant : quand la campagne arachidière est magnifique, comme en 1957-1958 où nous avons exporté 85o 000 t, le Sénégal vit une situation des plus dramatiques. En effet, le problème de l’achat au producteur se pose. Nous exportons au-dessus du cours mondial et, lorsque la France a absorbé le contingent qu’elle nous garantit, le gouvernement sénégalais est obligé de faire un gros effort financier pour éviter la chute des cours et, par là, un malaise social. »
- Plantes saccharifères : La Canne à sucre (Saccharam officina-rnm) est une grande herbe vivace de la famille des Graminées vraisemblablement originaire de l’Inde ou de la Cochinchine, régions où elle fut d’abord cultivée. De là, elle aurait été répandue en Afrique puis en Amérique. Notons qu’elle n’a été
- p.208 - vue 211/558
-
-
-
- trouvée nulle part à l’état sauvage. Aujourd’hui, elle est cultivée dans toutes les régions chaudes du globe. Dans la presqu’île du Cap Vert, il n’existe pas à proprement parler des canneraies mais, par-ci par-là, quelques cultures sans grande importance.
- Plantes textiles : Le Cotonnier. Tous les végétaux producteurs de coton appartiennent au genre Gossypium, de la famille des Malvacées. On sait que les Cotonniers sont originaires les uns du nouveau continent (espèces américaines), les autres de l’ancien continent (espèces asiatiques). Dans la presqu’île, on rencontre çà et là une espèce de Cotonnier (Gossypium hirsutum) qui est américaine.
- Le Fromager ou Kapokier à fleurs blanches (Ceiba pentandra) est un grand arbre de la famille des Bombacacées qui produit le kapok. U est probablement originaire de l’Amérique tropicale.
- Le Jute (Corohorus olitorius) est une plante annuelle, herbacée, appartenant à la famille des Tiliacées et originaire de l'Inde. Les fibres textiles sont extraites des tiges après rouissage de celles-ci, c’est-à-dire après immersion dans de l’eau stagnante.
- Les Agaves sont des plantes américaines de la famille des Amaryllidacées. Les fibres textiles sont contenues dans les feuilles. Plusieurs espèces d'Agave sont cultivées dans la presqu’île mais la plus répandue est VAgave sisalana qui fournit le sisal.
- Plantes tinctoriales : L’Indigotier (Indigofera tinctoria), petit arbrisseau de la famille des Papilionacées, est d’origine asiatique (Inde, Extrême-Orient). La substance tinctoriale ou indigo du commerce est extraite des feuilles de cette plante.
- Le Henné (Laavsonia inermis) de la famille des Lythracées est une espèce qui vient de l’Asie occidentale. C’est un arbuste dont les feuilles sont employées par les femmes pour teindre en rouge diverses parties de leur corps : cheveux, sourcils, paume de la main, plante du pied, ongles. Le Henné n’est cultivé qu’au seul service de la beauté.
- Plantes à caoutchouc : Le Maniçoba ou Céara (Manihot glaziovii) de la famille des Euphorbiacées est originaire du Brésil.
- Le Sa (Ficus retusa) de la famille des Moracées est un Figuier provenant de la Nouvellle-Calédonie.
- Le Cryptostegia grandiflora est une liane indienne de la famille des Asclépiadacées.
- Plantes à essences et parfums : L’Ambrette (Hibiscus abel-moschus) est une plante herbacée de la famille des Malvacées provenant de l’Inde. Ses graines exhalent une odeur de musc assez prononcée.
- La Cassie (Acacia farnesiana), de la famille des Mimosacées, est un arbuste originaire de l’Amérique australe. Les fleurs dégagent un parfum délicieux et pénétrant quelque peu comparable à celui de la violette.
- L’Ylang-ylang (Cananga odorata), de la famille des Anona-cées, est un arbre des Philippines. Les fleurs ont un parfum délicieux que l’on a comparé à celui du narcisse, de l’œillet et de la jacinthe.
- La Citronnelle (Cymbopogon cüratus), de la famille des Graminées, est une herbe vivace de l’Inde. Ses feuilles renferment l'essence de citronnelle.
- Les Eucalyptus sont des arbres presque tous australiens appartenant à la famille des Myrtacées. Les effluves balsamiques de leur feuillage persistant se répandent au loin pendant les chaleurs.
- Le Niaouli (Melaleuca leucadendron) est un arbre de la Nouvelle-Calédonie, également de la famille des Myrtacées. Les feuilles renferment une huile essentielle, aromatique, dont l’odeur rappelle assez celle de l’Eucalyptus : c’est l’essence de cajeput.
- Plantes médicinales : Le Tamarinier (Tamarindus indica), de la famille des Césalpiniacées, est un bel arbre originaire de
- Fig. 9, 10, 11. — En haut : Niaye et paysage substeppique (Photo Guitat, I.F.A.:\.). — /lu milieu : Mare dans une niaye. Remarquer les palmiers à huile derrière une bordure de bananiers (Photo Chérif, I.F.A..N.). — En bas : Cultures maraîchères sous une baobabaie en terrain argileux (Photo Labitte, I.F.A..N.).
- p.209 - vue 212/558
-
-
-
- 210
- Fig. 12 et 13. — En fiant : Cultures maraîchères sur sol sableux (Photo Duchemin, I.F.A.N.). — En bas : Récolte de betteraves dans un potager des environs de Dakar.
- (Photo Labitte, I.F.A.N.).
- l’Inde. La pulpe noirâtre du fruit est un purgatif doux. Elle est très employée par les indigènes pour guérir des maux divers.
- Plantes jéculentes : Le Manioc (Mani-hot ulilissima) est une Euphorbiacée sans doute originaire du Brésil. Il produit des tubercules qui contiennent une fécule abondante servant à la fabrication du tapioca. Le Manioc est une plante très précieuse car elle constitue souvent, dans les régions tropicales, la base de l’alimentation indigène.
- La Patate (Ipomœa batatas), de la famille des Convolvulacées, est d’origine sud-américaine. Ses tubercules à saveur sucrée remplacent la pomme de terre dans beaucoup de pays.
- Plantes céréales : Le Maïs (Zea May s) est une Graminée qui a pour patrie l’Amérique méridionale. Plusieurs variétés sont très largement cultivées par les indigènes.
- Terminons enfin cet exposé en parlant des plantes potagères dont la culture au Cap Vert gagne en importance d’année en année au point de changer la physionomie agricole du Sénégal. En effet, depuis la fin de la seconde guerre mondiale, la ville de Dakar n’a cessé de connaître un développement de plus en plus important. L’accroissement considérable de la grande cité ouest-africaine, l’augmentation sensible du niveau de vie de la population, entraînent parallèlement une augmentation des besoins auxquels il faut faire face constamment. Parmi ceux-ci, figure un approvisionnement intense des marchés en légumes frais et de ce fait il a fallu augmenter dans des proportions importantes la production maraîchère de la presqu’île. A présent, les cultures maraîchères s’étendent sur environ i 8oo ha et la production annuelle en légumes divers atteint actuellement a5 ooo t, représentant une valeur de près d’un milliard de francs C. F. A. (prix producteur). On pense que la production de la presqu’île pourrait être rapidement portée à 35 ooo ou 4o ooo t. Mais la quantité produite présentement est excédentaire par rapport à ce que peut effectivement absorber le Dakar actuel et même tout le reste du Sénégal. D’où la possibilité pour ce dernier d’alimenter un marché extérieur étendu.
- Presque tous les légumes usuellement consommés croissent parfaitement au
- Fig. 14. — Soufrage de choux pommés, près de Dakar.
- (Photo Labitte, I.F.A.N.).
- p.210 - vue 213/558
-
-
-
- 211
- Cap Vert. On y cultive carottes, tomates, salades, radis, choux pommés, poireaux, aubergines, navets, pommes de terre, etc. En ce qui concerne la pomme de terre, dont la production actuelle est de 5 ooo t, deux variétés ont donné des résultats satisfaisants : la « Bintje » et 1’ « Àran Banner ».
- Les habitants de la presqu’île semblent s’adonner de plus en plus à la culture des légumes comme l’atteste le nombre impressionnant des maraîchers : 4 ooo présentement. Ceux-ci cultivent deux sortes de terrains : les « niayes » et les terrains sableux.
- Les niayes sont des bas-fonds humides peuplés par une végétation subguinéenne où domine l’élément caractéristique qui est le Palmier à huile (Elæis gaineensis). Ces formations boisées, véritables boqueteaux toujours verts, tranchent fortement avec la végétation environnante plutôt maigre et d’allure subsleppique. C’est à juste titre que l’on compare souvent ces niayes à des oasis où l’on trouve fraîcheur et verdure. Durant la saison des pluies ou hivernage, qui a lieu de juillet à octobre, le centre de ces terrains est occupé par des mares plus ou moins étendues et pouvant persister plus ou moins longtemps suivant la quantité de pluie tombée. C’est autour de ces nappes d'eau et au fur et à mesure que celles-ci se contractent, par évaporation et infiltration, que les maraîchers ensemencent ces sols féconds qui ne nécessitent pas d’irrigation.
- Les terrains sableux, par contre, demandent pour leur ferti-
- lisation certaines pratiques : arrosage indispensable et enfouissement de quantités importantes de matières organiques. Mais les cultures maraîchères dans ces terrains ne seraient pas possibles si la nappe phréatique se trouvait à une grande profondeur. Celle-ci, fort heureusement, se rencontre à 8-io m de la surface et pour l’atteindre les cultivateurs creusent des puits ou le plus souvent des cuvettes, appelées « séanes », dont les parois sont garnies de marches qui permettent d’aller puiser l’eau nécessaire. Les matières organiques employées pour l’amendement de ces terres consistent en déchets provenant des abattoirs, des huileries (résidus d’arachides) et des pêcheries. Ajoutons que les apports en matières organiques ont été estimées à 2o-3o t par hectare.
- *
- * *
- Notons enfin qu’en introduisant des légumes on a du même coup, sans le vouloir, permis l'implantation de mauvaises herbes comme le Laileron (Sonchus oleraceas), le Mouron des oiseaux (Stellaria media), la Bourse à pasteur (Capsella bursa-paslo-ris), etc.
- E. et A. Naegelé-, I.F.A.N., Dakar.
- LA GENÈSE DE LA GRÊLE
- Dans la Revue de Géographie de Lyon (n° x, 19C0), publiée avec le concours du C.N.R.S., Mme R. Caralp a fait le point d’une nouvelle théorie sur la grêle qu’il semble intéressant de résumer.
- Soudaineté, brièveté du phénomène, puissance dévastatrice, trajectoire nettement délimitée sont les caractéristiques bien connues de l’orage à grêle qui a donné lieu à de nombreuses études, relevant aussi bien de la statistique (assurances...) que de la physique pure (structure du grêlon), physique du globe ou météorologie.
- Dix années d’observation (1949-1959) ont permis aux physiciens de l’Observatoire du Puy-de-Dôme de préciser quelques points, jusque-là obscurs. Le grêlon grossit « par captation et congélation de gouttelettes liquides » qui, à une température négative, constituent ce qu’il est convenu d’appeler un « nuage surfondu ». Il présente des parties transparentes et des parties opaques, les secondes étant « formées par des gouttelettes congelées aussitôt après leur captation », les premières résultant d’une congélation progressive. Les deux phénomènes semblent dépendre l’un de l’autre. La forme du grêlon est fonction des mouvements qu’il décrit dans le nuage à grêle (formes de révolution causées par des mouvements de rotation, grêlons à aspérités causés par la soudure de grêlons plus petits).
- Pour grossir, le grêlon doit se maintenir quelque temps dans la zone surfondue du nuage, une vingtaine de minutes, par exemple, pour un grêlon de 3 cm de diamètre. Quant à définir ce qui provoque la formation du grêlon, on ne le peut encore. Parmi d’autres causes, un cristal de glace pourrait être incriminé. On sait du moins aujourd’hui que la genèse du grêlon a lieu dans la région surfondue du cumulonimbus qui se présente sous forme d’une cheminée d’ascendance, haute, de petite section, inclinée en haute altitude. Au cours de son ascension le grêlon croît, mais cette croissance se l’alentit au fur et à mesure de sa progression et de l’augmentation de son poids. Sa chute n’est presque jamais verticale à cause de la vitesse des courants ascendants et de l’inclinaison de la cheminée, ce qui explique certaines chutes apparentes à partir d’un ciel bleu.
- Les plus dévastateurs des orages à grêle paraissent relever des cumulonimbus à grand développement vertical. Des observations ont été faites sur des cumulonimbus dont les altitudes maximales s’inscrivaient entre 5,3 et i4,5' km. Or, ceux dont les altitudes maximales correspondaient à une altitude supérieure à 12,5 km ont été les plus dévastateurs, ce que justifie la possibilité accrue, par la durée, de la croissance du grêlon et ce qu’ont confirmé les études effectuées au radar. Ainsi, pour 16 km d’altitude maximale d’écho radar, la probabilité de grêle dévastatrice atteindrait 67 pour 100 contre 33 pour 100 pour une hauteur d’éclio de 10,7 km.
- Le phénomène dévastateur ne se manifeste qu’autant que les vitesses du vent en altitude sont très élevées. Durant 76 journées orageuses, des radio-sondages ont été effectués à Nîmes et Bordeaux.
- D’où est apparue une nette relation entre la vitesse extrême du vent entre sol et tropopause d’une part et d’autre part les dégâts enregistrés dans 38 cas. Ces vitesses, qui intéressaient généralement les zones compxâses entre 7 et 11 km, atteignaient de 90 à 320 km/h.
- A noter, par ailleurs, l’analogie complète que l’on peut établir entre les orages équatoriaux et ceux du Sud-Ouest de la France (extension verticale, vitesse des courants ascendants, activité électrique...).
- « L’existence du vent en altitude s’imposerait pour le maintien de la cheminée d’ascendance indispensable pour le développement du grêlon. » Suivant la vitesse du vent en altitude, on peut même arriver à préciser le diamètre des grêlons.
- En ce qui concerne la lutte contre les nuages de grêle, on doit agir précocement sur les basses couches de l’atmosphère, par l’iodure d’argent, par exemple, afin d’amorcer des pi'éci-pitations dans les cumulus et interdire le développement des cheminées et, par suite, leur liaison avec le courant supérieur. Peut-être une surchauffe artificielle au sol (brûleurs à fuel) couplée sur le courant supérieur permettrait-elle de localiser les chutes de grêle en des zones où elles seraient moins déArasla-trices.
- Pierre Gauroy.
- p.211 - vue 214/558
-
-
-
- 212
- Progrès récents
- de l’Océanographie des grands fonds
- Depuis une dizaine d’années les recherches se sont poursuivies sur une grande échelle afin d’avoir une meilleure connaissance des grands fonds marins. Un certain nombre d’articles ont déjà rendu compte ici même de quelques aspects de ces travaux (1). Rappelons que le prince de Monaco fut le premier en 1901 au large des îles du Cap Vert, sur son yacht Princesse Alice, à ramener un poisson d’une profondeur de 6 o35 m. En 1947-1948, l’expédition suédoise des grands fonds, à bord du navire Albatross, réussit un dragage à 8 000 m au nord des îles Vierges dans l’Océan Pacifique. L’expédition danoise de la Galathea, poursuivie durant un an et demi en 1950-1951, est sans doute la plus connue du grand public. De nombreux animaux y ont été ramenés de profondeurs supérieures à 10000 m; les résultats scientifiques sont encore en cours de publication dans le Galathea Report qui en est déjà à son troisième volume.
- Les expéditions océanographiques soviétiques sont bien moins connues dans notre pays. Leur début remonte à 1949 avec la
- 1. Voir en particulier : Résultats biologiques des campagnes du bathyscaphe F.N.R.S. III, par L. CnopAnn, La Nature, mai 1959, p. 224-226 ; L’exploration des mers profondes, par Torben Wolff, La Nature, octobre 1959, p. 425-431 : Le Vitiaz a sondé 11 034 m dans la fosse des Mariannes, La Nature, novembre 1959, p. 500.
- première croisière du Vitiaz; ce navire en est à l’heure actuelle à son 27e voyage dans l’Océan Pacifique et, pendant une seule année (l’Année Géophysique Internationale de 1957), 62 000 milles marins ont été parcourus par lui. Le Vitiaz déplace 5 5oo tonneaux et possède une autonomie suffisante pour rester quatre mois en mer sans toucher un port : jS scientifiques sont logés à bord, où se trouvent treize laboratoires spécialisés (hydrologie, météorologie, microbiologie, étude du plancton, du ben-thos, etc.). Une ancre permet de mouiller par plus de 10 000 m de fond et un treuil muni de 16 000 m de câble d’acier permet des dragages aux plus grandes profondeurs.
- Dans l’Océan Atlantique le Michael Lomonossov, lancé en 1957, a le même rôle que le Vitiaz dans le Pacifique. Jaugeant 6000 tonneaux, ce bateau héberge 65 scientifiques; il porte un hélicoptère sur son pont et possède un navire à moteur auxiliaire ayant plusieurs jours d’autonomie. Le Lomonossov est également équipé pour opérer jusqu’à 12 000 m.
- Le Zaria semble être le seul navire non magnétique du monde. C’est un trois-mâts de 58o tonneaux avec un moteur auxiliaire. Il est entièrement construit en bois, cuivre et bronze, et a déjà parcouru 4o 000 milles depuis son lancement en août 1957. Ce navire soviétique est destiné à des recherches sur le magnétisme terrestre.
- Fig. 1. — Les grandes fosses de l’Océan Pacifique.
- Les fosses de plus de 6 000 m sont en noir. A, fosse des Iles Aléoutiennes ; B, des îles Kouriles ; C, du Japon ; D, des îles Riou-Kiou ; E, des îles Mariannes ; F, des îles Bonin ; G, des Philippines ; II, des îles Palaos ; I, des îles de la Sonde ; J, de la mer de Banda ; K, des îles Salomon ; L, des Nouvelles-Hébrides ; M, des îles Tonga ; N, des îles Kermadec ; O, du Guatemala ; P, des Andes.
- p.212 - vue 215/558
-
-
-
- 213
- Fig. 2 (ci-contre). — Profondeurs de la fosse des Philippines d’après les sondages de la Galathea.
- L’observation directe a également fait des progrès considérables, en particulier avec la mise au point des bathyscaphes par le professeur Piccard. Récemment le Trieste, acheté par la marine américaine, a réalisé une plongée record dans la fosse des îles Mariannes : il a atteint le fond à n 52i m, battant ainsi le record de sondage obtenu dans la même fosse par le Vitiaz à ii o3/| m (voir plus loin).
- Nous examinerons ici quelques résultats obtenus dans le domaine de l’océanographie physique; nous insisterons davantage sur les connaissances acquises en océanographie biologique. Selon un usage aujourd’hui répandu, nous appellerons abyssales les profondeurs de plus de 2 000 m, hadales celles qui dépassent 6 000 m.
- Océanographie physique
- L’Océan Pacifique a été le lieu d’étude préféré de la plupart des expéditions consacrées aux grands fonds. Grâce aux sondages par ultrasons poursuivis en permanence, par le Vitiaz en particulier, la carte bathymétrique a été profondément remaniée. De nombreuses fosses ont vu leur profondeur augmentée; cinq dépassent maintenant 10 000 m (fig. 1). Le tableau suivant donne l’importance relative des surfaces occupées par les diverses zones de profondeur :
- Profondeurs Zones Portion de la surface totale des océans
- 0- 200 m Zone superficielle. 7,6 p. 100
- 200-2 000 m Zone de transition. 8,5 »
- 2 000-6 000 m Zone abyssale. 82 »
- )> 6 000 m Zone hadale (ultra-abyssale). i,9 »
- Il est intéressant de remarquer que toutes ces fosses sont extrêmement allongées et situées en bordure de guirlandes d’îles volcaniques fréquemment agitées par des tremblements de terre (fig. 2 et 3). Les anomalies positives de la pesanteur y sont très importantes. La théorie des courants de convexion dans les profondeurs de la Terre semble pouvoir expliquer ces diverses observations.
- La topographie générale du fond des océans est maintenant bien mieux connue. De nombreuses chaînes de montagnes sous-marines ont été repérées. Ces reliefs jouent certainement un rôle considérable dans la circulation générale des eaux et aussi dans la répartition des êtres vivants.
- Une découverte imprévue concerne l’existence de courants marins assez rapides à de grandes profondeurs. De tels courants
- Fig. 3. — Profondeurs de la fosse des iles Kouriles d’après les sondages du Vitiaz.
- p.213 - vue 216/558
-
-
-
- 214
- .5000m
- 30 milles
- .10 000m
- .5000 m
- 3000 m
- rû
- Fig. 4. — Coupes à travers trois fosses abyssales.
- A, Fosse des Philippines au large de l’ile Di-nagat, sur le parallèle 10°25' Nord (d’après les sondages de la Galathea). D, Coupe de la fosse des îles Kouriles au large de l’ile Rasshua. C, Coupe de la fosse des îles Ma-riannes (d’après les sondages du Vitiaz).
- 100 milles
- .5000m.
- .10 000m
- étaient jusqu’ici considérés comme improbables. C’est là un fait d’une importance pratique considérable. Il est d’ailleurs évident que des échanges ont lieu entre les couches profondes et les couches superficielles de l’océan. Sans quoi on ne pourrait pas expliquer la teneur importante en oxygène dissous de l’eau des fosses abyssales : 4,4 ml/litre de a5 à 5o m de profondeur et 3,i à 9 864 m dans la fosse des Philippines, d’après les analyses de la Galathea (fig. 5).
- La température et la salinité ont pu être étudiées de façon précise grâce aux treuils hydrologiques pouvant opérer à grande profondeur. La figure 5 donne quelques résultats. On
- /i\ 200o\ f 8000ftiP'i ’ ô)25M\\fc^'5000(3,t)
- (3,W îgg^
- —. fosse des Philippines —+ Fosse des Kermadec
- Fig. 5. — Diagramme température-salinité
- d’après les résultats de la Galathea.
- Res chiffres soulignés indiquent la profondeur ; les chiffres entre parenthèses indiquent la teneur en oxygène en millilitres par litre.
- note un léger réchauffement au voisinage du fond : la comparaison entre les deux courbes montre que les conditions hydro-logiques sont assez différentes entre les deux fosses des Philippines et des îles Kermadec.
- Les plongées en bathyscaphe et l’usage de bathyphotomètres ont permis l’étude de l’absorption de la lumière. L’intensité lumineuse à 6oo m de profondeur est dix milliards de fois
- Intensité lumineuse (uW/cm1)
- Intensité lumineuse en fonction de la profondeur.
- Fig. 6.
- Mesures faites le 19 septembre 1955 à 350 km au sud-est de New York En tirets, intensité lumineuse des animaux luminescents.
- (D’après Clame et AVertiieim).
- plus faible qu’en surface (fig. 6). De nombreux échantillons de fond ont été rapportés grâce à des carottiers de plus en plus perfectionnés (celui du Vitiaz remonte des prélèvements de 35 m de long). C’est ainsi que des boues à diatomées ont été recueillies dans le Pacifique central par 6 ooo m de fond alors que ces dépôts étaient jusqu’à présent considérés comme caractéristiques de la zone arctique.
- Océanographie biologique
- C’est dans ce domaine que nous possédons les renseignements les plus abondants. La preuve est faite aujourd’hui que la vie peut exister jusqu’aux plus grandes profondeurs.
- Principaux représentants de la faune abyssale. —
- En ces dix dernières années les connaissances zoologiques ont fait de grands progrès grâce à la découverte de nouveaux groupes animaux. Les plus remarquables sont les Pogonophores et le Mollusque Neopilina, représentant d’un groupe que l’on croyait complètement éteint depuis des centaines de millions d’années.
- Les Pogonophores. — Etudiant en 19*4 les matériaux recueillis dans les mers de l’archipel malais par l’expédition néerlandaise du Siboga, Caullery décrivit sous le nom dé Sibo-glinum un organisme énigmatique qui avait l’aspect d’un ver. Le mauvais état des échantillons ne permit pas une étude détaillée mais le nouvel animal fut cependant placé, avec justesse, au voisinage des Balanoglosses, invertébrés marins d’aspect vermiîorme. En 1933, une expédition soviétique découvrit dans la mer d’Okhotsk une nouvelle espèce, voisine du Siboglinum, pour laquelle fut créée la classe des Pogonophores. Mais c’est à partir de 1949 que le Vitiaz a ramené, parfois par milliers d’exemplaires, des Pogonophores qui vivent jusqu’à 10000 m. Dans la fosse des îles Kouriles un seul coup de filet a remonté de 8 84o m 5 700 animaux dont 2 000 Pogonophores, 2 85o Holothuries, 85 Ëchiurides, i5o Crinoïdes et x6o Polychètes.
- Ces découvertes ont attiré l’attention des zoologistes sur les Pogonophores et l’existence de ces curieux Invertébrés a été signalée dans d’autres régions. On en a trouvé quelques espèces
- p.214 - vue 217/558
-
-
-
- 215
- dans l’Océan Atlantique vers i5o m seulement de profondeur, à l’ouest de la côte irlandaise et le long du talus continental entre 55o et i 200 m au large des côtes de la Grande-Bretagne. Une expédition danoise a signalé un Siboglinum dans le Ska-gerrak vers 5oo m. Bien que leur maximum d’abondance semble se trouver dans les eaux profondes du nord-ouest de l’Océan Pacifique d’où une trentaine d’espèces, réparties en deux ordres et cinq familles, sont maintenant connues, ces animaux doivent vraisemblablement se rencontrer dans de nombreuses autres régions et à des profondeurs plus faibles. Le zoologiste anglais A. J. Southvvard suppose que les Pogonophores peuvent avoir échappé aux recherches en raison de la ressemblance de leurs tubes avec les fibres utilisées dans la construction des dragues et des chaluts.
- L’anatomie et le développement des Pogonophores sont bien
- Fig. 7. — Anatomie des Pogonophores, d’après A. V. Ivanov.
- A, aspect de Spirobrachia grandis; 1, tentacules; 2, lobe céphalique; 3, région antérieure du corps ; 4, sillon limitant la région antérieure ; 5, papilles adhésives ; 6, fragment de tube. B, section transversale à travers la couronne tentaculaire de Lamellisabella zachsi, montrant le tube formé par l’accolement des divers tentacules ; noter les pinnules à l’intérieur.
- C, coupe d’un tentacule ; eu, cuticule ; ép, épithélium ; nt, nerf tentaculaire ; ua, vaisseau tentaculaire afférent ; vb, vaisseau tentaculaire efférent ; ce, cellules ciliées ; n, noyau d’une cellule formant un pinnule ; vpa, vaisseau pinnulaire afférent ; vpb, vaisseau pinnulaire efféreDt.
- connus grâce aux travaux de A. V. Ivanov parus surtout dans le Zoologicheskii Zhurnal. Les figures 7 et 8 sont redessinées d’après cet auteur. La particularité la plus marquante est l’allongement extrême du corps : Lamellisabella zachsi mesure 17 cm de long sur o,5 à 1,2 mm de diamètre. Le corps est toujours logé dans un tube. Trois parties peuvent être distinguées : une région antérieure qui porte de longs tentacules
- Fig. 8. — Schéma
- d'une larve de Siboglinum caulleryi, montrant la segmentation.
- (D’après A. V. Ivanov).
- ayant valu son nom au groupe; une région postérieure ou tronc, divisée en région préannulaire et région postannulaire, cette dernière portant des rangées régulières de plaquettes chi-tineuses qui donnent une fausse impression de segmentation. En réalité, l’étude anatomique montre l’existence de trois segments seulement.
- Les Pogonophores n’ont jamais d’appareil digestif ; la bouche et l’anus font totalement défaut. Cette particularité est extraordinaire pour des animaux non parasites. Les besoins en nourriture semblent très grands pour plusieurs raisons : la production de spermatozoïdes et d’œufs riches en vitellus est énorme; les nombreuses glandes qui fabriquent le tube où vit l’animal ont une activité intense; enfin la croissance semble continuer même chez l’adulte, en particulier au niveau des tentacules.
- La structure de ces tentacules est toujours plus ou moins la même. Chaque tentacule est un long prolongement de la paroi du corps contenant un canal cœlomique en relation avec le cœlome du premier segment. Sur leur face interne sont des rangées de pinnules, chaque pinnule étant constitué par le prolongement d’une cellule et parcouru par deux vaisseaux (fig. 7). Ces vaisseaux communiquent avec les vaisseaux tentaculaires eux-mêmes. A la base des pinnules se remarquent des gouttières longitudinales ciliées. Quel peut être le rôle de cet appareil tentaculaire si perfectionné? Étant fixés, les Pogonophores doivent se nourrir des petits animaux du plancton et des détritus amenés par le courant d’eau créé par les gouttières ciliées des tentacules. Les pinnules jouent le rôle d’un filtre qui retient les particules alimentaires, et les enzymes digestives sont sécrétées par des cellules glandulaires (fig. 7). La ressemblance des pinnules avec les villosités intestinales est telle qu’il est difficile de leur refuser un rôle dans l’absorption des produits de la digestion.
- Ceinture antérieure de cils vibratiles
- Ur cœlome
- Sillon postérieur
- 3erne paire de sacs cœlomiques
- p.215 - vue 218/558
-
-
-
- 210
- Le développement des Pogonophores montre l’existence chez Sigoblinum caulleryi d’une larve munie d’un sac cœlomique antérieur impair et de deux paires de sacs cœlomiques postérieurs. Il existe une ceinture antérieure de cils vibratiles (fig. 8).
- Fig. 9- — Diagrammme de l’organisation de Neopilina galatheæ.
- D’après le volume 3 de Galathea Report ; seuls certains organes ont été représentés : bo, bouche; cc, commissure cérébroïde ; t.pr, tentacule préoral ; ve, vélum ; ne^ne,, néphridies ; br^br,, branchies ; g, glandes génitales ; an, anus ; st, statocyste ; ao, aorte ; ve, ventricule du cœur ; A-H, muscles rétracteurs du pied.
- ;oma
- Fig. 10. — Répartition de deux groupes d’invertébrés en fonction de la profondeur, d’après Vinogradova.
- ' .JUio^cmdleuA. vu milliers de met «a
- « Neopilina » et autres... — La découverte sensationnelle du Neopilina galatheæ, faite au large de l’Amérique Centrale vers 4 ooo m de profondeur, a déjà fait l’objet d’un article avec figures dans La Nature (avril 1957, p. i3i-i33). Notons donc seulement que la symétrie bilatérale et les traces nombreuses de métamérisation en sont les caractères les plus marquants. La figure 9, empruntée au volume 3 de Galathea Report, montre l’existence de 10 paires de connexions nerveuses cérébro-pédieuses, 8 paires de muscles rétracteurs du pied, 6 paires d’organes excréteurs (néphridies), 5 paires de branchies. Ces caractères permettent de rattacher ce Mollusque à la famille des Tryblidiacées connue jusqu’ici uniquement du début de l'ère primaire (Cambrien et Silurien). C’est donc un véritable « fossile vivant » que les recherches de la Galathea nous ont fait connaître. On peut maintenant supposer, avec beaucoup de vraisemblance, que les Mollusques dérivent, comme les Anné-lides et les Arthropodes, d’ancêtres segmentés.
- Il existe d’autres groupes caractéristiques des grandes profondeurs. Parmi les Étoiles de mer, l’ordre primitif des Pliane-rozonia et parmi les „ Holothuries l’ordre des Élasipodes ont leur maximum de fréquence vers 2 5oo et 4 000 m et descendent jusqu’à 8000 et 10700 m (fig. 10); chez les Éponges l’ordre des Cornacuspongides présente un maximum d’abondance vers 4 000 m et est représenté jusqu’à plus de 7 000 m. Les Éponges Triaxonides, des Vers (Macellicephala), certains Crustacés... sont également caractéristiques de la faune abyssale. Il est i-emarquable que beaucoup de ces animaux appartiennent à des groupes primitifs qui ont conservé des caractères archaïques.
- Nous venons d’énumérer les animaux du fond qui constituent le benthos; mais il existe aussi des animaux qui vivent en pleine eau et dont les plus petits constituent le plancton. La récolte du plancton de profondeur se fait à l’aide de filets que l’on immerge fermés et que l’on ouvre à la profondeur voulue; le filet est refermé avant d’être ramené à la surface. Seul le Vitiaz a, pour l’instant, employé de tels filets en zone hadale. La pêche la plus profonde a été faite entre 8 5oo et 6 000 m dans la fosse des îles Kouriles. Elle rapporta une faune extrêmement riche, comprenant en particulier 29 espèces de Crustacés dont l’une appartient à une famille nouvelle, les Vitiazanidés (Amphipodes). D’autres pêches ont été faites récemment vers 9 000 m dans la fosse de la Nouvelle-Bretagne mais on ne possède pas encore de renseignements à leur sujet Enfin le poisson le plus profond, Careproctus amblystomopsis, décrit par Andriachev en 1955, a été pris à 7 587 m dans la fosse du Japon.
- Une famille de bactéries caractéristiques de la zone abyssale a été signalée ici même (La Nature, août 1968, p. 326-327) ; rappelons qu’il s’agit des Krassilnikovia avec deux espèces découvertes entre 2 5oo et 5 000 m dans la fosse des îles Kouriles.
- Fig. 11. — Un Crustacé hadal, Lepechinella wolffi, pris à 6 770 m dans la fosse des îles Kermadec.
- Les péréiopodes 3, 5 et 6 ne sont pas représentés.
- p.216 - vue 219/558
-
-
-
- 217
- Caractères de la faune hadale. — La plupart des animaux qui habitent les fosses d’une profondeur supérieure à 6 ooo m sont caractérisés par la décoloration du corps qui est blanchâtre, l’absence d’yeux, l’existence fréquente chez les Crustacés d’épines dont la présence s’explique difficilement. La calcification est faible, ce qui rend les coquilles et les carapaces fragiles ; les appendices sont souvent démesurément allongés (fig. n). Le trait le plus frappant est le « gigantisme abyssal » qui affecte bon nombre d’espèces. Le Crustacé llyarachna antarctica mesure de 5,3 à 6,3 mm quand il vit à faible profondeur dans l’Antarctique et il atteint i5,2 mm dans la fosse des îles Kermadec. Un autre Crustacé, Storthyngura (ragilis, présente les variations de taille suivantes (d’après Wolff) :
- Température Taille
- Profondeur de l'eau de l’animal
- 3 490 m 1,8°
- 2 930 m l,2o
- 3 290 m 0,S°
- 2 310 m 0,3°
- C 12 mm
- C 17 mm
- G 17 mm
- G 30 mm
- Selon les auteurs danois, l’augmentation de taille ne serait pas due à la profondeur, donc à la pression hydrostatique; ils l’attribuent plutôt à la basse température qui, en ralentissant la vitesse de croissance, permettrait à celle-ci de se poursuivre plus longtemps. Cette interprétation est contredite par le Russe Birstein. Selon ce dernier il n’y aurait pas de corrélation entre la taille et la température de l’eau. Par contre la profondeur influerait sur la taille, ce qui ferait supposer une action de la pression hydrostatique sur le métabolisme
- (fig- 12).
- VS
- 5,0
- 1,5
- 0
- 1,5
- 15 30 VS 15 50 V5
- Fig. 12. —«- Diagrammes relatifs aux espèces du genre Storthyngura (Crustacés Isopodes).
- A gauche, relation entre la profondeur (en ordonnées, en milliers de mètres) et la taille (en abscisses, en mm) ; à droite, absence de relation entre la température de l’eau (en ordonnées, en °C) et la taille (en ordonnées,
- en mm).
- De nombreux Invertébrés benthiques sont des mangeurs de boue qu’ils filtrent pour en extraire les bactéries; d’autres exploitent des débris végétaux venus parfois de fort loin (on a retrouvé des restes de Palmiers dans le fond de la fosse des Philippines!), des coques de Radiolaires, des restes de Polychètes ou de Spongiaires. Les bactéries des sédiments des grands fonds ont donc un rôle primordial. Les espèces autotrophes assurent en effet la synthèse de produits organiques à partir de composés inorganiques (C02, bicarbonates, ammoniaque, méthane, hydrogène sulfuré). C’est là la seule source de matière organique en dehors de la zone superficielle éclairée où intervient la photosynthèse.
- Les bactéries hétérotrophes, les plus nombreuses, utilisent toutes les matières organiques présentes au fond, y compris les produits d’excrétion et de décomposition des cadavres.
- 6o à 70 pour 100 du carbone extrait sont transformés en C02, le reste sert à constituer le protoplasme.
- La matière organique des complexes stables tels que la kératine, la lignine, la cellulose, indigestible par les autres êtres vivants, est ainsi a remobilisée 3) par les bactéries qui vivent sur le fond ou dans le tube digestif des Invertébrés. Beaucoup de ces bactéries marines réalisent la synthèse des vitamines (notamment B12, du carotène précurseur de la vitamine A, de la provitamine D). Elles sont en outre responsables de la bioluminescence.
- Au total, la production bactérienne serait, d’après Zo Bell, de l’ordre de 0,9 g/m2/an de matière organique. C’est la source essentielle sinon exclusive de la matière alimentaire utilisable par les Invertébrés et les Poissons. Le poids des animaux qui vivent sur la même surface serait voisin en moyenne de 1 g/m2. Mais la teneur en eau de ces Métazoaires est énorme et croit avec la profondeur, atteignant 98 pour 100 vers 10 000 m. Cette « dilution » de la matière vivante élimine les prédateurs du domaine ultra-abyssal. En effet, la dépense d’énergie pour rechercher les proies serait supérieure à celle que ces proies pourraient fournir. C’est là la cause essentielle de la pauvreté de la vie dans les grands fonds où seules peuvent subsister des formes qui ont peu de besoins, susceptibles de s’accommoder d’une vie précaire que la moindre concurrence suffirait à anéantir.
- Répartition et densité de la faune abyssale. —
- La répartition des espèces abyssales avec la profondeur commence à être bien connue. Nous avons déjà vu quelques exemples (fig. xo). A l’heure actuelle plus de 3oo espèces sont signalées au delà de 6000 m; “4 ne se trouvent que dans cette zone; si on se limite aux zones inférieures à 7000 m, le nombre d’espèces spéciales tombe à 62. Quatorze genres et sous-genres sont endémiques de la zone ultra-abyssale ainsi que deux familles : les Galathéanthémidés (Anémones de mer) et les Vitiazanidés (Crustacés Amphipodes). Le tableau I indique le nombre d’espèces des différents groupes aux profondeurs supérieures à 6 000 m (d’après les résultats de la Galathea).
- Tableau I. — Nombre d’espèces selon la profondeur
- Profondeurs . 6 000- 7 000 m 7 000-8 000 m 8 000-9 000 m 9 000-10 000 m 10 000-10 700 m
- Nombre de pêches. 9 6 6 6 5
- Nombre d’espèces
- Éponges. . 7-8 — 1-2 — —
- Cœlentérés . i3-i4 7 7 4 2
- Vers Polychètes . 27 l6 17 6 7
- Vers Géphyriens . 6-8 2 4-5 I 1
- Crustacés . 26 18 I2-l3 4 6-7
- Mollusques . 20 i3 9-10 9 4
- Echinodermes . 3x j3 IO-II 7 5
- Pogonophores . — — 3 3 —
- Divers .... 6 5 2 I 1
- Total. . . i36-i4o 74-75 65-69 35 26-27
- Nombre rapporté à 9 pêches . i36-x4o ni 98-103 79 47-49
- La figure i3, empruntée à Zenkevitch, correspond à la partie nord-ouest de l’Océan Pacifique.
- Si certaines espèces semblent localisées à des profondeurs à peu près constantes, d’autres montrent une grande ubiquité, traduisant une remarquable indifférence aux variations de près-
- p.217 - vue 220/558
-
-
-
- 213
- Fig. 13. Nombre d’espèces du benthos et du plancton en fonction de la profondeur> dans le Nord-Ouest de l’Océan Pacifique.
- Fig. 14. — Modifications de la biomasse du plancton et du benthos à différentes profondeurs dans le Nord-Ouest du Pacifique.
- Sur une section schématique de la fosse des îles Kouriles, de la côte à 1 80Ô km au large.
- (D'après Zemeevitch et Bibsteis).
- sion hydrostatique : l’Isopode Euryope nodifrons se capture depuis 2 5oo m jusqu’à 7 000 m et l’Holothurie Elpidia gla-cialis de 200 à 9 000 m !
- Les variations de densité (biomasse) du plancton et du benthos dans la fosse des îles Kouriles sont représentées par la figure i4. La décroissance du poids de matière vivante ben-thique est très rapide en allant vers le large; l’éloignement du rivage et l’accroissement de la profondeur agissent dans le même sens. Dans les deux cas il y a certainement une raréfaction des apports de matière assimilable. Un échantillon prélevé par la Galathea dans la fosse de la mer de Banda à 6 85o m contenait une Holothurie, 2 Lamellibranches, 3 Crustacés, 6 Polychètes et des fragments divers, le tout d’un poids de 22 g; un autre prélèvement effectué à 7 270 m contenait 3 Crustacés, 2 Lamellibranches pesant 2,5 g. Le tableau II donne des résultats relatifs à deux fosses.
- Le problème de la répartition géographique de la faune abyssale a été examiné par N. V. Vinogradova. L’étude de
- 1 o3i espèces benthiques d’invertébrés capturés au delà de
- 2 000 m montre que 84 pour xoo de ces espèces sont confinées dans un seul océan, et que seulement 4 pour 100 habitent à la fois le Pacifique, l’Océan Atlantique et l’Océan Indien. Chaque océan possède donc sa faune caractéristique. Dans l’Atlantique et le Pacifique 75 pour 100 des espèces abyssales sont endémiques; le pourcentage est un peu plus faible dans
- Tableau IL — Densité de la faune en deux fosses
- Groupes Fosse des Kouriles 9 7°o-9 95° rn (1 coup de chalut) Fosse des Philippines io 026-10 260 m (2 coups de chalut)
- Espèces Exemplaires Espèces Exemplaires
- Anémones de mer . I 4o
- Polychètes . I 2 — —
- Lamellibranches. . — — I 5
- Oursins . I 16 I 5
- Crustacés — — 3 4
- Holothuries :
- (Genre Elpidia). I 2 I I I I
- (Genre Mymoiro-
- chus 1 . I I I I
- Pogonophmes . 2 16 — —
- T liai . . . 6 246 8 i35
- l’Océan Indien. Cependant les genres et les espèces sont généralement plus largement distribués. L’endémisme augmente avec la profondeur.
- La cause essentielle de la répartition des espèces abyssales semble être le relief du fond des océans. Les Invertébrés benthiques qui ont une large répartition verticale ont aussi une grande dispersion horizontale; en revanche, les espèces inféodées à une profondeur déterminée sont plus étroitement localisées. En conséquence, les limites des régions zoogéographiques correspondront aux rides sous-marines et autres zones de relief accentué.
- L’étude de la répartition de certaines espèces d'Holothuries ou de Crustacés montre un enfoncement équatorial : vivant dans l’Océan Arctique à faible profondeur, elles s’enfoncent dans la zone intertropicale pour trouver des températures qui leur conviennent.
- Les origines de la faune hadale. — Une explication des origines de la faune hadale a été fournie par Bruun à l’aide des résultats obtenus par les géologues dans leurs tentatives pour connaître le paléoclimat de l’ère tertiaire. Voici, sommairement résumé, le principe de cette méthode.
- L’oxygène naturel est un mélange de deux isotopes : l’un de poids atomique 16, l’autre de poids atomique 18; le premier est largement dominant. Urey a montré que, lors de la formation de carbonate de calcium dans l’eau à la température de o° C, le rapport 180/160 est égal à 1,026/600. A 25° C ce rapport tombe à 1,022/500. Ainsi pour une augmentation de température de i° C, le rapport de 180 à 160 change de 0,176 pour 100. On possède donc un thermomètre très fidèle qui permet de mesurer la température de formation des coquilles et des tests calcaires, après s’être assuré que les variations du rapport 180/1G0 sont négligeables après la mort de l’animal.
- De nombreux Foraminifères du fond du Pacifique (en particulier Cassidulina spinijera, Gyroidina zelandic.a, Laticarinina bullbrooki) ramenés lors des carottages de l’Expédition suédoise des Grands Fonds ont été étudiés par Emiliani et Edwards. Ces auteurs constatent un abaissement de la température qui est passée de 10,4 ± o,5° à l’Oligocène moyen à 7,0 + o,5° au Miocène moyen et à 2,2 + o,5° au Pléistocène supérieur ; aujourd’hui la température moyenne des grands fonds est de 1,7°, soit un abaissement de 8° environ. Ce refroidissement est expliqué par les glaciations quaternaires.
- Partant de ces faits, Bruun admet que seules les espèces eurythermes et eurybathes (c’est-à-dire capables de supporter de grandes variations de température et de pression) ont pu survivre. La faune hadale aurait alors deux origines : i° Des
- p.218 - vue 221/558
-
-
-
- 219
- espèces reliques d’une faune préglaciaire qui aurait été décimée en grande partie; 20 Après le début de la première glaciation une nouvelle invasion des fosses océaniques par des espèces eurvbathes aurait eu lieu ; cette invasion se produirait encore de nos jours, en particulier à partir des régions polaires.
- Cette interprétation est critiquée par Birstein. D’après lui les Foraminifères utilisés par Emiliani et Edwards pour l’évaluation des températures anciennes sont des espèces qui vivent non pas sur le fond mais entre 5o et 200 m. Les mesures obte-
- nues correspondent donc à des températures superficielles et rien ne prouve qu’il y ait eu des changements de température dans les abysses. On peut alors considérer les grands fonds océaniques comme un asile dans lequel, à une température relativement stable, se sont conservés jusqu’à nos jours des espèces primitives disparues dans les eaux peu profondes.
- Roger Dajoz ,
- Agrégé de l’Université.
- Le « Trieste » est descendu à 11 521 m dans la fosse des Mariannes
- Pour la première fois sans doute dans l’histoire de l’océanographie, des hommes sont descendus dans la mer à une profondeur qui n’avait pas été atteinte par les plus profonds sondages par fil ou par son. Le 22 janvier 1960, le bathyscaphe Trieste, ayant à son bord Jacques Piccard, fils de
- l’inventeur, et un officier de marine américain, est descendu dans la fosse des Iles Mariannes à 11 52i m. Le Trieste a atteint le fond en L\ h 8 mn et, après une pause de 3o mn, il est remonté en 3 h 17 mn. Le fond était très mou et des animaux y ont été observés.
- La sécrétion attractive stérilise les
- Depuis une dizaine d’années, il a été établi que les reines d’abeilles produisent une sécrétion dont l’un des caractères est la forte attractivité à l’égard des jeunes ouvrières. Celles-ci, attirées par l’odeur de la reine, viennent lécher son tégument et l’absorption de la substance attractive semble être la cause de l’inhibition du développement de leurs ovaires. En effet, certains travaux, ceux de Müssbichler en particulier (1952), ont permis de reconnaître que de jeunes abeilles soumises à un régime contenant suffisamment d’hydrates de carbone et de protéines développent leurs ovaires si elles ne se trouvent pas en contact avec une reine. C’est seulement quand cette dernière condition est remplie qu’on peut observer un développement rapide et complet. On avait alors suggéré l’existence d’une substance inhibitrice provenant de la reine et cette substance a pu être obtenue en extraits alcooliques ou acétoniques. Mais, en ig56 (Proc. R. Ent. Soc., London, A, 3i, p. 12), C. G. Butler a montré que les ouvrières ne cherchent pas à élever de reines si elles reçoivent une ration suffisante de cette « substance royale » qui se trouve sur toute la surface du corps de la reine, ii s’ensuit que, si cette sécrétion est la même que celle qui inhibe le développement des ovaires, on doit observer ce développement chaque fois que la substance royale tombe au-dessous d’un certain niveau dans une colonie. Les deux phénomènes de la production des reines et du développement des ovaires des ouvrières seraient justiciables de la même théorie.
- Butler a montré aussi, par des expériences, que les ouvrières sont capables d’échanger cette substance par trophallaxie (échange de nourriture de bouche à bouche entre deux individus). Deux lots de jeunes ouvrières sont mis en cagettes,
- des reines d’abeilles ouvrières
- bien approvisionnés en miel, pollen et eau sucrée. Chaque jour, on introduit dans l’une des cages six ouvrières prises dans une ruche où elles ont pu lécher une reine en pleine période de fécondité; ces ouvrières qui ont absorbé la « substance royale » sont renouvelées pendant treize jours. On sacrifie alors les abeilles des deux cages et on examine l’étal de leurs ovaires; on constate que celles qui sont restées isolées ont des ovaires bien ou très bien développés, alors que celles qui se sont trouvées en contact avec les abeilles provenant de la ruche ont gardé presque toutes des ovaires rudimentaires. On obtient le même résultat en mêlant à la nourriture offerte aux abeilles de l’une des cagettes un extrait de macération du tube digestif des ouvrières qui ont léché la reine.
- De nouvelles recherches ont été effectuées récemment par Mlle J. Pain et M. M. Barbier pour retrouver la trace de la sécrétion royale dans le corps des ouvrières (C. R. Académie des Sciences, 8 février 19C0). Une quantité correspondant à 1 kg d’ouvrières est prélevée dans une ruche dont la reine est féconde ; ces abeilles sont tuées à l’éther, broyées, passées à l’étuve à 4o° et fournissent un extrait par le butanol tertiaire. Après concentration sous vide et reprise par l’acétone, on obtient un principe actif correspondant approximativement à la sécrétion de i4 reines. Par contre, la même opération faite sur des abeilles d’une ruche orpheline conduit à une fraction totalement inactive. Il semble donc que toutes les abeilles d’une ruche obtiennent de leur reine une fraction attractive de cette sécrétion royale qui, par son action, peut être rangée dans les substances récemment définies sous le nom de phéromones (voir La Nature, juillet 1959, p. 297). L. C.
- Le réacteur européen de Halden
- Le réacteur de Halden (Norvège), entreprise commune à plusieurs pays de l’O.E.C.E. et qui a été récemment inauguré, recevra en 1961, une nouvelle charge de combustible. Ce réacteur, primitivement conçu pour développer une puissance de S MW thermiques, ne contient jusqu’à nouvel ordre que des barreaux d’uranium naturel. La deuxième charge prévue consistera en 1,5 t d'oxyde d’uranium enrichi à 1,5 pour ÎOO. La puissance du réacteur sera alors poussée à 20 MW.
- Impact d'astéroïde au Texas
- Des géologues américains ont déterminé l'emplacement où une météorite de grandes dimensions (le terme d’astéroïde lui a été appliqué) a frappé la surface de la Terre, il y a environ 50 millions d’années. Les traces du phénomène consistent en une grande quantité de cavités coniques creusées dans les roches environnantes et qui seraient dues aux « éclats » projetés par l’astéroïde lors de son explosion. Cette découverte a été faite dans la Sierra Madera, région désertique, à l’Ouest du Texas.
- p.219 - vue 222/558
-
-
-
- Le rapport de la Commission d’enquête sur la rupture du barrage de Malpasset
- Dans le numéro de janvier de La Nature (p. i4) un article a été consacré à la catastrophe de Malpasset. Cet article avait pour but, dans l’attente de l’enquête qui avait été décidée par le gouvernement, de résumer les principaux faits connus, tout en énumérant les causes possibles de la rupture du barrage. Aucune conclusion ne pouvait être émise avant d’avoir pris connaissance du rapport de la Commission d’enquête. Ce rapport, déposé le 29 février, n’a été publié qu’un mois plus tard. Il s’intitule « Rapport provisoire », ce qui ne l’empêche d’être assez explicite pour permettre une discrimination entre les différentes hypothèses qui pouvaient se présenter. Certaines sont définitivement écartées. D’autres sont confirmées et l’on peut d’ores et déjà prévoir que le rapport définitif ne modifiera pas l’essentiel des conclusions. Un surcroît de précisions sera simplement apporté qui permettra de mieux dégager les responsabilités encourues. D’ici là, la leçon tirée de ce triste événement peut être considérée comme acquise.
- Hypothèses écartées. — On remarquera que les membres de la Commission ont eu le souci de mener une enquête exhaustive, en retenant, avant de les éliminer, des causes sans doute possibles mais néanmoins d’un caractère assez conjectural. Nous devons tout d’abord les mentionner.
- Des séismes plus ou moins importants avaient-ils été enregistrés peu avant l’accident ? Une vérification a permis de répondre par la négative. Même réponse en ce qui concerne les microséismes : bien qu’une intense activité microséismique ait été constatée à Monaco les ier et 2 décembre, ce phénomène, dû à une agitation exceptionnelle de la mer, n’a pu avoir un retentissement notable dans la vallée du Reyran. L’écorce terrestre est d’ailleurs, dans son ensemble, soumise de manière permanente à l’agitation microséismique.
- Y a-t-il eu sabotage P La Commission, se fondant sur le témoignage du gardien, estime qu’en raison de la surveillance exercée par ce dernier il est impossible que des quantités suffisantes d’explosifs aient été mises en place dans les journées qui ont précédé la catastrophe. Par ailleurs, aucune explosion n’a été entendue.
- Le barrage a-t-il été atteint par un aérolithe ? Cette hypothèse ne peut être retenue : le bolide céleste aurait provoqué une lueur intense avant la rupture du barrage. Un éclair a été effectivement constaté, mais après cette rupture : il était dû à la coupure de la ligne électrique, balayée par le flot.
- L’accident doit-il être attribué à une explosion accidentelle ? Des obus et diverses munitions, charriés par le courant, ont été retrouvés aux abords du barrage. Aucun de ces engins n’avait éclaté.
- Béton, agrégats et bétonnage. — Il était important de se rendre compte si la mise en œuvre des matériaux avait été parfaitement correcte. Dans le cas contraire, ainsi d’ailleurs que nous l’avons indiqué dans le précédent article, la résistance de l’ouvrage eût été compromise.
- Cette présomption n’a pas été confirmée. En examinant les blocs de béton emportés à la suite de la rupture, les membres de la Commission ont porté une attention toute particulière sur ceux qui provenaient de la base du barrage. Avaient-ils été « décollés » du rocher, ce qui aurait prouvé une liaison insuffisante ? Non : chacun de ces blocs adhérait étroitement à une portion de rocher. La liaison avait donc été parfaitement correcte, point essentiel confirmant la bonne exécution du travail. Rien d’anormal n’a été par ailleurs relevé en ce qui concerne le béton lui-même : plusieurs échantillons, prélevés sur des blocs emportés, ont été soumis aux essais habituels à
- la traction et à la compression. Leur résistance s’est révélée satisfaisante, aussi bien pour les parties coulées sans interruption que pour les joints de reprise.
- Il a été vérifié que les contrôles nécessaires avaient été faits pendant la construction. L’un d’eux avait inspiré des doutes sur les agrégats de porphyre utilisés dans la composition du béton et cela avait même donné lieu à un arrêt du travail. On pouvait donc se demander si cet incident avait pu compromettre localement la solidité de l’ouvrage. Cette hypothèse, une fois de plus, doit être écartée, car il se trouve que la zone suspectée est de celles qui sont restées en place, à la suite de la rupture.
- Le bétonnage a été exécuté, plot par plot, selon la méthode classique, de même que les injections de clavage. Au total, aucune des techniques d’exécution ne saurait être incriminée.
- Affouillements et vibrations. — On pouvait supposer que l’eau libérée par le barrage aurait de quelque manière désagrégé le sol qui servait d’appui. Hypothèse exclue, car aucun déversement ne s’est produit et aucun affouillement au pied du barrage n’a donc pu intervenir. Devait-on accuser le jet projeté par la vanne de vidange et qui, mal orienté, aurait déterminé une érosion destructrice sur le point faible du barrage, c’est-à-dire son appui de la rive gauche ? Là encore, l’enquête a permis d’éliminer cette hypothèse : toutes les précautions avaient été prises pour que le jet fût dirigé selon un axe correct et l’énergie mécanique de l’eau ne pouvait dégrader aucun des appuis de l’ouvrage.
- Rappelons que plusieurs personnes avaient attribué la catastrophe à une « onde de choc », déclenchée par l’ouverture de la vanne de vidange. Cette ouverture était en effet un événement exceptionnel, n’ayant pas eu lieu depuis un an. Antérieurement cependant, une vingtaine de manœuvres de la vanne avaient été exécutées : chaque fois l’écoulement de l’eau avait provoqué des vibrations dont l’intensité apparente était comparable à celle d’un moteur d’automobile. Phénomène classique qui s’est produit le 2 décembre et qui n’avait en soi rien d’inquiétant. Il en eût été tout autrement si la vanne, insuffisamment « aérée » vers l’aval, avait subi de très graves vibrations. Ce ne fut pas le cas : l’onde de choc est classée parmi les hypothèses à écarter.
- Conception et calculs. — L’avant-projet du barrage a été soumis à une vérification minutieuse. En termes mesurés qui laissent percer un léger élément de doute, le rapport indique que les calculs ont été conduits selon les méthodes habituelles et que les résultats qui figurent au dossier sont exacts. La conclusion est toutefois réservée, tenant compte d’une dernière vérification que nous mentionnerons en terminant.
- Quant à la conception du barrage, elle n’est nullement contestée. Nous transcrivons à ce sujet la phrase suivante qui fait état d’une prise de position catégorique :
- « La Commission tient dès maintenant à affirmer que la technique des barrages voûtes minces n’est pas en cause, leur sécurité étant parfaite pour autant que l’ensemble des appuis sont en état de supporter durablement les efforts transmis par une telle structure. »
- Il est clair que, dans le cas particulier de Malpasset, l’accent est mis sur la valeur des appuis.
- Cause et processus de la rupture. — Il convient de faire d’abord deux remarques importantes.
- « Certains documents, déclarent les enquêteurs, ont disparu du fait même de la catastrophe, notamment ceux qui permet-
- p.220 - vue 223/558
-
-
-
- 221
- traient de connaître exactement les fonds de fouilles de l’ouvrage. » Signalons à ce sujet qu’une réglementation impose à l’Électricité de France, maître d’œuvre de la plupart des barrages construits dans notre pays, de soumettre toutes les fouilles au Service des Ponts et Chaussées. C’est seulement lorsqu’une fouille a été réceptionnée par ce Service que la construction peut débuter. Il se trouve que ce contrôle, auquel les ingénieurs de l’E.D.F. se prêtent très volontiers (car il dégage en partie leur responsabilité), ne s’est pas exercé jusqu’ici, lorsque le Génie Rural était, comme à Malpasset, maître de l’œuvre.
- Deuxième remarque, la retenue n’a pu être remplie dans les conditions habituelles et les mesures de déformation du barrage n’ont pas été entreprises en temps utile pour permettre de connaître l’état initial avant tout remplissage. Ces quelques mots contiennent une critique sévère. Rappelons que le problème de la déformation de la voûte avait été évoqué dans notre précédent article. Il apparaît d’ailleurs à nouveau dans l’analyse qui suit.
- Faits connus dès le lendemain de la catastrophe : la culée de la rive gauche, sur laquelle reposait le barrage, s’est déplacée vers l’aval; le reste de l’ouvrage (à l’exception de la partie ancrée sur la rive droite) a suivi ce mouvement. Ce double déplacement qui s’est soldé par la rupture du barrage a eu pour cause déterminante une rupture du rocher au-dessous des fondations.
- Cette constatation était attendue, mais il restait à expliquer sous quelles actions, sous quelles influences le rocher a pu céder. La Commission se réserve de procéder à une analyse plus serrée du processus de rupture. Elle l’a cependant esquissé dans ses grandes lignes :
- — Au moment où, selon la technique habituelle, des injections de ciment ont été faites pour assurer l’étanchéité des fondations, on avait observé que le terrain absorbait peu de ciment. Indication en principe favorable puisqu’elle exprime une bonne imperméabilité. Mais cette imperméabilité peut gêner l’écoulement d’infiltrations accidentelles génératrices de sous-pressions ;
- — La catastrophe a mis à nu le long de la rive gauche une structure tectonique en forme de dièdre, délimitée par un plan aval continu et par des plans amont successifs correspondant à des fissures. C’est dans cette zone que les infiltrations et les sous-pressions consécutives ont pu s’exercer dans des conditions malheureusement trop favorables;
- — Les causes accidentelles d’infiltrations seraient : i° les tirs de mines occasionnés par la construction de l’autoroute ; 2° les mouvements du barrage qui, exposé pendant deux ans aux rayons solaires dans sa partie supérieure, se dilatait d’autant plus librement que le remplissage de la retenue n'était pas complet; 3° les pluies diluviennes des dernières journées.
- *
- * *
- Les lacunes et les erreurs probables se résumeraient dans les quelques points suivants :
- — Insuffisance de l’étude et des investigations tectoniques;
- — Insuffisance de l’étude hydrologique du terrain;
- — Délai excessif avant la mise en charge du barrage et méconnaissance des dilatations et autres mouvements qui pouvaient en résulter.
- Les précisions attendues (qui ne sauraient d’ailleurs infirmer les conclusions qui viennent d’être formulées) concernent le coefficient d’élasticité de la roche en place (mesurée à partir d’une galerie creusée à cet effet) et les qualités mécaniques de cette roche qui sera appréciée par des méthodes sismiques.
- Accessoirement, un calcul théorique du barrage sera effectué par trial load, terme professionnel qui se traduit littéralement par « charge épreuve ». Ce calcul a pour but de mieux connaître les efforts qui étaient portés sur la culée de la rive gauche.
- Il est vraisemblable que les résultats de ces recherches, exécutées à loisir, seront condensés dans une étude technique dont les enseignements auront une incontestable portée.
- Yves Mériel.
- « Astrophysique générale »
- Il faut saluer comme un événement considérable la publication de l'Astrophysique générale de Pecker et Schatzman (’) : nulle part en effet, et même à l’étranger, on ne peut trouver rassemblés sous une forme aussi condensée les principes d’une science aussi complexe. En effet, il n’existait pratiquement, parmi les livres traitant de l’astrophysique, que des ouvrages de vulgarisation d’une part, et d’autre part des traités très spécialisés et portant sur des domaines restreints (le Traité d’Astrophysique d’Àmbart-zumian est du nombre). Il est vrai que faire tenir en 750 pages l’astrophysique entière est une entreprise difficile, d’autant plus que l’on touche fréquemment des points de la physique moderne qui sont insuffisamment connus, du moins dans notre pays. Les auteurs y ont parfaitement réussi et ils sont également parvenus à enchaîner l’exposé d'une manière logique, conformément à l’esprit français, ce qui nécessite bien entendu beaucoup de retours en arrière mais représente en fin de compte un gain de temps considérable ; d’ailleurs l’ensemble du livre est très concis, ce qui en est un autre agrément particulièrement rare dans les ouvrages d’enseignement supérieur, et l’on peut dire qu’il n’y a guère de mot qui ne soit indispensable à la cohérence du tout.
- La qualité remarquable de la forme est due à ce que les auteurs, dont les travaux font autorité, dominent parfaitement leur sujet et sont capables de le concevoir d’une manière synthétique. On ne saurait donc s’étonner de la qualité du fond : la lecture de la première partie de l’ouvrage, qui rappelle en peu de mots un grand nombre de notions indispensables de physique, est à cet égard un modèle de rigueur et de clarté. La deuxième partie,
- 1. Astrophysique générale, par J.-C. Pecker et E. Schatzman. 1 vol. 16,5 x 24,5, x-756 p., 396 fig., nombreux tableaux. Masson, Paris, 1959. Prix, broché : 120 NF ; relié : 130 NF.
- consacrée aux instruments et aux méthodes d’observation, si elle paraît un peu superflue à première vue, se justifie par le fait que trop d’astrophysiciens ne sont pas assez en contact avec l’appareillage astronomique, et aussi par le fait que le remarquable traité de Danjon et Couder, Lunettes et télescopes, est maintenant épuisé. On aborde ensuite les propriétés intrinsèques des étoiles : classification, théorie des atmosphères (étudiée d’une manière spécialement complète), mesure des distances et magnitudes absolues, étoiles doubles et variables et structure interne des étoiles. La quatrième partie est relative aux systèmes d’étoiles : amas et associations, populations, cinématique et dynamique stellaire, problèmes d’évolution, matière interstellaire. Le chapitre consacré aux galaxies est particulièrement nouveau et intéressant, spécialement en ce qui concerne la cosmologie. Le Soleil, la seule étoile sur laquelle on puisse percevoir des détails, fait l’objet de deux gros chapitres qui insistent particulièrement sur les phénomènes d’actitivé. Le livre se termine sur l’étude du système planétaire.
- Dans son ensemble l’ouvrage est au courant des travaux les plus récents, malgré quelques lacunes de peu d’importance (spécialement en radioastronomie). Mais ce qui lui assurera la pérennité est que les auteurs ont volontairement fait porter l’accent sur les méthodes plutôt que sur les résultats ; aussi, malgré l’évolution rapide de l’astrophysique (particulièrement en ce qui concerne les galaxies et la radioastronomie), il restera longtemps l’indispensable livre de chevet de tous les étudiants, astronomes et astrophysiciens ; il sera également consulté avec profit par de nombreux physiciens qui trouveront souvent en astrophysique des problèmes analogues à ceux qui les préoccupent directement.
- J. Lequeux.
- p.221 - vue 224/558
-
-
-
- L’Actualité instrumentale LA CHROMATOGRAPHIE EN PHASE GAZEUSE
- La chromatographie en phase vapeur ou gazeuse est un très bon moyen d’analyse utilisable pour les mélanges de gaz ou de liquides à point d’ébullition inférieur à environ 4oq° C. Cette méthode d’analyse est simple, rapide et précise. Elle complète et souvent remplace avantageusement l’analyse chimique, la distillation fractionnée ou même la spectrographie infrarouge ou la spectrométrie de masses.
- On appelle chromatographie de gaz toutes les techniques chromatographiques dans lesquelles la phase mobile est un gaz. La séparation des divers composants d’un mélange dépend de la distribution des substances entre la phase mobile et la phase fixe. La phase fixe peut être un corps adsorbant ou un liquide absorbant imprégnant un support inerte. Dans le pre-
- Fig. 1. — Chromatographe Prolabo.
- De forme ramassée, il se pose sur une table. Fonctionne en pression ou en dépression. Alimentation électrique entièrement sur secteur 110 V 50 Hz. Dispositifs d’injection pour échantillons liquides ou gazeux. Colonnes interchangeables du type spirale, peu encombrantes. Étuve à température constante, réglable jusqu’à 250° C. Assemblage par raccords métal sur métal. Possibilité de monter deux chambres d’injections, quatre cellules détectrices et plusieurs colonnes.
- mier cas on a la chromatographie d’adsorption, dans le deuxième cas on a la chromatographie de partage (ou de partition).
- Les différentes techniques de chromatographie gazeuse peuvent être classées en trois groupes d’analyse :
- L’analyse frontale. — Le mélange gazeux à analyser passe dans la colonne cliromatographique. Le constituant le moins retenu par la phase fixe sort le premier de la colonne puis, avec ce premier constituant du mélange, émerge de la colonne la substance mieux retenue par la colonne que le corps qui la précède, mais moins que le corps qui la suivra, et ainsi de suite. Cette méthode présente de gros inconvénients. En premier lieu, elle nécessite une grande quantité de gaz pour conduire l’analyse; en effet, il faut un débit de mélange gazeux constant dans la colonne jusqu’à la fin de l’analyse, c’est-à-dire jusqu’au moment où tous les constituants du mélange émergent de la colonne. D’autre part, il n’y a pas ici de véritable séparation des divers constituants du mélange, sauf pour la première substance qui émerge de la colonne. Enfin, les mesures quantitatives sont difficiles du fait que le moment où un nouveau, constituant commence à sortir de la colonne
- est mal défini. Ceci fait que cette technique n’est pratiquement pas employée.
- Chromatographie par déplacement. — L’échantillon gazeux à analyser est introduit dans la colonne qui le fixe complètement. On introduit ensuite un gaz mieux retenu par la colonne que n’importe lequel des constituants du mélange à analyser. Ce dernier gaz déplace donc de la colonne toutes les substances qui composent l’échantillon à analyser et ceci d’autant plus vite que ceux-ci sont moins retenus. Il s’ensuit que les différents composants du mélange gazeux émergeront de la colonne dans l’ordre inverse de celui qui correspond à leur affinité pour la phase fixe qui remplit la colonne. L’échantillon est ainsi séparé en bandes qui ne contiennent qu’un seul constituant. L’analyse peut être conduite avec des quantités d’échantillons faibles, de l’ordre du centimètre cube. Cependant les mesures quantitatives sont rendues difficiles par le manque de définition de l’instant de passage d’un constituant au suivant, comme c’est le cas pour l’analyse frontale. Enfin, il est généralement nécessaire de régénérer la colonne avant de passer à une autre analyse. Cette méthode est également peu employée, sauf pour des cas bien spécifiques.
- Chromatographie par élution. —- La troisième technique cliromatographique, la chromatographie par élution, est celle qui est généralement employée et nous en parlerons plus longuement. L’échantillon à analyser est introduit en bout de colonne cliromatographique et un gaz inerte, ou éluant, l’entraîne vers la sortie. Le temps que chacun des constituants restera dans la colonne sera plus ou moins long suivant l’affinité plus ou moins grande de ce constituant pour la phase fixe. Les différents constituants du mélange sont ainsi séparés et émergent de la colonne à des moments bien différents, ce qui permet non seulement de les caractériser, mais aussi d’en déterminer la quantité. La quantité d’échantillon nécessaire pour conduire une analyse est assez faible, généralement comprise entre o,i et i cm3 pour les gaz (à la pression atmosphérique).
- Pour comprendre comment se fait la séparation de différentes vapeurs le long de la colonne, nous pouvons assimiler celle-ci à une colonne à plateaux et la chromatographie à une distillation fractionnée. Pour simplifier le problème, nous allons faire un certain nombre d’approximations.
- En général, on dispose comme colonne cliromatographique d’un tube de diamètre constant et maintenu à une température constante. Nous supposerons qu’en outre il est rempli d’une façon uniforme. Dans une section quelconque de ce tube, il y a une aire a constante occupée par la phase mobile (ou éluant) et une aire b constante occupée par la phase fixe, le support de la phase liquide occupant une aire constante c. Nous admettrons que le débit gazeux est constant, non seulement à travers une section de la colonne, ce qui est généralement le cas, mais aussi tout le long de la colonne, ce qui implique que les gaz sont incompressibles et qu’il n’y a pas de gradient de pression entre l’entrée et la sortie de la colonne. Dans la pratique, on introduira un terme correctif pour tenir compte de l’inexactitude de ces hypothèses.
- Enfin, nous supposerons que la vapeur à analyser est introduite en un point d’une façon instantanée et, en outre, que la distribution de la vapeur entre la phase fixe et la phase mobile est constante et indépendante de la concentration de cette vapeur et des vapeurs étrangères.
- Compte tenu de toutes ces approximations, considérons le passage à travers la colonne d’une série de vapeurs différentes Mp, Mj, M2... dont les coefficients de distribution entre
- p.222 - vue 225/558
-
-
-
- 223
- les deux phases sont tels qu’à n’importe quelle section de la colonne à l’équilibre il y aura O, , p.2... molécules de vapeur dans la phase fixe pour une molécule dans la phase mobile.
- Dans le cas limite M0, la vapeur passe dans la colonne comme s’il n’y avait rien. Son temps de passage ou temps de rétention t0 sera donné directement par le rapport entre le volume de gaz dans la colonne et le flux gazeux.
- Les molécules M1? M,, M3... seront retardées proportionnellement au temps où elles restent dans la phase fixe. En moyenne les molécules M1} M2, M3... resteront p.x, p.2, p.s fois plus longtemps dans la phase fixe que dans le gaz, et leur temps de rétention sera :
- fj (* H" — (i "h [^2)^0 > ^3 — (l "h ^.3)^0"
- A ces temps de rétention correspondent les volumes de rétention égaux au produit du flux gazeux par le temps de rétention.
- D’autre part, une chromatographie se caractérise par le facteur R¥ correspondant à chaque corps. Ce facteur RT est égal au rapport du déplacement du point de concentration maximal d’une vapeur donnée au déplacement simultané de la phase mobile. Il est égal à :
- Enfin, le coefficient de partage a, égal au rapport de la masse de vapeur par unité de volume de la phase fixe à la masse de vapeur par unité de volume de la phase mobile à l’équilibre, sera :
- des bandes dont la largeur dépendra des vitesses d’équilibre, des facteurs de diffusion, en particulier dans la phase fixe, et des énei’gies d’activation des transferts d’une phase à l’autre.
- Assimilons la chromatographie gazeuse à une distillation fractionnée dans une colonne à plateaux. Dans chacun des plateaux théoriques de la colonne, on suppose qu’il y a équilibre entre les deux phases. Nous pouvons alors considérer la chromatographie gazeuse comme une série de transferts de gaz d’un plateau théorique au suivant où un autre équilibre s’établit entre les deux phases.
- La probabilité p pour qu’une molécule de vapeur soit dans la phase gazeuse pendant un de ces transferts est de :
- 1
- Quelle est la probabilité Prn pour qu’une molécule de vapeur
- Toutes ces valeurs sont des valeurs moyennes; les molécules M se répartiront autour de ces valeurs moyennes suivant
- Figr. 4. — Chromatographe universel à gaz de Shandon.
- (Photo Paris-Labo).
- p.223 - vue 226/558
-
-
-
- chromatographie en
- phase gazeuse
- PARIS - LABO - SHANDON
- DÉTECTEUR A FLAMME (SCOTT) DÉTECTEUR A IONISATION DE FLAMME DÉTECTEUR A L’ARGON
- température de fonctionnement 300° C colonnes de 1,20 m à 15 m
- 7, RUE DU CARDINAL-LEMOINE - PARIS-V^ PARIS
- LABO Téléphone : MEDicis 25-30 - Lignes groupées
- D. A. M.
- Société pour la Diffusion d’Appareils de Mesure et de Contrôle
- 6, Avenue Sidoine-Apollinaire LYON (Rhône) FRANCE
- ' Sa, '
- > Appareils de
- CHROMATOGRAPHIE
- en Phase Gazeuse type Ugine
- -----•------
- Modèle Laboratoire : pour travaux complexes et variés.
- Modèle Spécialisé : pour travaux tels que contrôle de fabrication.
- Modèle à Haute Température : appareil très simple pour travaux jusqu'à 4-500° C.
- -------------
- AZOTE 15
- ISOTOPE STABLE
- POUR LES PROBLEMES DE MARQUACE, DANS LA RECHERCHE ET
- DANS L'INDUSTRIE
- FORMES STANDARD
- ACIDE NITRIQUE NITRATES
- PHTAUMIDE POTASSIQUE
- SIÈGE a PA P I S
- 30, avenue Hoche W AG ram 29-14
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d’Ëtaf Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- yÊÊKÊÊÊÊtÊtÊÊÊÊÊÊÊÊ^KÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊKÊÊÊÊÊÊÊÊM
- p.224 - vue 227/558
-
-
-
- 225
- soit dans la phase gazeuse au dernier plateau r quand n volumes de gaz passent dans la colonne, chacun de ces volumes de gaz étant égal au volume de gaz dans chaque plateau ? Chacune des molécules a été dans la phase gazeuse exactement r fois pendant les n transferts.
- On montre que cette probabilité Prn est :
- pr
- n
- — r) !
- pr (i —pn-
- Cette probabilité a une distribution binominale, ce qui implique que :
- r
- — Pn passe par un maximum quand : n = - — nmax ;
- — Quand r, n et n — r sont grands, la distribution est symétrique. On a alors une distribution gaussienne donnée par :
- —{px)a
- Prn = -7=1 e 2r ; avec æ — n — Umax-
- \! 2rcr
- — La valeur maximale de Pr„ est—.
- 1 \J 2 TCP
- Par conséquent :
- — Les molécules M0 passent à travers la colonne quand r volumes de gaz parcourent la colonne. Le flux de gaz est équivalent à r/t0. Les n volumes de gaz passeront en nln/r et le pic émerge à :
- t t
- fmax = Unîax — = — = ( I -f- p.)f0.
- r p
- — L’équation des pics est de la forme :
- —P_V /*—W\2
- pr _ 1 . e 2 \ t0 / '
- V 27t/’
- Les pics sont donc systématiques autour du temps de rétention.
- La largeur à mi-hauteur des pics dépend de p2r : quand p2r est grand, la largeur à mi-hauteur est faible : les pics sont lins. Pour cela il faut un grand nombre de plateaux théoriques et p grand ou p. petit.
- — Au moment de l’émergence du sommet du pic, le dernier
- i
- plateau contient —j=~ de l’échantillon initial réparti entre phase
- V 2 TC/'
- fixe et phase mobile dans la proportion p — —7— .
- I +{*
- La vitesse de sortie S de la vapeur est donc :
- .9
- \j 2 TT/’ 1 “H p ^0
- x Q,
- Q étant la quantité d’échantillon introduit en moles.
- — moles/s,
- 2 TC
- si tm est le temps de rétention en secondes.
- Si le nombre de plateaux théoriques était indépendant de la nature de la vapeur, pour une même colonne on aurait
- la hauteur du pic proportionnelle à p- . Malheureusement, dans
- tm
- la pratique, r augmente avec tm.
- De toute.façon, Q est proportionnnel à l’aire délimitée par le pic.
- Cette courte étude théorique de la chromatographie gazeuse permet de comprendre le. rôle de chaque partie de l’appareil à
- chromatographie gazeuse. D’une façon générale, ces appareils comprennent quatre parties principales :
- Tout d’abord une colonne à chromatographie ihermostalée; c’est la partie principale de l’appareil. Celte colonne est un tube de diamètre voisin de 1 cm, d’une longueur variant de 2 à une dizaine de mètres, remplie de la substance qui constitue la phase fixe de la chromatographie. Cette substance est choisie en fonction de l’analyse à faire. Pour l’analyse de mélanges de gaz parfaits ou de vapeurs légères, on prend en général comme phase fixe une phase adsorbante telle que le gel de silice, les tamis moléculaires ou le charbon. Pour l’analyse de vapeurs plus lourdes, on prend une phase fixe liquide, portée par un solide inerte comme par exemple des huiles silicones
- qui ont une très faible tension de vapeur. La colonne est
- remplie le plus uniformément possible avec une densité de remplissage de l’ordre de 0,0 g/cm3. Cette colonne est placée dans un thermostat de façon à éviter les fluctuations des coefficients d’absorption (ou d’adsorption) le long de la colonne et permettre de placer la colonne dans les meilleures conditions de température.
- A la sortie de la colonne on trouve une autre partie importante de l’appareil : le délecteur de gaz. Pour détecter les gaz
- qui émergent de la colonne, on fait appel à leurs propriétés
- physiques. Il existe ainsi des détecteurs basés sur la mesure de la densité, sur la spectroscopie infrarouge, sur la mesure de la conductivité thermique, la radioactivité... Actuellement, le détecteur le plus employé est la cellule de thermoconduc-
- Fig. 5. — Appareil à chromatographie gazeuse Griffin et George en service au Laboratoire de Physique nucléaire à Orsay.
- (Photo Laboratoire de Physique nucléaire, Orsay).
- p.225 - vue 228/558
-
-
-
- Chromatographe
- Instrument d’un emploi facile permettant l’analyse précise et rapide de mélanges depuis les gaz permanents jusqu’aux liquides bouillant à 350° C à partir d’un échantillon de quelques milligrammes.
- Nombreux accessoires :
- Récupérateur de fractions - Intégrateur Colonne préparative de corps purs - Réfrigération Vannes et seringues à volumes étalons Sortie sous vide et sous pression Commutateur de colonnes, etc.
- \|
- en 1
- phase gazeuse
- Documentation gratuite N° 52 u sur demande à
- J0BIN-YV0N
- 26, rue Berthollet ARCUEIL (Seine) Tél. : ALÉsia 58-54
- S
- 12, Rue Pelée — PARIS-XI
- PRODUITS ET APPAREILS DE LABORATOIRE RHONE-POULENC
- CHROMATOGRAPHE
- en phase gazeuse
- pour l'analyse des liquides et des gaz
- Construction ramassée.
- Température jusqu’à 250 °C.
- Colonnes en spirale, peu encombrantes, faciles à remplir.
- Raccords métal sur métal, serrés par les mêmes écrous.
- Manipulation commode. Démontage facile ; accès immédiat à toutes les parties.
- Possibilités de montages variés avec deux chambres d’injection, deux colonnes et deux jeux de cellules détectrices.
- — Démonstration en fonctionnement sur simple demande et sans aucun engagement.
- PROLABO
- p.226 - vue 229/558
-
-
-
- tivité : ce détecteur est très sensible, d’un emploi simple, et sa réponse à un changement de composition du mélange qui émerge de la colonne est rapide et proportionnelle à la concentration du gaz à l’instant considéré. Cette cellule est sensible aux variations de température; c’est pourquoi elle est toujours placée dans le thermostat, près de la colonne. Elle comprend deux filaments formant les deux branches d’un pont. L’un de ces filaments plonge dans le gaz éluant avant son entrée dans la colonne et sert de référence. L’autre filament est baigné par les gaz sortant de la colonne. Les indications données par cette cellule sont amplifiées et transmises à un enregistreur qui constitue la troisième partie de l’appareil.
- Enfin, la quatrième partie de l’appareil réglemente la circulation des gaz dans la colonne. Elle comprend une bouteille de gaz éluant (Il2, lie, N2...), un régulateur de pression, un débitmètre, des robinets de réglage du débit et en général une pompe à vide. Les débits gazeux utilisés sont de l’ordre de quelques litres/heure.
- Les échantillons à analyser sont introduits dans le circuit de l’éluant, juste avant la colonne, soit à l’aide d’une microseringue, soit à l’aide d’un système by pass.
- La figure 5 montre un appareil à chromatographie gazeuse en service au Laboratoire de Physique nucléaire à Orsay. C’est un appareil anglais construit par Griffin et George qui a été légèrement modifié pour permettre d’introduire les gaz à analyser sans utiliser la seringue initialement prévue par les constructeurs.
- On voit sur la figure 6 le schéma de principe de l’appareil
- l
- N<i 16 mmï bol Ion : 464 MO 70 mm? r~----A/2 30 mm?
- j-e-0,1 cm3
- 0,4 cm5 MO 70 mm5 /V2 30 mm?
- MO 216 mm5
- /V2 108 mm?
- 0,1 cm5
- MO 146 mm’ 54 mm5
- 2 cm3
- MO 216 mm? y
- A/2 84 mm3
- 0, 3 cm-?
- Ni 106 mm?
- NO 294 mm?
- 4 cm3
- Mz 134 mm?
- -N0 3 66mrri
- 0,5 cm?
- 5 cm?
- -----Ni 134 mm?
- NO 220 mm?
- -N0 566 mn?
- /V2 80 mm?
- 0,5 cm3
- Fig. 7. — Série de chromatogrammes de mélanges différents de NO et Ns par chromatographie d’adsorption.
- (D'après X. Tarrago).
- Schéma de principe de l’appareil à chromatographie gazeuse Jobin et Yvon.
- À, bouteille de gaz porteur (éluant) : IÇ, Ile, N„ ou autre ; B, détendeur : détend le gaz à la pression de 2 kg/cm2 ; C, débitmètre ; D, vanne à aiguille : permet de régler le débit de l’éluant ; E, manomètre ; F, colonne destinée au réchauffage de l’éluant ; G, élément de référence de la cellule de thermoconductivité, traversé uniquement par le gaz porteur ; II, dispositif d’introduction du mélange à analyser ; I, colonne de séparation ; J, élément de mesure de la cellule de thermoconductivité ; K et L, pont de mesure et enregistreur ; M, régulateur de température.
- à chromatographie gazeuse Jobin et Yvon. Cet appareil présente l’avantage de pouvoir fonctionner à des températures de colonne allant de — 20 à + 35o° C grâce à un groupe frigorifique incorporé. D’autre part, dans cet appareil, le gaz porteur (ou éluant) peut circuler dans la colonne, soit par suite d’une surpression à l’entrée de la colonne, soit par suite d’une dépression à la sortie, grâce à une pompe à palettes. Ceci permet de travailler en dépression et à température plus basse avec des vapeurs pouvant se décomposer. D’autre part, en travaillant en surpression on peut recueillir à la sortie les gaz séparés. Enfin, cet appareil présente l’avantage d’une grande souplesse quant à l’emploi de colonnes remplies de phases fixes différentes grâce à un commutateur à quatre colonnes.
- Fig. 8. — Chromato-gramme d’un mélange de produits organiques par chromatographie de partage.
- Toluène
- 2,2, 3 - Tnmethylpentane
- 2,5-Dimethyl Hexane
- N - Heptane
- 3- Ethylpentane > 3- Methylhexane
- 2,2,3- Trimethylbutane > 2,2 - Dimethylpentane
- > N-Hexane
- 2,3- Dimethylbufane, Cyclopentane
- 2,2-Dimethylbutane
- N - Pentane Iso- Pentane
- p.227 - vue 230/558
-
-
-
- Tube à entretien d'image
- RAPY
- p.228 - vue 231/558
-
-
-
- 229 "
- Il est impossible de comparer les qualités respectives des différents appareils qui existent actuellement sur le marché, aussi bien en France qu’à l’étranger. Il est à remarquer cependant que tous ces appareils ont des performances voisines, les différences n’existant en général que dans la plus ou moins grande facilité d’emploi pour un usage déterminé.
- Le domaine d’emploi de la chromatographie gazeuse est très vaste, comme nous l’avons dit, et il n’est pas question par conséquent d’en donner l’étendue complète. Disons simplement que tous les corps, depuis les gaz parfaits jusqu’aux liquides organiques bouillant à 4oo° C, sont justiciables du chromalo-
- graphe. Les figures 7 et 8 montrent deux types bien différents de chroma togrammes.
- En plus de l’analyse qualitative et quantitative de mélanges, la chromatographie en phase gazeuse peut être utilisée à la séparation de corps à l’état très pur ou à l’étude de propriétés physico-chimiques telles qu’isothermes d’absoi’ption, enthalpie ou entropie de solutions.
- Xavier Tarrago ,
- Ingénieur chimiste,
- Docteur es sciences,
- Laboratoire de Physique nucléaire, Orsay.
- Étude des substances naturelles par chromatoplaques
- Une nouvelle technique d'analyse chromalographique a fait son apparition dans les laboratoires. Il s’agit de la séparation par chromatoplaques, ou microchromatographie d’adsorption sur couches minces. Cette technique, très simple, permet une investigation rapide et utilise peu de matériel. Il est possible en particulier par cette méthode d’étudier des mélanges de substances peu polaires, que la chromatographie sur papier ne peut séparer.
- Une chromatoplaque se prépare à partir d’une plaque de verre ou mieux de pyrex (nous utilisons des plaques de 17 x n cm), que l’on recouvre du mélange adsorbant; on réalise une pâte avec de l’acide silicique et de l’amidon (adsorbant de Reitsema) ou avec de l’acide silicique et du plâtre (adsorbant de Stahl). Après évaporation à l’air de l’excédent d’eau, la couche se durcit ; on termine par un séjour en étuve à ioo° C. Chaque plaque sera utilisée en chromatographie ascendante, en la déposant dans un récipient contenant le solvant de développement (on obtient de bons résultats, pour les substances les moins polaires, avec le système hexane-acétate d’éthyle 85 : i5). Pour les dimensions décrites, le développement est terminé en 3o à 4o minutes. La mise en évidence des spots dépend évidemment de la nature des substances à étudier. La solidité de la couche absorbante permet d’effectuer sur la plaque toutes réactions vigoureuses. Si l’on utilise comme adsorbant l’acide silicique fixé par le plâtre, on a une couche plus friable, mais plus
- résistante aux agents chimiques, qu’avec l’adsorbant fixé par l'amidon. En particulier, avec le plâtre, il devient possible de contourner toute difficulté de révélation : il suffit d’asperger la plaque avec une solution d’acide sulfurique, et de chauffer; on carbonise ainsi les substances sur plaque et, si elles n’apparaissent pas nettement, en jaune ou brun, elles seront toujours visibles en lumière ultraviolette.
- La technique des chromatoplaques, basée sur un mécanisme d’adsorption vraie, est applicable à de nombreuses familles de substances, de préférence peu polaires. On obtient ainsi des résultats excellents avec les terpènes, aldéhydes et célones, esters, peroxydes, coumarines, pigments tétrapyrroliques, carolénoïdes, phénols, etc. Nous l’avons personnellement appliquée avec succès à l’étude des stéroïdes, ainsi qu’à l’examen direct des benzo-quinones naturelles (étude du venin des Myriapodes, par exemple).
- Ainsi que l’a montré Demole, cette méthode devrait conduire à une véritable microchimie, les réactions, oxydations, réductions, préparations de dérivés colorés, etc., pouvant être conduites sur la plaque elle-même.
- Les possibilités multiples de la technique des chromatoplaques, sa souplesse et sa grande simplicité en font un instrument unique pour l’étude des substances naturelles.
- Michel Barbier.
- La glande rectale des Requins servirait à éliminer le sel du sang
- Les Sélaciens, en particulier les Requins, présentent sur la partie antéro-dorsale du rectum une assez grosse glande, dite glande digitiforme, rectale ou de Leydig, dont la taille et l’aspect sont ceux d’un doigt de gant; elle s’ouvre dans l’intestin en arrière de la valvule spirale. Cette glande a été fort bien étudiée au point de vue de l’anatomie mais sa fonction restait tout à fait incertaine ; on a considéré successivement que son rôle était de produire une sécrétion muqueuse ou diastasique, ou encore d’assurer l’excrétion de l’urée et de l’acide urique. Il est donc intéressant de signaler le résultat d’expériences conduites par J. Wendell Burger et Walter N. Hess sur le petit squale Squalus acanthias (Science, 4 mars i960).
- L’étude de la nature de la sécrétion de la glande rectale et de son abondance a pu être réalisée de la façon suivante. La paroi du corps et l’intestin du poisson sont ouverts immédiatement au-dessus de la ceinture pelvienne, sur la ligne médiane; une longue sonde de polyéthylène est ensuite poussée par l’anus; son extrémité courbée est introduite dans le canal de la glande et fixée par deux ligatures. Après suture des incisions, le petit squale est replacé dans un bac d’eau de mer courante et l’extrémité libre de la sonde est reliée à un tube gradué placé sous le niveau du bac. La sécrétion recueillie est
- aqueuse et contient peu de mucus; elle est incolore, presque neutre, chargée d’une quantité relativement faible d’urée et de bicarbonates et sulfates de magnésium, calcium, potassium; mais elle contient une quantité de chlorure de sodium égalant environ deux fois la concentration de ce sel dans le plasma sanguin et plus élevée que dans l’eau de mer.
- Ces détails chimiques permettent de supposer que la glande rectale joue un rôle dans l’élimination du sel du sang. La quantité de sécrétion est considérable chez certains individus et peut atteindre o,85 ml/kg par heure, pendant une période de 24 h; dans d’autres cas la sécrétion est moins abondante et moins régulière. La tendance générale est un écoulement continu et variable plutôt que des alternatives de sécrétion abondante et d’arrêts complets. Le sang est hypertonique par rapport à l’eau de mer et l’urine est hypotonique. Il semble que, par l’action combinée de la glande rectale et des reins, le requin peut éliminer le chlorure de sodium à une concentration à peu près égale à celle de l’eau de mer. L’ensemble est capable de répondre à l’ingestion d’une quantité importante d’eau de mer par le gosier, les branchies et d’autres voies. La fonction principale, sinon unique, de la glande rectale semble donc être l’élimination du sel contenu dans le sang.
- p.229 - vue 232/558
-
-
-
- 230
- LE CIEL EN JUIN I960
- SOLEIL : du 1er au 21 (à Oh) sa déclinaison croît de -F 22°t' à + 23°27' (maximum), puis revient à.+ 23?8' le 1er juillet (à 0h) ; la durée du jour passe de loh30m le 1er à 16h7m le 2Ï, puis revient à 16h4m le 30 ; diamètre app. le 1er (à 0h) = 31'3o"5, le 30 (à 24h> = 31'30",7. — LUNE : Phases : P. Q. le 2 à 16*2», P. L. le 9 à 13h2m, D. Q. le 16- à 4h3-6in, IV. L. le 24 à 3h27m ; périgée le 10 à 3h, diamètre app. 33'28" ; apogée le 24 à 9h, diamètre app. 29'23". Principales conjonctions : avec Neptune le 6 à i7h, à l°o2' N. ; avec Jupiter le 10 à 7h, à 4°36' N. ; avec Saturne le 11 à 10h, à i°3' N. ; avec Mars le 18 à 19h, à 1°34' S. ; avec Vénus le 24 à oh, à o°16' S. ; avec Mercure le 20 à 9h, à 3°14' S. ; avec Uranus le 28 à 2h, à 3°lo S. Principales occultations : le 6, de d B Balance (mag. 6,2), immersion à 2211o4m)5, le 22, d’Aldébaran (mag. 1,1), émersion à 3h31m,0. — PLANÈTES : Mercure, étoile du 6oir durant tout le mois, coucher le 13 à 21h43m, soit PoO131 après le Soleil ; Vénus est inobservable ; Mars, dans les Poissons, puis le Bélier se montre de mieux en mieux le matin, le 17, se lève à lh7m ; Vesta, dans le Sagittaire est AÛsible toute la nuit, positions, le 1er : 19M0m et — 19°37', le 11 : et — 20°21', le 21 :
- 18ho7m et — 21°I2', le 1er juillet : ISMT111 et — 22°9', mag. 6,1, s’éloigne peu à peu de Saturne à l’Ouest ; Jupiter, dans le Sagittaire étincelle toute la nuit (mag. — 2,2), le 16 : diamètre pol. app. 43",3 ; Saturne, dans le Sagittaire se lève 1 heure après Jupiter, le 16 ; diamètre pol. app. 16",4 et axes de l’anneau : 41",2 et -f 16",9- ; Uranus, dans le Lion visible le soir, le 17 coucher à 22h49m et diamètre app. 3",6 ; Neptune, dans la Balance peut se
- rechercher une bonne partie de la nuit, le 17 coucher à lh37m, diamètre app. 2",5 et position : 14h20m et — 12°1'. — ETOILES VARIABLES : minima de p Lyre (3m,4-4m,3) le o à 8h,4, le 18 à 6^,8 ; minima de ô Balance (4m,8-om,9) le 7 à 22h,3, le 14 à 21h,8, le 21 à 21h,4, le 28 à 21h0 ; maxima de S Céphée (3m,7-4m,6), le 4 à 5*,3, le 9 à 14h,l, le 14 à 22^,8, le 20 à 7* 6, le 25 à 16M ; maxima de t\ Aigle (3m,7-4m,4) le 3 à 16h,S, le 10 à 21h,l, le 18 à à lh,3, le 25 à oh,5 ; maxima de /? Triangle (om,4-12m,0) et de S Hercule (om,9'-13m,ô) le 9, de R R Sagittaire (oin,o-14m,0) le 20. — TEMPS SIDÉRAL : au méridien de Paris, à 0h (T. U.) : le 1er : 16h47m15s, le 11 : le 21 : \8Kmls, le Ier juillet :
- 18h4om32s.
- Phénomènes intéressants. — Observer l’apparition de taches et de facules à la surface du Soleil ; Solstice d’été le 21 à 9^43m. Les grosses planètes Jupiter, Saturne, Uranus et Neptune sont facilement observables dans la soirée. — On ne manquera pas de suivre à la jumelle la rétrogradation de l’astéroïde Vesta dans le Sagittaire aux positions indiquées ci-dessus. — Les anneaux de Saturne sont toujours très ouverts, le petit axe (face Nord) déborde le globe de la planète. — Le long crépuscule gêne l’observation de la Voie lactée.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tautois.
- LES LIVRES NOUVEAUX
- Annuaire astronomique et météorologique Camille Flammarion pour 1960. 1 vol.
- 12,5x18,5, 380 p., 45 fîg. Flammarion, Paris, 1960. Prix : 15 NF.
- Avec un zèle infatigable, Mme Camille Flammarion, secondée par une pléiade d’astronomes et de géophysiciens, continue la mise à jour du célèbre annuaire, dont voici la 96e année. Rédigé principalement à l’intention des observateurs, il contient aussi les indications dont aucun , astronome ne saurait se désintéresser ; c’est ainsi qu’on y trouvera cette année, illustré de deux photos, un chapitre sur la face invisible de la Lune, telle qu’a commencé de nous la l’aire connaître la « station planétaire soviétique ».
- The Realm of the Nebulæ, par E. Hibble,
- I vol. 13,5 x 20,5, 208 p., 16 fig., 14 pl. Dover Publications, New York, 1958, Prix, broché : 1,50 dollar ou 12 sh.
- II est inutile de présenter l’ouvrage célèbre du pionnier de la recherche extragalactique, qui fut un esprit remarquablement clair et d’une grande probité scientifique. Depuis sa première édition en 1936, il a un peu vieilli sur quelques points mais il reste un document très important pour l’histoire des sciences et surtout une source de fructueuses réflexions pour l’astrophysicien, comme le remarque dans la préface À. Sandage : aussi faut-il se réjouir de sa réimpression par Dover dans une collection peu coûteuse. Regrettons cependant que les planches hors texte ne soient pas plus soignées.
- Calculateurs analogiques répétitifs, par Rajko
- Tomovic. 1 vol. 17 x 24, 186 p., 94 flg. Collection de monographies de l’Association internationale pour le calcul analogique. Masson, Paris, 1958. Prix : 30 NF.
- I.a première d’une série de monographies publiées sous les auspices de l’Association internationale pour le Calcul analogique. La lre partie expose les principes et les limitations de la résolution des équations différentielles par les calculateurs analogiques répétitifs. Dans ces calculateurs, la grandeur de calcul est un potentiel électrique et la solution se répète automatiquement à une cadence suffisante pour paraître stationnaire sur l’écran d’un oscillographe. La 2e partie traite de la réalisation des éléments de calcul et des installations complètes. La 3e partie fournit des exemples d’applications des machines répétitives.
- Gas chromatography, édité par Vincent J. Coa-tes, Henry J. Noebels et Irving S. Fagerson. 1 vol. 15,5 x 23,5, xn-323 p., Jig. Academie Press, New York, 1958. Prix, relié : 12 dollars
- Vingt-sept mémoires présentés au colloque sur la chromatographie en phase gazeuse réuni en 1957 par l’Instrument Society of America. Index bibliographique de 400 références, toutes récentes.
- Gas Chromatography. Proceedings of the 2nd Symposium, Amsterdam 19-23 May 1958, édité par D. H. Desty. 1 vol. 16 x 25,5, x;v-383 p.‘, fîg. Butterworths Scientifîc Publications, Londres, 1958. Prix, relié toile : 70 sh.
- Vingt-huit mémoires sur la théorie de la chromatographie, les appareils et les applications.
- The chemical behavior of zirconium, par
- Warren B. Bi/umeixtiial. 1 vol. 15,5 x 24, vi-398 p., flg. D. Van Nostrand Company, Princeton, 1958. Prix, relié : 11 dollars.
- LA NATURE PLASTIFIÉE
- ENROBAGE DE SPÉCIMENS BIOLOGIQUES
- dans résine artificielle claire comme du cristal
- CHEZ VOUS
- Demandez renseignements pour colis d’essai avec instructions
- Joindre enveloppe timbrée avec adresse S.V.P
- INTERNATIONAL PLASTIC RESEARCH B. P. 03 CONTES (A.-N.)
- Le zirconium est l’un de ces métaux dits rares, qui en fait sont en passe d’être fabriqués en quantités importantes, soit à cause des propriétés du métal et de ses applications, soit de celles de ses composés.
- The Viruses, Biochemical, Biological and Bio-physical Properties, édité par F. M. Burnet et W. M. Stanley. Vol. I : General Virology. 1 vol. 15 x 23,5, xvin-610 p., 44 fîg. dont 13 en planches hors texte. Academie Press, New York et Londres, 1959. Prix, relié : 16,50 dollars.
- Faisant suite aux tomes II et III déjà parus, le tome I de l’ouvrage The Viruses vient compléter la série. Dans la préface à ce traité fondamental, les auteurs font ressortir que les virus sont les plus petits et les plus élémentaires des organismes qui présentent les caractères essentiels de la vie. Ils seraient de ce fait le materiel « par excellence » de l’étude biologique, prise dans son ensemble, en utilisant les dernières techniques de la biochimie. Les chapitres du tome I, rédigés par différents spécialistes, exposent successivement la structure des virus, leurs propriétés physiques, leur activité et leur comportement chimique dans un nombre étendu de cas particuliers.
- Plant Physiology, Volume II, publié sous la direction de F. G. Steward. 1 vol. 15 x 23, xvm-758 p. Academie Press, New York, 1959. Prix, relié : 22 dollars.
- Ce volume est le premier paru (bien que le deuxième dans la table des matières) d’une série de sept qui constituera un traité complet de physiologie végétale. Les relations des plantes avec l’eau et les solutions sont étudiées d’une manière approfondie qui montre que le traité a pour ambition de fournir aux chercheurs spécialisés des mises au point à jour de leur propre sujet. Mais en même temps une présentation claire et concise, d’abondantes figures explicatives inciteront étudiants et chargés de cours de l’enseignement supérieur spécialisé à s’y reporter. Huit spécialistes ont rédigé ce volume.
- Plant Pathology, Volume I, publié sous la direction de J. G. TIorsfall et A. E. Dimond. 1 vol. 15 x 23, xiv-674 p. Academie Press, New York, 1959. Prix, relié : 22 dollars.
- L’originalité de ce traité de pathologie végétale en trois volumes, dont voici le premier, mérite d’être soulignée. Aucune maladie particulière n’est étudiée, ni la façon particulière de lutter contre elle. Il est traité de la maladie en général, des modes suivant lesquels le fonctionnement normal de l’être végétal peut être perturbé et des moyens dont les pathogènes peuvent user pour provoquer des perturbations.
- p.230 - vue 233/558
-
-
-
- 231
- Cette approche très générale du sujet est bien faite pour stimuler les chercheurs auxquels d'ailleurs ce livre est principalement destiné. D'autres spécialistes, particulièrement les écologistes, y trouveront matière à réflexion. Mais l’ouvrage n’est pas recommandable aux étudiants débutants. Dix-neuf spécialistes de différents pays (États-Unis, Japon, Italie, Hollande, Allemagne) se sont partagé la rédaction.
- Cell, Organism and Milieu. Seventeenth Growth Symposium. Édité par Dorothea Rud-nick. 1 vol. 16 x 24, v-326 p., 103 illustrations. The Ronald Press Company, New York, 1959, Prix, relié : 8 dollars.
- Textes de dix communications présentées lors du 17e symposium sur la croissance, symposium plus particulièrement consacré à « la différenciation et la croissance dans leurs réponses aux modifications chimiques du milieu ». Les recherches ont été poursuivies sur des cellules et organismes de natures extrêmement diverses : hydres d’eau douce, Amphibiens, Mammifères, méristèmes de végétaux, graines, fruits, etc. Certains résultats concernent les réactions d’organites cellulaires isolés, le comportement des protéines contractiles étudiées in vitro ; d’autres chercheurs ont tenté de suivre les transformations de l’arsenal enzymatique des cellules au cours du développement embryonnaire ; un remarquable exposé de W. F. Loomis tend à mettre en évidence les effets de la pression du gaz carbonique sur la différenciation sexuelle de l’hydre. Une partie importante de l’ouvrage enfin traite des réponses aux substances chimiques particulièrement spécifiques : vitamines, hormones de croissance des insectes, auxines.
- Developmental Cytology, par D. Rudnick.
- 1 vol. 15,5 x 23,5, vi-215 p., 28 fig., 23 planches. The Ronald Press Company, New York, 1959. Prix, relié : 7 dollars.
- Textes de neuf communications présentées au 16° Symposium sur la croissance. A l’échelon cellulaire, les éléments figurés représentent le matériel le plus directement accessible à l'expérience ; aussi les anomalies qui affectent le nombre ou la structure des chromosomes, l’évolution des nucléoles, ainsi que les transformations observables au cours de l’élaboration des chloro-plastes sont-elles à l’origine de la plupart de ces communications. Mais les auteurs ont relié les altérations nucléaires aux perturbations qu’elles déterminent dans la différenciation des structures cytoplasmiques ; réciproquement, l’étude des éléments figurés cytoplasmiques anormaux fait découvrir le contrôle génétique de leur formation et les caractéristiques cinétiques de son expression. On soulignera l’extension des méthodes immunologiques, employées avec profit dans l’étude de la différenciation des néoplasmes. Le rôle de la microscopie électronique dans l’exploration morphologique est rappelé par de nombreuses planches. — G. B.
- Carcinogenesis by ultraviolet îight, par
- Harold F. Blum. 1 vol. 15 x 22, xvi-342 p., 57 fig., 5 planches. Princeton University Press, Princeton, 1959. Prix, relié : 6,50 dollars.
- Agréable introduction générale à la radiobio-logie. L’auteur envisage d’abord le problème physique d’une mesure des doses de rayonnement qui convienne au niveau des structures cellulaires. Puis il présente les principales expériences qui illustrent les effets de l’ultraviolet sur des systèmes biologiques : inactivation d’enzymes et de virus, hémolyse, induction des bactéries lyso-gènes, perturbation du rythme des divisions cellulaires, etc. Le rite cellulaire essentiel d’action du rayonnement apparaissant constitué par les acides nucléiques, les différents types de mutations et d’aberrations chromosomiques sont distingués. La seconde moitié de l’ouvrage est consacrée à l’analyse d’expériences quantitatives, souvent personnelles, de cancérisation provoquée. Le souci y demeure exemplaire de sépa-
- rer sans ambiguïté le fait expérimental des développements hypothétiques qu’il suggère. — G. B.
- La vie des Colibris, par Ariane Martin. 1 vol. 15 x 21, 246 p., 32 planches en couleurs et nombreux dessins d’Anne Musy. Collection Les beautés de la Nature. Delachiux et Niestlé, Neuchâtel et Paris, 1959. Prix, cartonné : 31,20 NF.
- Le nom d’oiseaux-mouches donné aux Tro-cliiiidés ne correspond pas seulement à leur très petite taille ; leur façon de voler et de se nourrir évoque celle de certains insectes butineurs. Ce sont les seuls oiseaux qui sont capables de voler rigoureusement au point fixe, c’est-à-dire sans bouger de place, ou même de voler rapidement vers l’arrière. Ils le doivent à la structure de leur aile et à leur mode de battement qui a pu être déterminé par le cinéma ultra-rapide. L’oiseau butine une fleur aussi bien la tète en haut qu’en bas. Les Colibris se nourrissent aussi d’insectes qu’ils chassent soit au vol, soit à Fallut, servis par la structure étonnante de leur langue qui est extrêmement longue, bifide, et nantie d’une musculature spéciale. Certaines espèces vont chercher les insectes jusque dans les toiles des grosses araignées, au risque de se faire prendre. Bien des détails sur la biologie des Trocliilidés sont encore à préciser. Ils ne vivent pas en couples de façon durable, mais les mâles ne se désintéressent pas, semble-t-il, de leur progéniture et à l’occasion ils participent à la couvaison. Des parades très compliquées préludent à l’accouplement. Les territoires de chasse sont jalousement gardés, mais il semble exister des zones neutres accessibles à tous. Ce livre passionnera tous les naturalistes.
- Stratigraphie, par N. Tiiéobali) et A. Gama. 1 vol. 15,5 x 21, 385 p., 116 fig., 20 planches hors texte. G. Doin et Cle, Paris, 1959. Prix : 35 NF.
- Ce livre fait partie de la collection « Géolo-
- CO LLECTIO N ARMAND COLIN
- Encyclopédie du XXe s. en livres de poche
- 345 titres
- Dernières Nouveautés :
- LE PARASITISME CHEZ LES PLANTES
- C. CHRISTMANN
- ^ LA GRANDE INDUSTRIE CHIMIQUE DE BASE
- H. GUÉRIN
- L’ÉGYPTE PHARAONIQUE
- E. DRIOTON
- 224 p. 4,50 NF
- E3a. colin
- gie », publiée sous la direction de M. Albert Obré à l’intention des candidats aux grandes écoles biologiques. Il constitue un manuel clair, précis, où sont rassemblées les notions de base sur la stratigraphie, y compris la chronologie, la paléogéographie et les caractéristiques pétro-graphiques et paléontologiques des différents étages, du précambrien au quaternaire.
- Rouffitgnac. I : Galerie Henri Breuil et Grand Plafond, par L.-R. Nougier et R. Robert. Préface de Henri Breuil. 1 vol. 22 x 28,
- 80 p., 5 fig., 53 planches de photographies. Sansoni, Florence, 1959.
- Les auteurs de ce livre ont exposé eux-mêmes dans La Nature les étapes de leur découverte des figures murales désormais célèbres de Rouf-
- fignac, et ils ont développé le sujet dans un
- livre pour le grand public : Rouffignac, ou la guerre des Mammouths. Depuis lors, les gravures et peintures de Rouffignac ont été recensées, photographiées, étudiées en détail. Les auteurs ont donc entrepris la description complète dans cet ouvrage de la collection « Origines ». Ce premier tome s'ouvre par un
- résumé historique qui ne manque pas de saveur. La grotte a été connue et visitée depuis des siècles ; dans un ouvrage édité en 1575, François de Belleforest en donne un très bon plan, et note l’existence des figurations, ajoutant :
- « Je pense que ce lieu souterrain soit où jadis nos pères idolâtres allaient sacrifier à Vénus ou aux dieux infernaux... » On sait qu’on a là l'ensemble le plus riche d’animaux gravés et peints que nous offre Fart préhistorique. Il est remarquable que seuls le renne et le bœuf sauvage en soient absents. Les auteurs décrivent ici les parties de la grotte connues sous les noms de Galerie Henri Breuil et de Grand Plafond. Public dion du plus haut intérêt scientifique et humain.
- Durance et Lubéron, par Maurice Pezet. 1 vol 18,5 x 23, 160 p., 110 héliogravu res et une carte. Collection « Visages du Monde ». Horizons de France, Paris, 1958. Prix : i6 NF.
- A la découverte d'une Provence inconnue, tel pourrait être le titre de cet attachant ouvrage. Profond connaisseur des choses de Provence, M. Pezet décrit la région comprise entre Plateau de Vaucluse, Montagne de Lure et Durance. Du Lubéron, cher aux bergers de Daudet, à Manosque et Lure, cadre familier des héros de Giono, la promenade est pleine de charme dans cette « Toscane française », le long d’une route « baignée de ciel, de tourment et de magie ».
- A Geography of Italy, par D. S. Walker.
- 1 vol. 14,5 x 22,5, 256 p., 32 fi*., 24 pi. h. t. Methuen and Co. LtcL, Londres, 1958. Prix, relie : 30 sh.
- Cette géographie de Fltalie est construite selon un plan classique : conditions historiques, géographie physique, les régions, l’économie. On y chercherait vainement une quelconque fantaisie, une originalité marquée. Mais que demande-t-on à un livre de ce genre, sinon d’apporter commodément la documentation requise ? Or, rendons-lui cet hommage : l’ouvrage est complet, bien présenté, facile à lire, et ses divisions en rendent aisé le maniement. Un excellent manuel, au total, qui devrait obtenir un succès mérité auprès des étudiants et des professeurs.
- The Dutch and their dikes, par A. G. Maris, M. Dendermonde et H. M. Dibbits. 1 vol. 15 x 26, 175 p., nombreuses photos et cartes. De RezLge Bij, Amsterdam, 1958. Prix : 13,75 florins.
- Cel admirable ouvrage, écrit par les maîtres du Waterstaat hollandais, et illustré de magnifiques photographies, veut révéler la prodigieuse épopée des constructeurs de digues. Depuis des siècles, la technique a évolué, les dangers (pile-ivorm) écartés ; et, pourtant, la menace de la mer est toujours là, des événements récents Font prouvé. Apres un rappel des conditions naturelles, les auteurs étudient l’histoire de la construction des digues et de l’évolution des polders, accordant au passage de substantiels chapitres aux pionniers, anciens (Vierlingh, Leegh-water, Brunings) et modernes (Leemans, Lely, Lorentz). Les recherches actuelles des savants sont exposées en fin de livre. De très clairs croquis et de remarquables illustrations en pleine page rendent l’ouvrage particulièrement attrayant. Il est indispensable aux ingénieurs hydrauli-
- p.231 - vue 234/558
-
-
-
- 232
- ciens, aux techniciens de la défense contre les eaux. — P. W,
- Les climats et l’agriculture, par Guy Euverte. 1 vol. 11,5 x 17,5, 128 p., 23 fig. Collection « Que sais-je ? Presses Universitaires de
- France, Paris, 1959. Prix, broché : 2 NF.
- Répondant au souci souvent exprimé d'assurer la subsistance de l’humanité en perpétuel accroissement numérique, ce petit ouvrage résume tout d’abord les notions essentielles de climatologie et s’étend surtout sur l'écologie des principales plantes cultivées. Un chapitre terminal montre que le climat est le facteur essentiel de l’extension souhaitable des terres cultivées.
- The Great Puise, par Mary W. Staîsdlee.
- 1 vol. 15,5 x 21,5, 192 p., 58 fig. Charles
- E. Tuttle Company, Rutland et Tokyo, 1959.
- Prix, relié : 4,50 dollars.
- Sous un titre sibyllin, suggéré par la sphyg-mologie extrême-orientale, on découvrira une petite monographie de l’obstétrique japonaise envisagée sous tous ses angles ; historique, pratique, sociologique, folklorique. L’économie du livre repose sur le classement chronologique des faits, ce qui présente l’avantage de dégager avec netteté la remarquable continuité des usages et des croyances, depuis l’influence chinoise aux origines jusqu’aux temps modernes que l’Occident a marqués progressivement de son em-
- a et sert//ce c/u-dessm fechw/qc/e
- PORTE-MINE de PRÉCISION
- ECRIFIX
- CZ- ÙnrLg€AJg._
- TECHNOGRAPH
- 1929
- Brevets
- 1959
- ECRIFIX de LUXE
- avec cannelures
- CARAN D'ACHE crée un porte-mine breveté de précision à l’usage du dessin technique et de l’écriture.
- Les ECRIFIX CARAN D'ACHE sont toujours les meilleurs et les plus appréciés des porte-mine à longue mine.
- 7 POINTS de SUPÉRIORITÉ font de i'ECRIFIX de LUXE l’instrument de dessin le plus réputé.
- CRAYONS et MINES
- TECHNOGRAPH
- au GRAPHITE “ micronisé V. Son grain quasi colloïdal donne à la mine des qualités inégalées et tout spécialement une densité du trait permettant des reproductions hêlio aussi nettes qu’à l’Encre de CHINE.
- En COULEURS, Crayons PRISMATEC et Mines PRISMA offrent les mêmes avantages.
- Troît de mine TECHNOGRAPH (Grossi 30 fois)
- Trait de mine X (Grossi 30 fois)
- La PINCE FIX
- n’a jamais été égalée Elle serre la mine comme un étau
- DISTRIBUÉ par CORECTOR -ADHÉSINE
- cej.eMONNien jo.&
- preinte technique et meme morale, après la dernière guerre mondiale, avec l’adoption des méthodes contraceptives et de l’avortement légal. Destiné au grand public, ce travail sans prétentions, qu’illustrent photographies et dessins au trait, initiera agréablement à un aspect non négligeable de la civilisation japonaise. Notes bibliographiques, index. — L, T.
- A short history of scientific ideas to 1900,
- par Charles Singer. 1 vol. 14 x 22,5, xx-525 p., 188 fig., 1 frontispice. Clarendon Press, Oxford University Press, Londres, 1959. Prix, relié : 35 sh.
- Ce livre montre, par une suite d’exemples choisis et utilement illustrés de documents graphiques d’époque, l’évolution des concepts scientifiques et mieux encore celle des manières d’aborder les grands problèmes de la science. Tentative très heureuse de rapprocher les faits de civilisation, les courants culturels et jusqu’aux prémices philosophiques de la nature des moyens pratiques utilisables à chaque époque pour résoudre les énigmes scientifiques.
- La pratique du chauffage par induction,
- par D. Warburion-Bro'wn. Traduit de l’anglais par Joseph Blond. 1 vol. 16 x 25, 226 p., 164 fig, Eyrolles, Paris, 1959. Prix, relié : 28 NF.
- Après avoir rappelé les principes de base de l’emploi des inducteurs haute fréquence, l’auteur examine leurs applications principales, en détail : soudage, brasage, trempe (notamment des pignons), etc., et en donnant des indications précises sur les conditions de travail.
- Captage et utilisation du méthane des charbonnages. Évolution depuis 1956. 1 vol.
- 15,5 x 24, 122 p., 28 fig. Publications de rO.E.C.E., Paris, 1958. Prix : 3,50 NF.
- Compte rendu de nouveaux résultats obtenus en Belgique, en Sarre, en Grande-Bretagne, en Allemagne, tant au point de vue du captage qu’à celui de la valorisation.
- A la recherche de Moby Dick, par Jacques Soulaire. 1 vol. 17 x 21, 95 p. Hachette, Paris, 1959. Prix, cartonné : 8 NF.
- Un beau reportage photographique, brièvement commenté, sur la chasse au cachalot, des Açores au Cercle polaire. La fusée-harpon la plus moderne contient une charge d antibiotique pour éviter la putréfaction des chairs meurtries. On souhaite qu’un nouveau progrès introduise un analgésique pour humaniser cette trop longue agonie...
- — A NOS LECTEURS ————
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Le gérant : F. Dunod. — dunod, éditeur, paris* — dépôt légal : a6 trimestre 1960, n° 3528. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 4<>g5. — 5-ig6o-
- p.232 - vue 235/558
-
-
-
- N° 3302
- Juin I960
- LA NATURE
- Le pétrole du Bassin de Paris et les progrès de la Géologie régionale
- Qui aurait pu soupçonner, voici quelques années, le prodigieux développement pris dans la région parisienne par les recherches pétrolières, couronnées de succès en plusieurs points ?
- Parallèlement à l’intérêt économique de cette réussite, les travaux géophysiques et géologiques qui lui sont liés fournissent une moisson de renseignements d’un intérêt capital pour la connaissance — en vérité pour la découverte — du sous-sol régional. C’est à partir de ces données (profils séismiques, coupes de forage, logs électriques, descriptions lithologiques) que les géologues travailleront dans les années à venir pour étudier la stratigraphie, la tectonique et la paléogéographie de toutes les séries sédimentaires jusqu’ici inconnues au centre du Bassin de Paris.
- En moins de 8 ans, des progrès stupéfiants ont été réalisés. On a foré 5oo m en ig52, 2 3oo m en 1953, 11 000 en 1954, 20 900 m en 1955, 23 4oo m en ig56, 3o 800 m en 1967, plus de 5o 000 m en 1958. Fin igôg, on possédait plus de i5o coupes au Jurassique moyen entre 1 4oo et 2 000, 60 jusqu’au Lias, 3o jusqu’au Trias à plus de 2 4oo m et i5 poussées jusqu’au
- socle cristallin. Plus de 35 milliards d’investissements furent consacrés de ig55 à 1909 en recherches géophysiques et géologiques dans le Bassin Parisien.
- Jusqu’en 1956, un seul (Ferrières-en-Bray) des 288 forages profonds existants (Lemoine, Soyer, Humery, 1939) avait dépassé 700 m et les Sables verts; aucun même, par un curieux paradoxe, n’avait percé le Crétacé à plus de 190 m dans le département de Seine-et-Marne, alors que les géologues pétroliers y concentrent aujourd’hui le maximum de leurs efforts et l’ont exploré jusqu’à 3 000 m.
- Les méthodes de recherches. — Quand les découvertes de Saint-Marcet, Lacq et Parentis eurent attiré l’attention sur les bassins sédimentaires français, des travaux de reconnaissance furent entrepris dans la région parisienne par l’Institut français du Pétrole. Les conclusions furent que « les conditions n’étaient pas défavorables ». Cependant, on établit l’absence de roches-magasins et de couverture imperméable avant la base du Crétacé. L’élude des bordures (surtout ardennaise) montra par contre l’existence de pièges à pétrole possibles au
- Fig. 1. — Trois types d’appareils de forage utilisés dans le Bassin parisien.
- A gauche : Mât de forage léger pour sondages structuraux et, exploration à faible profondeur (jusqu’à 1 000 m). Au milieu : Mât de forage moyen sur remorque pour sondages au Jurassique jusqu’à 2 200 m ; ici en service au premier forage de Chailly, au bornage forestier, où le gisement de Fontainebleau fut découvert. .4 droite : Derrick lourd à éléments croisilionnes ajustés sur place, capable de forer jusqu’au socle, à 3 000 m; à droite de la photo, un empilement de boites pour emballage des carottes géologiques ; devant la table de rotation, les tubes de forage.
- (Photos aimablement communiquées par le journal La Liberté de Seine-et-Marne, Fontainebleau').
- p.233 - vue 236/558
-
-
-
- 234
- Fig. 2. — Vue en contre-plongée d’un mât de forage prise en raccourci de la table de rotation.
- A droite, le mât. Au centre, le palan et le moufle soutenant la barre ancrée ijui commande la rotation des tiges de forage ; à gauche, sous le râtelier où l’on entrepose les tubes, le raccord souple d’injection de la boue de forage sous pression. Une étude détaillée des techniques de forage a paru dans La Nature, avril 1955, p. 156-164.
- Jurassique moyen (Calcaires oolithiques et récifaux du Batho-nien) et dans les grès du Rhétien, conclusions qui se sont trouvées confirmées (fig. 6).
- Mais du point de vue géologique, le Bassin de Paris n’est pas une région facile. Sa superficie de 175 000 km2 ne présente aucune tectonique apparente et il fallut faire appel à des techniques géophysiques coûteuses, complexes (gravimétrie, séismique, carottages électriques, forages structuraux) pour étudier le profil du sous-sol et localiser les zones structurales (anticlinaux, failles) favorables à l’accumulation du pétrole dans les roches poreuses.
- Le Bureau de Recherches géologiques et géophysiques dressa d’abord des cartes gravimétriques détaillées (au 200000e et au 80 000e) pour le Bassin de Paris, publiées en 1954 avec commentaires de Goguel. Puis, on étudia g3o km de profils séismiques avec 2 4oo forages légers en Brie et Champagne pour repérer le socle primaire décelé à —3 000 m, ce qui témoigne de la puissance des couches sédimentaires et de l’épaisseur du bassin de subsidence, estimé jusqu’en 1950 encore (Abrard) à i 750 m.
- Les forages. — En 1953, la Régie autonome des Pétroles se lança la première dans l’aventure. A dire vrai, un premier forage isolé avait été exécuté dès ig45 près de Saint-Florentin (Yonne) sous le contrôle de l’Armée, mais il a été arrêté à 95o m par un accident technique et abandonné faute de
- crédits. La R.A.P. donc, après un premier forage de reconnaissance à Ancerville, le long de la faille de la Marne, installe de juin à septembre 1953 un forage profond à Vacherauville, près de Verdun; on arrête le trépan sans résultat à 2 255 m dans le Permien; deux magasins à 1000 et 1800 m n’ont donné que de l’eau salée émulsionnée de gaz.
- Mais cette exploration profonde fait soupçonner la nécessité de réviser les notions stratigraphiques considérablement sous-estimées jusqu’alors. Et la R.A.P., se rapprochant du fond du bassin subsidentiel, exécute d’octobre xg53 à mai 1954 le forage de Courgivaux (Marne) qui apporte une documentation fondamentale sur la puissance des couches sédimentaires. On traversa 1 o58 m de Crétacé, 1 oi4 m de Jurassique, 457 m de Lias, 5o2 m de Permo-Trias pour rencontrer le socle paléozoïque à 3 177 m (— 2 999) et stopper la sonde à 3 186 m; mais le pétrole, présent au Bajocien à 2 200 ni, ne fut décelé qu’à l’état de traces inexploitables.
- Fig. 3. — Un « arbre de Noël », avec Vanne de réglage et manomètre de pression, contrôlant le débit du puits où l’huile arrive au sol en éruption naturelle par la pression de l’eau sous-jacente.
- Pendant que se poursuivait une campagne de séismique détaillée en Brie, la R.A.P. retourne sur la fameuse boutonnière du Pays de Bray vainement explorée de 1923 à 1927 par l’Office national des Combustibles et y exécute, à Gournay notamment, plusieurs forages. En 1954, un magasin est découvert à 5oo m; mais les essais donnent une huile lourde (0,90 de densité), visqueuse, chargée de paraffine, et une venue d’eau arrête la production. Ce gisement n’a fourni que 5oo m3 et la structure a dû être abandonnée, non sans avoir été l’objet de quatre autres forages vains en ig58.
- Revenant en Brie champenoise, quadrillée par une séismique serrée, la R.A.P. fore en avril 1955 Mailly-I, arrêté au Permien à 2 700 m après indices inexploitables au Dogger et au Rhétien, et place trois sondages sur une anomalie gravimétrique à Bou-chy-le-Repos (Marne), tous trois arrêtés, secs, entre 1 i56 et 1 3o6 m. A la fin de 1955, on avait exécuté 17 forages infructueux sur les lisières du Bassin de Paris, dont 8 en Pays de Bray. Fin 1957, la R.A.P. avait à son actif 25 sondages dont 3 positifs, mais inexploitables. En revanche, la structure profonde de la région, au moins quant à la stratigraphie, commençait à perdre de son mystère.
- p.234 - vue 237/558
-
-
-
- Fig-. 4. — La boue de forage remonte du fond les débris de roches brisées par le trépan.
- Décantés et filtrés, ces « cuttings » sont constamment analysés par les géologues sur le chantier même, dans la cabine - laboratoire où l’on prépare le « log de sonde », coupe géologique et technique du forage.
- 'Photos aimablement communiquées par La Liberté de Seine-et-Marne) .
- Les résultats obtenus, quoique faibles, déclenchent en ig54-iq55 une vague de demandes de recherches. 22 permis furent accoi'dés, couvrant 100 000 km2, que se partagent 9 sociétés. 12 milliards étaient dépensés à la tin de ig55. go forages réalisés dans le Bassin de Paris n’avaient livré que des promesses.
- En 1955, la Compagnie d’Exploration pétrolière fore la structure de Vigny (Seine-et-Oise) jusqu’au Bathonien rempli d’eau à 1 25o m, puis celle de Banthelu près de Mantes, sans résultats, jusqu’à x 657 m. A Rambouillet, même échec et abandon à 1 706 m au Silurien; à Maule, sur une anomalie gravimé-trique liée à la faille de la Seine, le Bathonien est empli d’eau à 1 168 m.
- La C.E.P. s’installe alors en Seine-et-Marne et, sans attendre les résultats des études séismiques, plante de novembre ig55 à mai xg56 un grand derrick à Château-Landon sur une faille bien connue prolongeant celle du Sancerrois; les espoirs mis sur ce réseau de fractures sont encore déçus. La sonde traverse 773 m de Crétacé, 624 m de Jurassique supérieur, 48i m de Jurassique moyen oolithique, 358 m de Lias et pénètre dans le Permo-Trias jusqu’à 2664 m; une vingtaine d’essais ne fournissent que de faibles indices au Bajocien entre 1 760 et 1 772 m. Un an plus tard, sur la structure du Puiselet, près de Nemours, on trouve 800 m de Crétacé, 942 m de Jurassique, 298 m de Lias et l’on stoppe au Permo-Trias à 2 258 m; là encore, le Dogger se révèle imprégné entre 1 820 et 1 896 m, mais envahi d’eau et inexploitable; un second forage sur ce dôme en igùg devait être aussi décevant et abandonné à 1 817 m dans le Lias.
- Les premiers succès devaient couronner les efforts d’une société plus modeste, Pétrorep, qui explorait une zone proche de Paris, sururbanisée, où les études structurales séismiques étaient impossibles. Installée près de Meaux en 1966, Pétrorep décide de brûler les étapes. Les levés géologiques furent remplacés par 18 forages légers (core-drills) à 1 200 m pour repérer le toit du Jurassique et obtenir une localisation des anticlinaux; on se risqua même à une extrapolation plus hardie encore avec ig4 trous entre 5o et i5o m seulement pour chercher un repère électrique à la base des calcaires lulétiens. On repéra un prolongement du périclinal du Bray avec relais vers Saint-Mard (Seine-et-Marne), un autre de l’axe de Beynes-
- Meudon au sud de Paris et deux autres axes perpendiculaires, l’anticlinal du Multien-Orxois et une légère culmination à Coulommes, avec dénivelée de 100 m au toit du Portlandien sur G km, justifiant l’implanlalion du premier forage d’exploration. Ce fut Coulommes-I, en octobre 1957.
- Les géologues avaient vu juste. Après avoir atteint à 923 m un premier réservoir vvealdien gazeux, puis à 1 577 m un second réservoir au Rauracien, le 22 février ig58, sous la couverture oxfordienne, une carotte extraite au Bathonien à 1 870 m (— 1 711) se montrait imprégnée d’huile; le forage fut arrêté à 2 200 m pour mise en production. Il s’agissait, pour la première fois dans le Bassin parisien, d’un véritable gisement.
- En été 1958, Pétrorep explora une autre structure à Grouy-sur-Ourcq (Seine-et-Marne) jusqu’au Permien; on traversa 987 m de Crétacé, 1 080 m de Jurassique, 53g m de Lias et l’on ai’rêta le trépan à 3 og3 m à proximité probable du Carbonifère; des indices inexploitables furent décelés au Rhélien, à 2 565 m. En 1959, Pétrorep dispose de 8 appareils de forage sur son permis et poursuit son étude. Un forage à Nandy (Brie melu-naise) se montre sec; une structure positive (indices à l’Aalé-nien à x go5 m) est observée à Montlevée, à 5 km de Coulommes; une autre, plus intéressante, à Nantouillet (S.-et-M.), où le Bathonien est 100 m plus haut qu’à Coulommes, est découverte au début de i960. Par contre, les structures de Coupvray (S.-et-M.), Montretout (forée jusqu’au Lias à 2 268 m), La Haute Maison (indices au Bajocien à 1931 m) sont sèches, compactes ou remplies d’eau.
- Dans la Brie provinoise, la R.A.P. est restée dix mois (1958-1959) à Nangis sans avoir pu rendre exploitable le Charmouthien imprégné à 2 265 m; elle persévéra aussi vainement à Mailly, avec quatre nouveaux sondages au Dogger, à 1 320 m et pareillement à Montmirail, où l’on arrêta au Lias à 2 223 m. De son côté, la Société nationale des Pétroles d’Aquitaine trouva quelques traces d’huile à Forcelles, en Champagne, tandis qu’un forage à Sennely (Loiret) était négatif à 1 g56 m.
- C’est alors qu’une séismique serrée (un point tous les 280 m), quadrillant le Pays de Bière en ig58, localisa une structure en Forêt de Fontainebleau. Mais l’administration forestière,
- p.235 - vue 238/558
-
-
-
- 236
- soutenue par les associations de protection des sites, se fit tirer l’oreille et la C.E.P. fora un premier trou à Chailly-I, au bornage forestier. L’huile était au rendez-vous le 28 octobre ig58, à 1 667 m (—1 587) au Bathonien, mais mêlée d’eau; on était trop sur la pente de l’axe; il fallait sonder en forêt. Le ministre de l’Agriculture s’opposa à son collègue de l’Industrie et du Commerce et le premier ministre, M. Debré, appelé à trancher le différend, autorisa les forages en forêt domaniale ; ce fut Chailly-V, aux Evées, qui se révéla très intéressant. Un programme de 5o autres trous est déjà très avancé sur cette structure en pleine exploitation. Onze servitudes ont été imposées aux sociétés pour éviter le massacre des futaies (vidange des bourbiers, reboisement, interdiction de poser des réservoirs, etc.). La R.A.P. a reconnu la partie Est du gisement, également productif à Bois-le-Roi et Char-trçttes. Une structure proche, à Héricy-Fontaineroux, est sèche. De même celles de Perthes-en-Gâtinais, Cély-en-Bière, Villiers-en-Bière, contiguës à celle de Chailly.
- Dans le Gâtinais, Aufferville donne des indices intéressants à 1591 m (Bathonien) et retient l’attention au début de i960 comme zone prometteuse; par contre, on a foré vainement en Seine-et-Marne à Beaumont-du-Gâtinais, Chaintréaux, La Made-leine-sur-Loing, Thoury-Ferrottes, Poligny, en 1959-1960.
- Dans le Loiret, Fropex entreprit une campagne géologique et séismique dès 1953. En 1958, c’est sur une structure décelée au Trias, vers — 1 200, que l’on implanta un mât de forage; une surprise attendait les pétroliers : un gisement existait à 565 m, au Néocomien. Une dizaine de puits l’exploitent mais
- il s’est révélé complexe et décevant; la couche imprégnée n’a guère qu’un mètre d’épaisseur.
- Dans l’Yonne, on n’a enregistré que des échecs jusqu’à présent malgré de multiples forages à Quenne, Saint-Loup d’Ordon, Jaulges, Brion, Chaumot, Fleury-Ia-Vallée, Sens, Brienon, Chcroy, Ormoy, etc.
- Au début de 1969, après les succès de Coulommes, Château-renard, Forilainebleau-Cliailly, la fièvre du pétrole envahit définitivement le Bassin parisien. Toutes les sociétés y concentrent leur matériel de forage; on compte au début de i960 seize appareils lourds et moyens, mâts et derricks, en action en Seine-et-Marne et la découverte des gisements se généralise. A Grandville (Aube) positif au Rhétien à 2 089 m et qui débita jusqu’à 81 m3/j, mais dut être abandonné; à Saint-Martin-de-Bossenay (Aube), bon producteur à 1 375 m; à Villemer-Non-ville (iS.-el-M.), bon producteur au Dogger avec indices au Lusitanien; à Nanlouillet (S.-et-M.); à Saint-Firmin-des-Bois (Loiret), producteur au Néocomien.
- Mais les échecs sont plus nombreux encore : six forages structuraux à Manies (S.-et-O.) au Kiméridgien restent sans suite; deux sont négatifs à Clayes-sous-Bois (S.-et-O.) au Porl-landien et à Rosny-sur-Seine (S.-et-O.) au Trias à 1 343 m. Des structures sèches ou inexploitables sont reconnues, dans l’Eure à Vernon, Houlbec, Prey; dans l’Yonne (Villebourgeon), le Loiret (Boiscommun, Griselles, Sennely, Sully-sur-Loire), l’Oise (Fouilleuse, Balleuse, Saint-Maur), à Rigny-la-Noneuse (Aube), Huglaville (Seine-Maritime)Marville (Eure-et-Loir).
- Fig. 5. — Périmètres des titres miniers accordés dans le Bassin de Paris et localisation des gisements en exploitation.
- TERTIAIRE °
- 'kl QC 53 200 /Y
- k. -kl £ •kl k. «0
- QC CJ K- ALBIEN EAU, PUITS ARTÉSIENS
- K ARGILES
- NÉOCOM. 1000 MAGASIN
- kl n m ARGILES
- -4 RAURAC. MAGASIN
- O ARGILES
- CO Hl
- <0 S CO B AT H ON. MAGASIN
- tû CJ 2000
- y n CO « ARGILES
- S5 -4 RHET. n
- MAGASIN
- CO «a- « ARGILES
- MAGASIN
- 1 3000 Ü ARGILES
- SOCLE HERCYNIEN
- Fig. 6. — Coupe schématique des séries secondaires dans le Bassin de Paris avec localisation des cinq for-mations, dites « magasins », qui contiennent des gisements en exploitation ou qui ont fourni des indices.
- Les cotes correspondent à la profondeur en Brie meldoise.
- p.236 - vue 239/558
-
-
-
- 237
- Les terrains pétrolières. — Le pétrole se localise dans les terrains poreux et perméables sous-jacents à des couches imperméables. Dans le Bassin de Paris, il a été décelé jusqu’à présent dans cinq formations (fîg. 6) : à l’Infracrétacé, dans les sables
- néocomiens sous les argiles barrémiennes; dans le Rauracien, sous la couverture kiméridgienne ; dans les calcaires oolithi-ques du Dogger (Bathonien-Bajocien) ; au Rhétien sous les
- Cau/ommes
- Bouteurs
- Fig. 7.
- • Implantation des forages aux gisements de Coulommes (en haut) et de Fontainebleau-Chailly (en bas).
- Triangles noirs : puits productifs ; triangles blancs : puits secs.
- marnes liasiques et au Trias. Mais il ne s’agit partout que de structures lenticulaires d’assez faible ou de très faible étendue.
- Les magasins du Néocomien, exploités dans le Loiret, sont très minces (i à 3 m d’épaisseur), lacunaires et complexes; dans un rayon de i km, quatre forages trouvent quatre dispositions différentes des couches imprégnées par rapport aux couches aquifères. Les structures sont discontinues, « à la manière de fruits confits dans un cake » a pu dire un géologue, ce qui revient à transformer chaque forage en un coup de dé.
- En revanche, les pièges du Dogger (au toit du Bathonien le plus souvent) constituent le grand espoir du Bassin parisien; la couche imprégnée a de io à 6o m d’épaisseur. A Coulommes, par exemple, elle est constituée de haut en bas par une formation de calcaires oolilhiques (à — i 710) de 7 à 8 m, à
- AISNE
- LOIRET
- Montants •
- Fig. 8.
- Chdleaurenard )
- * )
- /
- — Les cinq gisements productifs du Bassin de Paris (en noir) pt nnelaties récents forases secs (triangles blancs).
- perméabilité de 7 à 25 millidarcys (1), puis par une couche de calcaires sublithographiques fissurés et imprégnés à faible porosité (5 à 10 pour 100) et perméable (7 darcys). Sous l’huile, à — 1 733, la base du gisement est constituée par un calcaire très zoogène, vacuolaire, à débris d’algues et de Polypiers (perméabilité 5o darcys) empli d’eau salée à 29 g/l.
- Les pressions sont égales à la pression hydrostatique (jusqu’à i4o kg/cm2); l’éruption de l’huile est provoquée par la différence de densité avec l’eau sous-jacente; il n’y a pas de gaz. Suivant l’absence de couche détritique et sa position par rapport au plan d’eau, l’exploitation se fait par éruption naturelle ou par pompage.
- 1. Le coefficient de perméabilité intrinsèque d’un terrain s’exprime en darcys ; ce coefficient a les dimensions d’une surface 1 1 darcy = 0,987 x 10-8 cm4.
- p.237 - vue 240/558
-
-
-
- 238
- L’huile est légère (densité o,855), anhydre sur plusieurs mètres, dépourvue de soufre; elle contient de 22 à 3o pour 100 d’essence et convient à la production du fuel ou du mazout. Elle est de couleur brun olivâtre, légèrement aromatique, fluide. A titre de comparaison, indiquons que l’huile des Landes titre 0,860 et donne 24 pour 100 d’essence.
- Les gisements en exploitation. — Cinq gisements sont actuellement en exploitation dans le Bassin parisien. Ils totalisent 7& puits productifs au début de i960 sur 96 forés pour délimiter leur périmètre.
- Coulommes (Seine-et-Marne). — Le magasin exploité par Pétrorep est situé au Bathonien, entre 1 85o et 1 900 m ; il a une surface de 3 km sur 2 environ et est en production depuis juin 1958. Au début de i960, 29 puits y sont productifs sur 34 forés; le meilleur débite 220 m3/j. La production, de 2 700 t en janvier 1959, passait à 20 000 t en juillet et se stabilisait par suite de difficultés d’évacuation. Elle a été de 12 000 t en 1958 et de 142 000 t en 1959, avec prévision de 25o 000 t pour i960, représentant une valeur de 2 milliards et demi d’anciens francs. Les réserves sont provisoirement évaluées à 2 000 000 t. A fin igôg, plus de 7 milliards d’anciens francs avaient été investis sur cette structure. Le brut est évacué par oléoduc à la station de stockage de Fublaines (S.-et-M.) dotée de 6 réservoirs aériens d’une capacité de 18 33o m3; puis par péniches vers les raffineries de la Basse-Seine (Port-Jérôme).
- Fontainebleau-Chailly-Chartrettes (S.-et-M.). — Ce gisement s’étend d’est en ouest sous la Seine et la Forêt de Fontainebleau; il a au moins 6 km est-ouest sur 4 km nord-sud. La couche imprégnée a de 2 à i5 m d’épaisseur; elle est située au Dogger, à 1 660 m, et est en exploitation depuis novembre 1958. On fore un quadrillage de puits espacés de 750 m et moins. Au début de i960, 26 puits sont productifs sur 3o forés à Fôntainebleau-Chailly, et 5 (sur 6 forés) à Chartrett'es. La production, de 3o5 t en mars igôg, passait à 7 3oo t en décembre. Elle a totalisé, en 1969, 27 000 t pour la C.E.P. et 9 420 t pour la R.A.P., qui se partagent le gisement. L’évacuation a lieu par oléoducs à la station de stockage de Chailly-Fay, puis par route et voie fluviale au départ de Melun en attendant la construction d’un oléoduc à la Seine (à Boissise-le-Roi). Un programme de 5o puits positifs permettra une production de 5oo 000 t/an; les réserves sont estimées à 10000000 t, d’une valeur de 120 milliards d’anciens francs. Une dizaine de milliards d’anciens francs ont été investis sur cette structure.
- Châteaurenard (Loiret). — Les réserves, situées dans les sables du Néocomien, à 56o m, sont évaluées à 4o 000 t pour le magasin de faible étendue exploité par Fropex; d’autres sont soupçonnées. L’intérêt du gisement réside dans sa faible profondeur, mais il est fortement compartimenté et de très faible épaisseur (1 à 3 m). Onze puits sont forés dont 5 productifs, les meilleurs donnant de 6 à 10 m3/j. La production a été de 17 216 m3 en 1959 et se stabilise à 1 800 m3/mois, évacuée au dépôt de stockage de 67 m3 construit à Triguères (Loiret), et à celui de Villeneuve-sur-Yonne (Yonne) d’une capacité de 70 000 1 / j.
- Saint-Martin-de-Bossenay (Aube). — Le magasin, découvert par la Copesep en mars 1959, est situé dans le Dogger à 1 4oo m; l’épaisseur de la couche imprégnée est de 4o à 65 m. Six puits positifs (sur 9 forés) ont produit 22 726 m3 de brut en 1959 avec un rendement de 20 à 70 m3/j par puits; mais le débit a doublé au début de i960 (i3 000 m3 en février) car un nouveau forage donne 36o m3/j, maximum obtenu actuellement dans le Bassin parisien. L’évacuation se fait par route jusqu’à Montereau (S.-et-M.), puis par la Seine.
- Villemer (S.-et-M.). — La R.A.P. a découvert en septembre 1969, sur l’anticlinal de Villemer, des indices au Lusitanien à 1 190 m, puis un magasin productif au Dogger à 1 5i4 m
- sur une dizaine de mètres d’épaisseur; la mise en production a commencé le 29 octobre 1959. Quatre puits sont en production (sur 4 forés) et deux autres en cours de forage, tous situés sur la commune de Nonville (S.-et-M.), sur le flanc ouest de l’axe; le meilleur puits débite 84 m3/j. L’évacuation est prévue par oléoduc au port de Saint-Mammès, puis par la Seine.
- Production des gisements du Bassin de Paris. — La production n’en est qu’à ses débuts, mais dès maintenant elle se situe au troisième rang des zones productrices françaises et confirme la vocation pétrolière réelle de cette région. L’ensemble des cinq gisements avait fourni, à fin mars i960, 327 000 t de brut se répartissant ainsi : Coulommes 200 000, Fontainebleau-Chailly-Chartrettes 5o 000, Villemer 5 000, Saint-Martin-de-Bossenay 5o 000, Châteaurenard 22 000. Pour 1909 seulement, ils ont débité globalement 200'000 t et l’on compte sur un total de 5oo 000 t en i960, capable de doubler en quelques années, compte non tenu des nouveaux gisements qui seront certainement découverts, étant donné la structure lenticulaire et discontinue des magasins. A titre de comparaison, indiquons que le Sahara produit 6000000 t/an, Parentis 1 000 000 t/an, Lacq 100 000 t/an et Pechelbronn 27 000 t/an.
- Au prix de 12 000 anciens francs la tonne de brut au puits, on voit que la production du Bassin de Paris est de l’ordre de 4 milliards d’anciens francs à mettre en face des 35 milliards investis dans la recherche. Mais on estime que les puits doivent produire au moins pendant vingt ans à un débit que l’on stabilisera à 1000000 t/an, soit une estimation globale des réserves actuellement découvertes à 240 milliards d’anciens francs.
- La production devant être évacuée actuellement en Basse-Seine et en Gironde pour y être traitée, on envisage la construction de raffineries en Seine-et-Marne. Ces réalisations seraient rentables à partir d’une production de 5oo 000 t/an. Un projet assez avancé situe l’une de ces usines à Fublaines, près de Meaux, pour les gisements du nord du département; une autre serait édifiée à Montereau pour les gisements du sud seine-et-marnais et aubois. Il s’agit de petites raffineries traitant le pétrole brut sans aller jusqu’aux produits finis ni aux sous-produits.
- Les acquisitions de la géologie régionale. — Du point de vue stratigraphique, le grand nombre et la dispersion des forages exécutés à travers tout le Secondaire du Bassin de Paris apportent une documentation considérable et neuve sur l’épaisseur, la succession et la profondeur des étages. Nous nous en tiendrons ici à quelques données brutes, relevées d’après les logs de sonde originaux qu’ont bien voulu nous communiquer, et nous autoriser à publier, les sociétés pétrolières. Les cotes sont indiquées au toit des étages, en altitude absolue (comptées au-dessous du niveau de la mer).
- Forêt de Fontainebleau (secteur Nord, Evées-Table-du-Roi ) : Sçno-nien —46, Turonien —317, Cénomanien —471, Gault —533, Albo-Aptien — 577, Barrémien —714, Néocomien —791, Purbeckien
- — 892, Portlandien —911, Kiméridgien —1041, Séquanien
- — 1 211, Rauracien — 1 304, Argovien —1 446, Oxfordien — 1 506, Callovien — 1 533, Bathonien — 1 588.
- Pays de Bière (Cély-en-Bière) : Sénonien —122, Cénomanien —'457, Gault —518, Albo-Aptien —575, Barrémien —718, Néocomien — 787, Purbeckien —889, Portlandien —908, Kiméridgien — 1 038, Lusitanien — 1 208, Oxfordien — 1 473, Callovien
- — 1 527, Bathonien — 1 582, Bajocien — 1 849. A Villiers-en-Bière le Bathonien est à — 1 615.
- Brie melunaise : A Chartrettes : Sénonien — 19, Turonien — 324, Cénomanien — 462, Albien — 544, Aptien — 693, Barrémien — 725, Néocomien — 799, Purbeckien — 901, Portlandien — 915, Kiméridgien — 1 046, Lusitanien — 1 213, Oxfordien — 1 483, Callovien —1 557, Bathonien —1 584. A Nandy, le Portlandien est à
- — 919, l’Oxfordien à — 1 446 et le Bathonien à — 1 588. A Touman, le Gault est à — 659 et le Portlandien à — 1 045. A Auvemaux, près de Ponthierry, on relève les cotes suivantes : Néocomien
- — 763, Portlandien — 880, Kiméridgien — 1005, Oxfordien
- — 1 441, Bathonien — 1 536, Aalénien — 1 741, Toarcien — 1 753,
- p.238 - vue 241/558
-
-
-
- 239
- Fig. 9, 10, 11. — Ci-contre : Un des groupes de la station de stockage en lisière de la forêt de Fontainebleau, à Fay-Chailly. — En bas à gauche : Oléoduc menant de Cou-lommes à la station de stockage de Fublai-nes (S.-et-M.). — En bas à droite : Arrivée du pétrole par oléoduc aux quais d’embarquement aménagés au bord de la Seine, de la Marne et du Loing, pour son chargement sur péniches-citernes à destination des raffineries de Normandie.
- (Photos G. Pestalozzi, aimablement communiquées par notre confrère La Liberté de Seine-et-Marne, Fontainebleau).
- Fig. 12. — La station de stockage de Fublcd-nes (Seine-et-Marne), d’une capacité de 18 000 m\
- (photo G. Pestalozzi, aimablement communiquée par La Liberté de Seine-et-Marne).
- p.239 - vue 242/558
-
-
-
- 240
- Domérien — 1 802, Carixien —1 875, Lotharingien —1921, Rhé-tien — 1 9S6>, Trias — 1 997.
- Brie meldoise : A Goulommes : Sénonien — 17, Turonien — 444, Cénomanien —556, Albo-Aptien — 620, Pürbeckien —937, Port-landien — 980, Kiméridgien — 1 119, Lusitanien — 1 267, Oxfor-dien —1 535, Callovien — 1 662, Bathonien —1717, Bajocien
- — 1911, Aalénien —2 057, Trias —2306. A Crouy-sur-Ourcq, le Portlandien est à — 900, l’Oxfordien à — 1 450, le Bathonien à — 1 660, l’Aalénien à — 1 930, le Trias à — 2 490 et le Permien à — 2 670.
- Brie provinoise : Courgivaux : Sénonien —38, Cénomanien
- — 532, Albien —655, Barrémien —874, Iiauterivien —897, Néocomien — 978, Pürbeckien — 1 014, Portlandien — 1 058, Kiméridgien — 1 130, Lusitanien — 1 358, Callovien .— 1 629, Bathonien — 1 745, Aalénien — 2 041, Toarcien — 2 072, Domérien
- — 2 222, Lotharingien — 2 326, Sinémurien — 2 435, Hettan-gien — 2 442, Rhétien — 2 46-4, Permo-Trias — 2 498, socle — 2 999. A Nangis, on note les cotes suivantes : Néocomien — 802, Portlandien — 950, Lusitanien — 1 292, Callovien — 1 655, Bathonien
- — 1 679, Aalénien — 1 958, Toarcien — 1 982, Rhétien —2 307, Trias — 2 315.
- Gâtinais nemourien : Nemours (Le Puiselet) : Gault —393', Barrémien — 591, Néocomien —668, Portlandien — 778, Lusitanien —1 091, Oxfordien —1 362, Callovien — 1 453, Bathonien — 1 493, Aalénien — l 720, Toarcien — 1 740, Sinémurien — 1 969, Permo-Trias — 2 026. A Château-Landon, le Néocomien est à — 569, le Portlandien à — 671, le Bathonien à — 1 412, le toit du Lias (Aalénien) à — I 676, le Permo-Trias à — 2 024. A Beaumont-du-G Minais, le Bathonien cote — 1 479 et le Lias — 1 686. A La Madeleine-sur-Loing, le Lias gît à — 1 694. Le Bathonien est à —1581 à Poligny, —1 488 à Thoury-Ferrottes et à — 1 445 à Nonville-Vil-lemer.
- Loiret : Snlly-sur-Loire : Cénomanien — 14, Gault — 104, Barrémien — 250, Néocomien —341, Portlandien —364, Lusitanien
- — 645, Bathonien —1061, Aalénien —1 219, Charmouthien —‘ 1 306, Trias —1 462. A Boiscommun, le Bathonien est à —1 530 ; à Châteaurenard, le Néocomien a — 305 et le Trias à — 1 645 ; à Pithiviers, le Callovien est à — 1 373.
- Yonne : Dans le Sénonais, le Bathonien cote — 1 336 à Chéroy,
- — 1 327 à Chaumot, où le Callovien est à — 1 190. A Brienon, le Bathonien gît à — 740, et à — 323 à Jaulges près de Saint-Florentin, où le Lias est à — 732, le Permien à — 1 096 et le socle hercynien à — 1 150. Dans le Jcmnien, à Brion, les cotes sont' les suivantes : Barrémien —150, Lusitanien —618, Argovien —751, Bathonien —800, Rhétien —1311, Permo-Trias —1 633. Dans l’Auxerrois, on cote — 650 au Charmouthien, — 700 au Permo-Trias et — 800 au socle à Quenne.
- Loir-et-Cher : A Contres, près de Blois : Portlandien — 127, Lusitanien — 370, Oxfordien — 658, Bathonien —751, Lias (Aalénien)
- — 872, Trias — 1 006.
- Eure-et-Loir,;; : A Chartres, le Bathonien est à — 600 et le socle à — 850.
- Seine-Maritime : Ferrières-en-Bray : Albien —122, Oxfordien
- — 293, Bathonien — 460, Bajocien — 606, Aalénien — 685, Toarcien — 687, Domérien —738, Lotharingien —822, Hettangien
- — 867, Permo-Trias — 988, socle paléozoïque — 1 010. Seine-et-Oise : Banthelu (Mantois) : Gault —240, Néocomien
- — 373, Portlandien — 407', Kiméridgien —528, Rauracien — 842, Oxfordien — 918, Bathonien — 1 042, Toarcien — 1 267, Hettangien —1 422, Permo-Trias — 1 4S7’, socle — 1 515.
- Oise : Dans le Beauvaisis, à Nouilles : Bathonien — 982, Lias
- — 1 206, Rhétien — 1 500, Permo-Trias — 1 560. Près de Beaumont-sur-Oise, à Ercuis, le Portlandien coté: —400, le Kiméridgien
- — 572 et le Bathonien — 1 057.
- Haute-Marne : Près de Joinville, le Bathonien est à —749, le Lias à —: 900 et le Rhétien à — 1 100.
- Aisne : Près de Château-Thierry, à Latilly : Portlandien — 828, Lusitanien — 1 130, Bathonien — 1 174, Lias — 1 971, Rhétien
- — 2 455, Trias — 2 500. Villemoyenne Pürbeckien — 872, Portlandien — 910, Kiméridgien — î 032, Lusitanien — 1 160, Lias
- — 1 932, Rhétien —2 618, Trias —2 641. Vrigny : Portlandien
- — 782, Bathonien — 1 436, Aalénien — 1 734, Rhétien — 2 250, Trias — 2 290.
- Aube : A Gélannes, le Bathonien est à — 1 425. A Grandville, il est à — 1 494, le Lias à — 1 923 et le Rhétien à —1940. A Saint-Martin-de-Bossenay, on note — 570 au Portlandien, — 1 260 au Bathonien, — 1 642 au Lias et — 2 070 au Lotharingien.
- Aisne : Montmiraïl : Portlandien — 1 000, Bathonien — 1 640, Lias — 2 012, Permo-Trias — 2 800.
- Du point de vue tectonique, une des acquisitions majeures des géologues pétroliers conduit à réviser l’hypothèse classique des anticlinaux linéaires. A la notion d’axes allongés et parallèles plissant le Bassin de Paris d’est en ouest avec inflexion
- vers le sud au droit du méridien de Paris se superpose, voire se substitue, celle de dômes et de fosses multiples, souvent très localisées, en décrochement, de faible relief et diversement orientés. La structure du Bassin parisien n’apparaît plus comme tabulaire, cassante et en « tôle ondulée », mais souple, moutonnée et lenticulaire.
- En Brie, la flèche des synclinaux ne dépasse guère i5 m pour io km au socle hercynien; des dénivelées au Jurassique de 160 m sur 5o km (en Orxois), de 47 m sur 3 km (Multien), de 64 m sur 4 km (à Marly) sont rares. Le pendage maximum semble être de 4o6 m sur io km au Lias à Noailles. Le plus souvent, comme dans le Pays de Bière, le toit du Jurassique moyen est pratiquement horizontal sur 20 km (entre Milly et Ghartrettes) ; les 3o cotes au toit du Bathonien de cette région n’accusent pas une dénivelée supérieure à 20 m.
- Les cartes structurales au Jurassique montrent que l’orientation des dômes est le reflet d’anciennes fractures du socle qui ont rejoué au Secondaire; cette tectonique a dû faire varier la profondeur des mers et influencer la nature des sédiments au Bathonien où les formations plus détritiques à forte porosité se situent sur les hauts-fonds ; on a constaté la présence possible de rivages avec formations récifales à l’Infra-Lias.
- Par ailleurs, les travaux géophysiques ont montré l’existence de plusieurs phases def plissements successives au cours du Secondaire et du Tertiaire (les couches sont d’autant plus plis-sées qu’elles sont plus anciennes), ainsi que la présence dans les plis de directions perpendiculaires d’origine hercynienne. L’axe du Bray, mis en évidence jusqu’à Survilliers, vers Luzar-ches (S.-et-O.), est prolongé en décrochement par celui de Saint-Mard (S.-et-M.); l’anticlinal de Coulommes, sud-ouest-nord-est, ferme le pli du Bray au sud de Meaux. Vers Château-Thierry, un petit axe de l’Orxois, est-ouest, relaie celui du Multien. Dans le Gâtinais, le dôme de Villemer apparaît comme une ramification en décrochement de l’axe de Nemours. De multiples dômes pointent à peine de la pénéplaine jurassique et constituent autant de structures localisées par des forages profonds.
- Ces trous réels ont mis en évidence un enfoncement subsi-dentiel très important (plus de 3 000 m) au centre de la cuvette parisienne, avec maximum en Brie. Gravimétrie, séismique et forages confirment aussi le parallélisme entre les ondulations de la craie et les systèmes de bosses et de creux décelés au Jurassique supérieur et moyen, en rapport avec la texture du socle. Enfin, la Paléontologie, et surtout la Micro-paléontologie, évoluent à pas de géant.
- La masse des informations réunies en quelques années est considérable, mais la consigne du silence les a tenues plus ou moins secrètes jusqu’ici. Il n’existe donc aucun travail de synthèse sur les nouvelles perspectives géologiques que nous avons tenté d’esquisser dans cette note. Les premiers travaux publiés consistent dans les coupes complètes des principaux forages du Bassin parisien, avec analyse lithologique détaillée et interprétations tectoniques locales (Bulletin de l’Association des Naturalistes de la Vallée du Loing, 1957-1960). Il existe également une élude sur la tectonique du Lutétien de la région meldoise et une autre sur la stratigraphie du secteur de Coulommes (Pétrorep, 1958), des mémoires sur la stratigraphie du Trias du Bassin de Paris (Ricour), la tectonique briarde (Tillov), les Ostracodes du Bassin de Paris (Apotolescu). De nombreux renseignements géologiques et techniques sur les sondages pétroliers du Bassin de Paris sont consignés dans les revues périodiques spécialisées, notamment dans Pétrole Informations, Journal des Carburants. Signalons enfin un premier aperçu schématique partiel de la géologie profonde dans le récent ouvrage de R. Soyer et A. Cailleux : Géologie de la région parisienne.
- Pierre Doignon.
- p.240 - vue 243/558
-
-
-
- 241
- L’activité électrique du cerveau
- et son interprétation psycho-physiologique
- Les rythmes électriques du cerveau, mis en évidence par les électroencéphalogrammes, sont maintenant bien connus (1). La liste en est assez courte : rythmes a (g à 12 cycles par seconde, 10 à 4o microvolts) qui correspondent à un état de relaxation, de somnolence; rythmes (i5 à 3o c/s et moins de 10 microvolts) qui apparaissent lorsque le cerveau est en alerte; rythmes 0 (4 à 7 c/s), de localisation pariéto-temporale, qui indiquent des états affectifs généralement désagréables (colère); rythmes 8 enfin (inférieurs à 4 c/s) qui caractérisent le sommeil profond.
- Celte activité électrique permet des diagnostics en pathologie. Chez les épileptiques on découvre dans les diagrammes des alternances de pointes et d’ondes plus lentes, suivies au moment des crises de véritables orages qui atteignent le millivolt et dont on localise le foyer grâce aux oppositions de phase de deux électrodes voisines. Cette dernière méthode sert aussi à délimiter les tumeurs qui apparaissent en revanche comme des régions silencieuses. D’ailleurs, chez l’individu normal, l’activité varie aussi suivant les régions de l’encéphale : le fait d’ouvrir les yeux, par exemple, provoque l’apparition d’ondes dans la partie occipitale, puis leur prédominance dans le cortex préfrontal quand l’ensemble du cerveau entre en action. Mais la signification psychologique des diverses ondes demeure réduite : le diagramme de la « réaction d’arrêt », c’est-à-dire de la transformation du rythme et en rythme ji, présente exactement la même apparence chez un homme et chez un coléoptère ! Si étrange que cela puisse paraître, les ondes a et ^ de l’homme et de l’insecte ne se distinguent en aucune façon (fi.g. 1).
- O
- D
- î/vwyi/wvwwN
- Yf
- H
- Fig. 1. — La « réaction d’arrêt » chez le Coléoptère et chez l’Homme.
- On a superposé le rythme électrique enregistré sur le ganglion optique (l’un dytique (D) et l’ôleciroencéphalogramme d’un homme (II). Les ondes a (ondes de repos) sont enregistrées tant que le coléoptère est dans l'obscurité (O) ou que l’homme a les yeux fermés (Yf) ; elles cèdent la place aux ondes (3, beaucoup moins amples, quand l’insecte reçoit de la lumière (L) ou quand l’homme ouvre les yeux (Yo).
- (D’après Jean Delay, L’Électricité cérébrale, « Que sais-je ? »).
- Nous allons voir cependant que de grands progrès sont maintenant prévisibles dans l’interprétation de l’activité électrique du système nerveux central. La méthode qui consiste à utiliser des électrodes qu’on implante directement dans le cerveau, au lieu de les placer à la surface du crâne, a permis d’acquérir une connaissance théorique du fonctionnement des divers centres du cortex et de la base de l’encéphale, connaissance qui est actuellement en pleine évolution. Toutefois la seule étude des encéphalogrammes classiques avait déjà permis quelques observations intéressantes que nous résumerons avant d’aller plus loin.
- La réaction d’arrêt constitue sans doute un des phénomènes les plus caractéristiques de l’électroencéphalographie. Il semble qu’à l’état de repos les ondes a correspondent à une pulsation
- 1. Voir : L’Électroencéphalographie, par le docteur Paul Laget, La Nature, niai 1958, p. 161.
- d’ensemble des neurones en phase les uns avec les autres, un rythme général d’états réfractaires et actifs s’étendant au cerveau tout entier. Mais on comprend bien que ce rythme est remplacé par un autre quand parviennent de la périphérie les sollicitations des sens, sous forme d’ondes de depolarisation qui sont surtout actives à partir de l’œil et, à un degré un peu moindre, à partir de l’oreille. L’activité du cerveau devient alors plus rapide et en même temps variable d’une région à l’autre. L’apparition des ondes p correspond sans doute à un miroitement de rythmes locaux qui s’intégrent en se superposant et qu’il semble illusoire d’analyser. Leur voltage plus bas serait la conséquence de l’activité de groupes plus faibles de neurones, en quelque sorte spécialisés, qui présideraient à des activités plus complexes.
- On a d’ailleurs noté que pendant le travail intellectuel les ondes p se localisent de préférence dans le cerveau antérieur, se transformant par moments en ondes encore plus rapides, dites y, de 35 à 55 c/s (Jasper et Andrews). Des pointes apparaissent aussi dans les diagrammes d’ondes ^ au moment d’excitations auditives ou visuelles plus intenses. Grâce à des analyseurs d’onde (Grey Walter), on décèle des superpositions de rythmes utiles à connaître pour établir des diagnostics en pathologie. Mais il est impossible d’en tirer des conclusions précises en ce qui concerne le déroulement de la pensée.
- Encéphalographie et psychologie. — Quelques observations ont cependant un intérêt psychologique. On a remarqué qu’en faisant fixer par un sujet une lumière intermittente (stroboscope), ses ondes a sont « entraînées » à s’accorder au rythme de l’éclairement, aux alentours évidemment de 10 c/s, chiffre caractéristique des ondes en question. Or, en abaissant ce chiffre jusqu’à 7 c/s, rythme supérieur des ondes dites 6, on peut suggérer au sujet les sentiments affectifs désagréables généralement associés à ces ondes. C’est intéressant.
- Autre remarque : dans le cas de l’audition, la réaction d’arrêt se produit d’autant plus facilement que le sujet est plus attentif, ce qui paraît naturel, mais aussi hors de toute attention, quand le son entendu possède une valeur subjective, une signification. Un dormeur peut être éveillé par un nom murmuré et rester insensible au bruit d’une voiture; une mère entendra électivement l’appel de son enfant. L’état d’alerte se marque alors sur l’encéphalogramme par l’apparition des ondes {J.
- A l’occasion d’un travail machinal le rythme a peut se maintenir, même s’il s’agit d’une occupation intellectuelle. Mais tout effort, la rencontre de difficultés, une question imprévue provoquent la réaction d’arrêt. L’attention comme l’intérêt sont générateurs d’ondes [}. Dans le domaine visuel, ces ondes peuvent ne pas être stimulées par une lumière uniforme; elles le seront en revanche par un champ optique structuré, comportant des mouvements d’objets. D’autre part, le seul effort de voir dans l’obscurité entraîne la réaction d’arrêt qui apparaît alors comme une activité spontanée des centres visuels en l’absence d’une excitation de la rétine.
- On note enfin que les rythmes a sont plus constants chez, les « introvertis » (suivant la nomenclature de Jung) que chez les « extrovertis » plus influencés par les stimulations extérieures. Mais chez les intellectuels il y a beaucoup d’ondes p de faible amplitude coupées seulement de bouffées d’ondes a. On peut dire que les ondes sont d’autant plus courtes que le niveau de conscience, de vigilance ou d’anxiété est plus élevé. Au contraire les rythmes deviennent plus lents et plus amples à mesure qu’on s’assoupit. Ils s’allongent dans le sommeil profond et descen-
- p.241 - vue 244/558
-
-
-
- 242
- dent jusqu’à i c/s dans le sommeil artificiel. C’est le niveau dit chirurgical, d’ailleurs recommandé comme contrôle par les anesthésistes américains. Les tracés- ne varient cependant pas de nature selon qu’il s’agit du sommeil profond, du sommeil artificiel, des léthargies ou des comas.
- Seules des lésions du tissu cortical produisent dans les rythmes des variations caractéristiques. C’est ainsi que les ondes a sont perturbées au voisinage d’une tumeur, que des altérations locales du cortex entraînent les rythmes de l’épilepsie (pointes-ondes) de potentiel élevé, que les infections, les traumatismes, les empoisonnements, la sénilité peuvent montrer, corrélativement à des phénomènes de démence, des asymétries de rythmes entre les deux hémisphères, des bouffées sinusoïdales amples, des persistances d’ondes a malgré les stimulations. Mais la plupart des psychoses (schizophrénique, maniaco-dépressive) ne créent pas de variation manifeste des rythmes. L’électroencéphalogramme d’un débile mental ne se différencie par aucun caractère spécial de celui d’un sujet intelligent. C’est encore l’histoire du coléoptère...
- Les implantations d’électrodes. — Dans l’espoir de découvrir du nouveau sous l’uniformité des ondes, on a cherché à pénétrer jusqu’à la substance cérébrale par l’implantation de fines électrodes dont la pointe atteindrait électivement une région très petite ou même un neurone isolé. Comme il n’était pas question d’expérimenter sur l’homme en dehors de circonstances exceptionnelles, on se demandait du moins si l’on pourrait déceler chez l’animal des phénomènes correspondant à une partie relativement bien connue de son psychisme, c’est-à-dire aux réflexes conditionnés de type pavlovien.
- L’Américain Yernon Rowland, de l’École de Médecine de Cleveland, a expérimenté sur le chat. L’animal supporte sans gêne apparente la présence d’électi’odes implantées à travers le crâne à des profondeurs diverses et laissées sur place. On sait que le tissu cortical est par lui-même insensible, et des chats porteurs d’un appareillage interne compliqué ont pu vivre pendant des années sans manifester d’inconfort. Leurs réflexes et leur comportement général ne semblent en aucune façon modifiés par le traitement. Les électrodes se rejoignent au niveau d’une petite prise de courant logée dans la peau, au sommet du crâne, de sorte qu’on peut brancher à volonté le sujet sur les amplificateurs de l’encéphalographe.
- Rowland a d’abord noté la présence de conditionnements innés chez le chat. Comme l’homme il peut distinguer un bruit significatif léger parmi d’autres plus intenses. Un chat apparemment endormi, branché sur l’encéphalographe, montre la réaction d’arrêt en entendant le faible miaulement d’un de ses congénères, alors que dans *le laboratoire en réparation
- résonne le bruit d’un marteau qui n’a pas jusque-là modifié les ondes % de repos. L’étude des conditionnements acquis pouvait donc être poursuivie suivant les mêmes lignes.
- Les animaux furent habitués à recevoir un léger choc électrique après une série de déclics rapides, analogues à ceux d’un métronome. Très vite la réaction d’arrêt apparut dans les ondes à l’audition des déclics. A titre de contrôle on remplaça les déclics par un petit air de musique pour voir si un son différent entraînait aussi la réaction d’arrêt. L’air produisit d’abord un raccourcissement des ondes mais, n’étant suivi d’aucun choc, il resta bientôt sans effet. Dans la poursuite de l’expérience on le fit entendre en même temps que les déclics, mais dans ce cas le choc électrique était supprimé. Les chats eurent tôt fait d’associer l’air de musique à un signal de sûreté qui, loin de provoquer la réaction d’arrêt, tendait au contraire à accroître l’amplitude des ondes a de repos. On put même conditionner les sujets à faire une distinction entre deux airs peu différents (do la do, la do la), l’un de ceux-ci correspondant au signal de sûreté. Certains animaux en arrivaient à s’endormir spontanément à l’audition de ce signal lorsqu’on le donnait isolément.
- L’intérêt de l’expérience consiste à suivre les modifications de l’encéphalogramme en rapport avec le comportement du sujet. La série de déclics annonciateurs du choc durant régulièrement deux minutes, le chat apprend à estimer ce temps. Quand les déclics commencent, on note une forte réaction d’arrêt suivie de périodes de relaxation avec retour partiel aux ondes a; mais 3o à 4o secondes avant le choc, les ondes ^ réapparaissent, s’ajustant au comportement de l’animal qui se ramasse sur lui-même dans une attitude de défense. Pavlov avait obtenu des résultats voisins avec la salivation. Celle-ci se montrait très forte aussitôt après le stimulus (sifflet), pour se calmer ensuite et s’exagérer de nouveau un peu avant la fourniture de l’excitant (nourriture). Dans ce cas aussi, le temps qui séparait le stimulus unique de l’excitant était toujours le même.
- Mais l’étude des encéphalogrammes a permis des observations supplémentaires. On note chez un chat apparemment endormi des successions d’ondes presque superposables à celles qui caractérisent son comportement éveillé. Les ondes a et ^ se modifient de la même façon suivant que l’air musical de sûreté coïncide ou non avec les déclics ; l’attente d’un choc brutal raccourcit la période de relaxation, qui s’allonge en revanche quand il s’agit d’un choc léger. L’encéphalogramme du chat endormi apparaît alors comme le reflet de phénomènes psychiques, puisque aucun mouvement visible de l’animal ne lui correspond.
- D’autre part, il est intéressant de remarquer que les ondes ^ d’alerte peuvent soit se répandre d’un coup dans le cerveau, soit se propager de proche en proche, de la base au cortex.
- i
- Ondes a |
- Ondes (3
- Réaction d'arrêt
- 3
- Fig. 2. — Activation des centres cérébraux de proche en proche.
- Expériences de Yernon Rowland sur le chat. En haut, l’aspect d’un tracé d’encéphalographe : ondes a à gauche, ondes (3 à droite. Au-dessous, en 1, les trois centres (en grisé) où sont implantées les électrodes ne présentent que des ondes a (l’animal est assoupi) : a, formation réticulaire b, centre auditif ; c, cortex associatif. En 2, la formation réticulaire s’active (en noir) et présente des ondes (3. En 3, le centre auditif s’éveille à son tour, les ondes (i qui y paraissent (3 a) montrent des pointes qui correspondent aux bruits entendus (déclics). En 4, les ondes |3 ont gagné les trois centres qui sont figurés en noir. Quand l’animal se rendort, on assiste au processus inverse. Explications complémentaires dans le texte.
- (Imité de Scientific American).
- p.242 - vue 245/558
-
-
-
- 243
- C’est ainsi qu’au début de la série de déclics, l’animal éveillé montre une réaction d’arrêt (réflexe d’investigation) qui met le cerveau entier en état de vigilance, les ondes (3 se répandant d’un coup dans toutes les régions de l’encéphale. Cela peut se produire aussi chez l’animal endormi, mais dans certains cas on voit les ondes p apparaître d’abord au niveau de la « formation réticulaire » qui s’étend du bulbe aux régions thalamiques, à la base du cerveau; le cortex auditif s’active ensuite et en dernier lieu le cortex associatif (Fig. 2). On retrouve un processus analogue chez l’animal éveillé, lorsque, après la période de relaxation qui suit le premier réflexe d’investigation, il se ramasse en attendant le choc. On voit qu’il s’y prépare progressivement puisque la réaction d’arrêt, lue sur l’encéphalogramme, n’envahit elle-même le cerveau que de proche en proche.
- Ces observations concordent avec les vues de Pavlov sur 1’ « irradiation » et la « concentration » des phénomènes d’inhibition et d’excitation. D’ailleurs, quand l’animal se rendort, on assiste au processus inverse : les zones corticales se désactivent d’abord et en dernier lieu la formation réticulaire qui apparaît comme le centre de départ des phénomènes d’excitation de l’encéphale. Nous éprouvons nous-mêmes des impressions qui semblent correspondre à ces faits quand le sommeil nous guette. Nos associations d’idées perdent peu à peu leur sens tandis que naissent des images hypnagogiques qui flottent sans aucun lien. Cependant nous entendons encore les bruits avant de tomber dans une demi-inconscience qui s’éteint lorsque se désactive la formation réticulaire.
- Pour en revenir au chat, on peut voir que les réponses évoquées par un signal sonore dans le centre auditif (généralement en forme de pointes dans les diagrammes) se transmettent dans d’autres régions du cortex, de préférence dans celles qui sont spécialement intéressées par l’excitant (choc électrique, nourriture). Frédéric C. Worden et James March (U.S.A.) ont implanté des électrodes dans huit centres différents où apparaissent successivement des ondes en pointe synchronisées avec les notes d’un signal musical : les réponses envahissent le cerveau de proche en proche au cours du conditionnement. Mais ces réponses varient aussi d’intensité : fortes au début du conditionnement, elles diminuent quand celui-ci est bien établi. A l’inverse, lorsqu’il y a désapprentissage (unlearning), par suppression du choc électrique ou de l’excitant absolu (nourriture), on assiste de nouveau à un renforcement des réponses comme s’il se produisait une résistance de la structure établie. Avant de disparaître, le réflexe conditionné repasse par les mêmes stades qu’au moment de sa formation.
- Quant à la régulation des réponses évoquées par le conditionnement des différentes parties du cortex, elle paraît se faire au niveau de la formation réticulaire. La stimulation directe des régions mésencéphaliques de ce centre montre qu’il est responsable de l’éveil en bloc du cerveau tandis que ses régions antérieures, plus proches du thalamus, présideraient plutôt à l’activation de zones corticales spécialisées et mieux délimitées. Celles-ci entreraient en action, suivant II. Jasper, pour fournir les réponses plus brèves et plus précises qui apparaissent sur les encéphalogrammes quand le conditionnement d’un animal est bien établi. Une limitation de l’état d’alerte caractériserait l’acquisition d’une habitude, alors que la perte de cette habitude serait responsable de l’effet inverse,, comme semble l’indiquer le renforcement des réponses dont nous avons parlé plus haut. L’importance de la formation réticulaire est d’ailleurs soulignée par le fait qu’elle entre encore en action, à la réception d’un signal, malgré une destruction étendue du cortex auditif (Ver-non Rowland). Elle reste capable de distinguer le signal d’alerte du signal de sûreté, mais non deux mélodies différentes. Cette dernière performance semble l’apanage du seul cortex auditif, la formation réticulaire n’étant capable que de discrimination rudimentaire.
- Enfin, suivant Erwin R. John et Keith Killam, par l’emploi de micro-électrodes atteignant des neurones isolés, on découvre que certains corps cellulaires sont plus excitables, donnent plus facilement leur décharge après le conditionnement. Les neurones deviennent au contraire plus « lents », s’il s’agit d’un conditionnement d’inhibition. Ces modifications locales de l’excitabilité paraissent correspondre à une « adaptation » se produisant au niveau cellulaire. On pourrait considérer cette adaptation comme une « trace », assimilable à un phénomène de mémoire. Les neurones règlent leurs chronaxies, c’est-à-dire leur niveau d’excitabilité, dans un temps donné, selon le rôle qu’ils doivent jouer dans un circuit d’influx particulier, circuit qu’ils sont « entraînés » à assurer par le conditionnement. Mais le passage répété d’un influx d’intensité donnée, dans une série de neurones, les sensibiliserait de façon durable à un influx possédant des caractères identiques. Une stimulation provenant par exemple du cortex auditif pourrait alors animer des circuits déjà parcourus grâce à une réaction en chaîne qui constituerait la base physiologique de la mémoire.
- Expériences sur l’homme. — Ces vues ont été confirmées par des expériences faites sur l’homme au cours de trépanations, en accord bien entendu avec les sujets. Le sujet peut rester conscient et dire ce qu’il éprouve puisque, comme nous l’avons déjà noté, le tissu cortical est insensible. En implantant des micro-électrodes dans un centre donné et en faisant passer un léger courant, on peut activer des groupes discrets de neurones. C’est la méthode des potentiels évoqués. Dans une aire sensorielle, l’excitation des neurones récepteurs (esthésiones) fera entendre un bruit si l’électrode est implantée dans le centre auditif ou une lueur s’il s’agit de la fovéa qui est une rétine corticale. Mais si l’on évoque un potentiel dans les régions « gnosiques », voisines des centres de réception proprement dits des messages sensoriels, on peut obtenir des hallucinations véritables, la réapparition de souvenirs (un air de musique, l’image d’une personne ou d’un lieu). Si, en retirant l’électrode, on la réimplante plus loin, l’évocation d’un souvenir différent sera obtenue. On sait que ces régions gnosiques synthétisent les messages et leur donnent une structure significative. La destruction de ces centres provoque des agnosies, l’impossibilité par exemple de reconnaître le sens des mots entendus alors que le sujet n’est pas sourd. On comprend alors que l’excitation d’une telle région gnosique puisse y réactiver des circuits d’influx, en quelque sorte « congelés », et donner lieu à un phénomène de mémoire.
- En revanche un potentiel évoqué dans les zones précentrales, dites « praxiques », c’est-à-dire de coordination volontaire de la motricité, ne fournit aucun geste précis. 11 faudrait pour cela provoquer une intégration d’influx provenant à la fois des zones praxiques, des corps striés qui contiennent des schèmes moteurs
- Aire praxique
- Voix
- articulée
- Cochlée
- Ecriture Aire motrice ^ ^re ge sensif)jil^ générale
- Gnosie de sensibilité générale ( Image du corps, schéma corporel vocal)
- Gnosie visuelle
- Centre de la lecture Fovéa
- Centre du langage écouté Gnosie auditive
- Fig. 3. — Localisations praxiques et gnosiques dans le cerveau humain.
- Face externe de l’hémisphère gauche. Centres praxiques en hachures ; centres gnosiques en pointillé ; centres spécialisés en noir.
- tImité de P. Chauchakd).
- p.243 - vue 246/558
-
-
-
- 244
- tout montés, enfin des centres régulateurs de la base du cerveau d’où ces influx reviendraient aux cellules pyramidales effectrices situées au bord antérieur de la scissure de Rolando (fig. 3). On ne peut avoir l’espoir ' d’évoquer ensemble et de faire converger des groupes d’influx dont la régulation relève de structures complexes. L’excitation directe d’une région motrice ne donnera qu’un sursaut : par exemple les cellules pyramidales qui commandent le larynx fourniront un cri inarticulé, tandis qu’un potentiel évoqué dans le centre du langage restera sans effet sonore. Il frappera au contraire d’aphasie passagère le sujet qui parle. Quant à une contraction musculaire du bras, si on peut l’obtenir, elle donnera au sujet conscient l’impression d’un automatisme analogue à un réflexe médul-laii'e; jamais celle d’un acte significatif ni à plus forte raison volontaire.
- Les potentiels évoqués ont confirmé l’existence des localisations cérébrales déjà connues. Parmi les régions gnosiques d’association, qui s’étendent au voisinage des centres de réception sensorielle, il faut peut-être faire une place à part à celle qui intègre les messages venus de l’ensemble du corps : sensations proprioceptives d’attitude et sensations cénesthésiques internes. Cette image de notre être physique, senti comme différent du monde, pourrait être à l’origine de la personnalité humaine (Paul Chauchard).
- Une autre partie du cortex, privée en apparence de localisations précises, est en rapport avec la personnalité et les sentiments affectifs. Il s’agit des zones fx-ontale et rhinencéphalique, cette dernière correspondant aux centres olfactifs primitifs en rapport avec la vie instinctive. On sait que tout désordre dans ces zones se répercute sur le caractèi’e, ce qui justifie les ablations chirurgicales (lobotomies, leucotomies et, plus récemment, topectomies), pratiquées à titre thérapeutique et maintenant interdites dans certains pays (U.R.S.S.) parce que ti’op perturbatrices de la personnalité générale. Ici aussi la méthode des électrodes implantées a donné des résultats intéressants. Les potentiels artificiellement évoqués dans les régions frontales du singe (Delgado) ont provoqué une incapacité à résoudre des tests et l’apparition de réflexes instinctifs anormaux.
- Mais c’est à la base de l’encéphale que les travaux modernes (H. W. Magoun et II. Moruzzi) ont attiré l’attention sur la formation réticulaire dont nous avons déjà vu le rôle dans la mise en alerte d’un cerveau de chat. Ce rôle est le même chez l’homme dont le cortex reste endoi’mi, inconscient, s’il n’est pas activé par la formation réticulaire. Une lésion de cette zone provoque le coma, alors que sa stimulation tend à éveiller l’attention au maximum; chez le singe il se produit un réflexe d’investigation. Toutefois certaines zones corticales restent capables de communiquer un stimxilus à la formation réticulaire qui, à son tour, éveille l’ensemble du cerveau. Son rôle n’est pas moindre dans l’anesthésie : les influx sensoriels qui la pénètrent par dérivation se trouvent bloqués en son sein alors que les messages continuent à passer vers le cortex par les troncs nerveux principaux. Cependant le cortex reste endox'mi par anesthésie de la formation réticulaire. Celle-ci agit même au niveau des circuits médullaires, puisque le réflexe du genou, chez le singe, s’exagère en cas de stimulation électrique de la partie activatrice antéi'ieure de la formation réticulaire tandis que ce réflexe se l’éduit si l’on stimule la partie postérieure inhibitrice (J. D. French). Ce n’est pas tout : il semble que ce centre, dont l’importance avait été longtemps méconnue, possède un rôle de régulation dans la plupart des activités de l’encéphale, aussi bien motrices que sensorielles. Il agirait sur la focalisation de l’attention et serait ainsi à la source des pouvoirs d’intégration du cerveau humain.
- Quelques problèmes. — On a pu dire que la formation réticulaire était une réserve d’influx activateurs. Les troncs nerveux sensoriels allant vers le cortex se relient à ce centre
- par une multiplicité de fibres qui y apportent les messages périphériques; il en va de même pour la vision et l’audition. Or, on a remarqué qu’un sujet humain expérimentalement privé de sensations visuelles, auditives et tactiles pendant un temps prolongé présentait des troubles psychiques graves (Voir La Nature, juin 1957, p. 307). Peut-être l’épuisement des réserves d’influx de la formation réticulaire serait-il à l’origine de ces troubles.
- Mais alors, si ce centre a de tels pouvoirs, on peut se demander quelle est l’importance relative de cet autre centre bien connu, le cervelet, qui préside indubitablement à la coordination motrice. Comment joue-t-il son rôle ? Il suffira de dire ici que deux hypothèses principales restent en présence. Le cervelet agirait comme un servo-moteur, par multiplication de l’énergie des messages qui le traversent; le fait qu’un seul influx afférent puisse exciter en chaîne un grand nombre de ses cellules de Purkinje est en faveur de cette intei-prétation. Selon l’autre hypothèse, le cervelet surimposei'ait ses rythmes rapides (2ûo-4oo c/s) dans des régions étendues du cortex pour y moduler ou tout au moins y filtrer les messages. Il aurait ainsi un rôle très général qui n’est cependant pas confirmé.
- Cette activité kaléidoscopique du cerveau amène à poser une question : d’où l’influx nerveux tire-t-il l’énergie nécessaire à sa propagation ? On sait que l’influx apparaît comme une onde de dépolai-isation à la surface de la fibre nerveuse qui est normalement positive. Dès le début du siècle, Bernstein avait pensé qu’un transport ionique devait se faii'e à ti'avers la membrane qui entoui’e le nerf. Des travaux récents ont pu mettre en évidence, en rapport avec l’onde électrique, une perméabilité transitoire de la membrane qui permet un renversement momentané du potentiel de la fibre par un chassé-croisé d’ions de sodium et d’ions de potassium. Ce processus chimique se ti'ansmet de proche en proche, la fibre devenant momentanément réfractaii'e à l’excitation après le passage de l’onde de dépolai’isalion. C’est grâce à des micro-électrodes implantées, à des traceurs radioactifs, à des mesures très précises de la variabilité des taux de sodium et de potassium que Grundfest et Levinsohn, Keynes et Hodgkin ont pu faire progresser nos connaissances à ce sujet. Bien entendu ce pompage ionique à travers la membrane relève de mécanismes cellulaires qui nous échappent encoi’e. A l’oi'igine, l’énergie nécessaire au fonctionnement de la cellule provient de l’oxydation des nourritures et en particulier du métabolisme des sucres, mais on suppose que cette énergie est distribuée localement par l’adénosine triphosphate (ATP). En effet une injection de ce corps chimique dans des fibres préalablement empoisonnées rétablit momentanément les possibilités de passage de l’influx (Caldwell).
- On sait que le niveau d’excitabilité du neurone dans un temps donné, la chronaxie, est une grandeur qui varie avec les circuits parcourus. Il y a des fibi'es lentes et des fibres rapides, soumises elles-mêmes à une régulation des centres encéphaliques qui possèdent l’aptitude d’agir sur la disti’ibution des chronaxies, c’est-à-dire sur la plus ou moins grande rapidité physiologique des cellules (métaclironose de subordination de Lapicque). Ainsi les muscles antagonistes sont animés par des influx de niveaux clironaxiques différents. D’autre part il faut qu’il y ait accord de chronaxie pour que l’influx puisse parcourir un circuit donné en sautant la synapse ou intervalle d’environ 200 A qui sépare l’axone activateur des dendrites ou du corps cellulaire du neurone récepteur. C’est de cette façon que dans le fonctionnement des centres eux-mêmes se dressent de véritables barrières physiologiques : il n’y a pas normalement d’aiguillage direct, par exemple, entre les neurones lents du système sympathique' et les neurones rapides propres à la vie de relation.
- Mais la situation se complique beaucoup dans les régions corticales. Les neurones y sont reliés par un réseau d’interconnexions si dense que chaque corps cellulaire peut recevoir jusqu’à une centaine d’influx à travers un nombre égal de boutons
- p.244 - vue 247/558
-
-
-
- 245
- Fig. 4. — Corps cellulaire d’un neurone et ses interconnexions.
- Eléments de la synapse, une multitude de fibres axoniques (/), issues d’autres neurones, viennent s’attacher au corps cellulaire ou à ses den-drites (d) qui apparaissent tronqués sur cette figure. La décharge se produit par l’axone (ax) dont le tronc est plus gros que ceux des dendrites. Les fibres / se terminent par de petits sacs qui montrent au microscope électronique de petites vésicules pouvant contenir une substance activatrice.
- (D’après J. G. Eccliïs, Scientific American).
- synaptiques, formant les terminaisons d’axones activateurs en provenance d’autres cellules (fig. 4)- Or un influx isolé est incapable de dépolariser le neurone suffisamment pour provoquer sa décharge : il en faut au moins une dizaine. D’autre part un plus grand nombre d’influx n’augmentera pas l’intensité de la décharge : le neurone agit comme les relais « tout ou rien » des machines électroniques. Il y a cependant une différence : une volée d’influx trop faible pour actionner le neurone le mettra dans un état de sous-excitation, de réceptivité, qui lui permettra ensuite de répondre plus facilement.
- Les influx qui parviennent au neurone peuvent d’ailleurs présenter deux caractéristiques opposées : les uns sont activateurs, les autres inhibiteurs. Les premiers porteront un courant de dépolarisation, de signe négatif, les seconds un courant de surpolarisation positive. Le neurone fait la somme de ces influx qui proviennent de régions excitatrices ou inhibitrices de la formation réticulaire ou d’autres centres, le cortex contenant lui-même des zones génératrices d’inhibition. Le corps cellulaire ne peut fournir sa décharge qu’en présence d’un surplus donné d’influx excitateurs; il restera ensuite inactif pendant plusieurs millisecondes (temps réfractaire).
- On comprend donc que la transmission d’influx par une chaîne unique de neurones soit exclue dans les centres supérieurs. Une onde intracorticale avancera sur un large front, intéressant des milliers et même des millions de neurones qui s’activeront réciproquement par leurs multiples interconnexions. Naturellement, les io ou i4 milliards de corps cellulaires du cerveau permettent la coexistence de nombreux trains d’ondes qui pourraient se croiser en utilisant les mêmes neurones à un intervalle de quelques millisecondes. C’est d’ailleurs autant par leur structure synaptique, par la variabilité des potentiels qu’ils portent, bien plus que par leur nombre, que les neurones humains surclasseraient ceux des Anthropoïdes.
- On peut imaginer bien des aspects à l’activité cérébrale. Les trains d’ondes seraient tour à tour renforcés ou éteints par des volées d’influx excitateurs ou inhibiteurs provenant d’autres centres. Un circuit donné éveillerait sur ses franges de nouveaux circuits, là où se trouveraient présents des îlots de neurones en état de sous-excitation. Au contraire, la rencontre d’un îlot d’inhibition, de forte charge positive, arrêterait un train d’ondes ou le ferait bifurquer en plusieurs vagues dont le front trop étroit ne leur permettrait pas de se maintenir, un nombre insuffisant de neurones n’autorisant pas une activation synchrone efficace. Une autre propriété des influx serait de pouvoir
- tourner en rond, ce qui apparaîtrait comme la base de la mémoire immédiate (de la répétition. d’une série de chiffres, par exemple). Le cerveau présenterait ici des structures analogues aux circuits mémoriels fermés des machines électroniques.
- Il est d’ailleurs clair que la longueur des fibres d’interconnexion permet des échanges d’un hémisphère 5 l’autre et avec les centres de la base. Un jeu très étendu d’interactions doit pouvoir se maintenir dans l’ensemble du cerveau. De toute façon celui-ci comporte des zones caractérisées par des états divers d’excitation ou d’inhibition dont les potentiels latents ne sont pas assez élevés pour fournir des vagues d’influx. Ces a potentiels non propagés » forment sans doute une architecture qui aurait son influence sur la transmission des messages, sur les voies qui leur seraient ouvertes. De plus, ces potentiels locaux resteraient capables, d’après P. Chauchard, de s’influencer par simple voisinage en dehors de toute propagation d’influx. Cette possibilité d’interpénétration progressive de champs électriques (peut-être nuisible à la mémoire) constituerait un aspect supplémentaire de l’activité du cerveau.
- La question du milieu chimique où se déroule cette activité pose aussi des problèmes. On soupçonne certains corps contenus dans le sang, comme la sérotonine, d’avoir un rôle important sur le plan de l’équilibre psychique. Le fait que la composition “moléculaire de la sérotonine soit voisine de celle de l’acide lysergique (LSD), qui provoque des hallucinations, est symptomatique à cet égard. D’autre part on remarque au microscope électronique que le bouton de la synapse contient de petites vésicules qui sécréteraient un corps chimique capable de faciliter plus ou moins le passage de l’influx (selon la quantité émise) et par conséquent d’avoir un rôle dans l’établissement ou le maintien de la chronaxie. On sait que les aspects chimiques et physiques sont de toutes façons liés dans l’activité nerveuse puisqu’on assiste au niveau des muscles à une production d’acétylcholine ou d’adrénaline depuis longtemps connue. Il est possible aussi que ces vésicules axoniques conservent certaines traces du passage d’influx répétés, traces qui leur permettraient ultérieurement de faciliter le saut de la synapse et par conséquent de servir de support aux phénomènes de mémoire. Cette hypothèse serait soutenue par les expériences citées plus haut de Killam et John, concernant l’adaptation de neurones isolés à un conditionnement.
- L’inconscient trouve aussi une explication dans le fonctionnement interférentiel de vagues d’excitation et d’inhibition. Il y aurait dans le cerveau des zones d’activité, en quelque sorte stagnantes, limitées par des barrières inhibitrices de surpolarisation positive qu’on pourrait assimiler à des forces de refoulement. Ces zones stagnantes conserveraient une action sur l’émotivité (action non directement perçue) par l’intermédiaire de circuits dérivés atteignant le rhinencéphale et l’hypothalamus. Mais de telles zones resteraient inconscientes parce que privées de communication directe avec les centres mésencéphali-ques et diencéphaliques de la formation réticulaire et du thalamus qui seraient nécessaires à l’établissement des phénomènes de conscience.
- Certains auteurs ont même cru pouvoir placer un « centre de la conscience » dans une très petite zone du diencéphale, revenant à des conceptions voisines de celles de Descartes. En réalité, les régions de la base du cerveau ne seraient par elles-mêmes capables que d’une conscience crépusculaire, en quelque sorte animale. Elles seraient en revanche indispensables à l’éveil du cortex comme l’indiquent bien les expériences menées sur la formation réticulaire par l’entremise de microélectrodes. Une conscience claire ne deviendrait possible que par une interaction entre les centres de la base et le cortex, celui-ci agissant surtout comme un « magasin » d’images et de concepts structurés.
- Il apparaît dès maintenant que les phénomènes psychiques,
- p.245 - vue 248/558
-
-
-
- : '.= 246 .......................... - —
- sans aucune exception, correspondent à des activités physicochimiques locales ou globales du cerveau. Ses zones diverses s’explicitent par une architecture de potentiels latents, de gradients électriques qui règlent l’interaction, la divergence ou la convergence des vagues d’influx, donnant lieu au rappel de souvenirs, à leur association puis à leur structuration et par conséquent à la possibilité de conduites efficaces. Il n’est pas douteux qu’un parallélisme étroit unit le psychisme à l’électricité cérébrale. S’il était possible de dresser avec précision une carte spatio-temporelle des schèmes électriques fluctuants qui se succèdent dans l’encéphale, on verrait une partie d’entre eux sous-tendre exactement le déroulement de la pensée consciente, les autres présidant à l’automatisme et à l’inconscient.
- Que nous réserve donc la physico-chimie ? Il semble qu’elle
- doive élargir de plus en plus ses disciplines. La cybernétique lui a apporté des progrès théoriques importants par son assimilation du fonctionnement du système nerveux à celui d’une calculatrice électronique, sinon numérique, tout au moins analogique. Cependant les cybernéticiens, n’envisageant que des circuits d’ordre macroscopique, n’utilisent encore que l’ancienne physique classique (sauf peut-être en ce qui concerne le « bruit thermique » dans la théorie du passage de l’information). L’extrême petitesse des structures rencontrées au niveau des synapses et des noyaux neuroniques rendra sans doute indispensable l’emploi des théories quantiques. Le biologiste de l’avenir devra se doubler d’un microphysicien.
- Jacques Fouchet.
- Un Colloque régional de langue française sur P Administration de la Recherche
- L’Organisation européenne de Coopération économique (O.E.C.E.) a eu l’idée originale d’organiser sur un même sujet, 1 ’Administration de la Recherche, trois colloques régionaux, une seule langue étant utilisée dans chacun d’eux. Le « Colloque régional de langue française » a eu lieu, du 25 au 29 avril, au château de Ménars, près de Blois, et la dernière journée de ses travaux s’est déroulée en la présence de M. Pierre Piganiol, délégué général à la Recherche scientifique et technique. Les colloques suivants seront de langue anglaise et de langue allemande.
- Ce partage ne reflète en aucune façon les divisions régionales que l’on pourrait arbitrairement projeter sur l’Europe dont l’éventail linguistique est beaucoup trop vaste pour être comprimé en trois idiomes. Ce que visaient les organisateurs était surtout de réaliser chaque fois une unité psychologique, plus facilement obtenue entre gens qui s’expriment dans la même langue.
- Il semble que le colloque de Ménars leur a donné raison, résultat d’autant plus remarquable que les participants appartenaient non seulement à des nations différentes (le Danemark, la Grèce, l’Italie, l’Espagne, la Yougoslavie, l’Allemagne étaient représentés, à côté de la France, la Belgique et la Suisse) mais aussi à des organismes qu’il est rare de trouver réunis : universités et établissements industriels. Les seconds avaient répondu, beaucoup plus largement que les premières, à l’appel de l’O.E.C.E. Cela peut, dans une certaine mesure, s’expliquer, car le sujet du colloque ([administration de la recherche) répond à un souci d’efficacité et de rentabilité qui tient davantage de place dans la recherche industrielle que dans les universités, le C.N.R.S. français et ses homologues à l’étranger.
- Ceci n’a pas empêché les présents de s’inscrire unanimement en faux contre les distinctions habituelles entre recherche fondamentale et appliquée, entre recherche libre et recherche dirigée. Une tendance s’est donc nettement affirmée en faveur de l’abolition de frontières dont la rigidité a pu être, pendant longtemps, stérilisante.
- Ce principe une fois établi, il est intéressant de voir comment les directeurs de. recherches, rassemblés à Ménars, ont posé les différents problèmes qui leur étaient soumis.
- Les structures. — Il a été constaté que les organismes de recherches sont de types assez différents, selon qu’ils sont financés par l’Etat, des collectivités ou par des entreprises privées. Toutefois les participants au colloque ont reconnu qu’il existe des constantes de structure qui paraissent s’imposer dans
- la grande majorité des cas. L’organisme se divise normalement en départements dont chacun traite une branche déterminée de la recherche, mais il peut également constituer des groupes transitoires de travail, destinés à être dissous lorsque leur but
- — étroitement délimité — a été atteint. Des services communs
- — tels que par exemple la documentation — s’imposent d’une manière presque générale.
- L’étude des structures comporte encore une définition des différentes fonctions qui nous paraît un peu trop abstraite et rigide pour que nous l’exposions en détail. Cette rigidité a d’ailleurs été fort opportunément corrigée par un exposé qui considère l’organisme de recherche dans son évolution : partant d’un « œuf » de quelques personnes il devrait se développer et se ramifier jusqu’à grouper un effectif minimal d’une centaine de personnes (chiffre très approximatif) qui représenterait sa « taille critique ». La physique nucléaire — on le voit — a enrichi le vocabulaire général des chercheurs !
- Les programmes. — Le colloque s’est longuement appesanti sur l’élaboration des programmes de recherches. Tout un pi'o-cessus a été schématisé, à partir du choix des thèmes généraux jusqu’à la détermination précise des sujets auxquels les équipes de chercheurs devront finalement se consacrer.
- Ce processus est très éloigné de la conception du chercheur libre, conduit par son inspiration individuelle. Il est évidemment la conséquence d’une industrialisation de la recherche, dont il ne nous appartient pas d’apprécier la légitimité.
- Qu’il nous suffise de constater que le chercheur se trouve par là intégré à un groupement où il collabore avec les administrateurs (critères financiers), les économistes (critères de conjoncture et prévisions) et même les agents commerciaux (tendances immédiates du marché). Il est curieux de constater ce qu’implique cette collaboration, car on ne vise nullement
- — en principe — à brider le chercheur par des impératifs économiques qui lui sont par définition étrangers. On espère au contraire qu’il y prendra intérêt et qu’il réagira par un apport personnel où il exploitera au mieux ses connaissances et sa culture scientifique.
- Ainsi la science ferait tache d’huile au sein d’un milieu auquel, originairement, elle était peu accessible.
- Le laboratoire. — Une abondante série de règles a été proposée, en vue d’assurer un fonctionnement harmonieux et profitable des laboratoires. Il est visible que les directeurs de recherches se heurtent là à des problèmes délicats qu’ils ont
- p.246 - vue 249/558
-
-
-
- 247
- souvent peine à surmonter. Les solutions sont recherchées à la fois dans des structures internes et dans différentes méthodes de répartition des tâches, d’information, de contrôle et d’exploitation des résultats.
- On perçoit la difficulté d’établir des principes généraux, dégagés d’une comparaison entre de multiples cas particuliers. Retenons surtout qu’il a été fait état, à de nombreuses reprises, du facteur humain et reproduisons à ce sujet la pittoresque classification proposée pour les chercheurs :
- a) Celui qui va loin dans une voie déterminée jusqu'à obtention du résultat;
- b) Celui qui se maintient sur une seule direction mais s’arrête rapidement;
- c) Celui qui change rapidement d’activité après son départ initial;
- d) Celui qui change facilement de route et de moyens, mais obtient des résultats.
- Cette « grille » autorise à répartir les tâches selon les dons intellectuels et caractériels. Comme on peut s’y attendre, les catégories b) et c) sont reléguées dans des tâches limitées et secondaires. Tenant compte de la connaissance de ce facteur humain, les participants au colloque ont reconnu qu’ils se partageaient eux-mêmes, selon leur tempérament individuel, entre « organisateurs » (ou centralisateurs, ou dirigistes) et libéraux, prêts à accorder à chaque chercheur la part de responsabilité la plus grande possible.
- Ces deux tendances pourraient être conciliées par des concessions réciproques et aussi par la constitution d’équipes, groupées autour d’un chercheur, mieux doué — psychologiquement — que ses compagnons et pourvu notamment d’esprit de critique constructive et de synthèse.
- La formation du chercheur. — Grave souci : pour recruter les hommes idoines, encore faut-il qu’ils existent, ce qui ne peut être le fait d’une génération spontanée. Or les besoins en chercheurs s’accroissent sans cesse, tandis que leur formation reste plus ou moins sujette au hasard.
- Le nombre est nécessaire, car il ne s’agit pas seulement de mettre au travail les individus d’élite qui ont été baptisés « chercheurs de pointe », il faut également une « infanterie de la recherche » qui consolide et exploite les brillantes découvertes. Pour cela, il serait désirable que des vocations soient suscitées dès l’enseignement secondaire.
- Les membres du colloque se sont longuement appesantis sur ce point, suggérant que les jeunes élèves des lycées se consacrent davantage aux travaux pratiques, soient mis au courant des méthodes expérimentales. Leurs professeurs gagneraient à rester en contact avec la recherche scientifique et les manuels de classe devraient comporter (comme aux États-Unis et en Allemagne) des énoncés de problèmes d’applications, à résoudre par les élèves. Une vulgarisation bien conçue pourrait concourir au même but.
- Disposant ainsi d’une masse de candidats possibles, les recruteurs de la recherche auraient encore à accomplir une démarche capitale qui est la sélection des chercheurs. La vocation serait contrôlée par des stages dans les établissements de recherche; des tests seraient mis au point pour mieux connaître les dispositions psychologiques des candidats. On aurait enfin recours très largement à des entretiens avec les jeunes, système intuitif de sélection qui a été baptisé « opération flair ».
- Mais après le recrutement, il faut assurer le maintien : le colloque a discuté d’un problème délicat, celui du vieillissement des chercheurs. Ce n’est pas tant l’esprit inventif et l’ardeur qui sont tempérés par l’âge : l’écueil réside surtout dans l’avancement rapide des sciences qui laisse « à la traîne » les chercheurs dont la formation de base est périmée. Doivent-ils être réformés purement et simplement ou bien reclas-* sés, mutés dans des fonctions où l’expérience supplée aux carences psychologiques et culturelles ?
- Cette question nous semble avoir été laissée sans réponse et l’on se demande même si elle a été correctement posée, le vieillissement étant un fait individuel et n’obéissant pas à un horaire uniforme. Elle se fond d’ailleurs dans un problème plus général : la recherche collective est en effet (en Europe tout au moins) un phénomène social relativement nouveau qui n’a pas encore été systématiquement étudié. On peut toutefois l’envisager sous un angle concret, bien que partiel, celui de la rémunération et de la « considération ». Les promotions, avancements, récompenses jalonnent la carrière du chercheur : le colloque souhaite que ce soit le moyen de reconnaître substantiellement son efficacité. Il revendique également qu’au sommet de cette carrière, le chercheur puisse occuper la place qui lui revient de droit dans les conseils de direction ou d’administration, tant au sein des entreprises privées que des organismes publics.
- Gaston Cohen.
- Richesses en fer à Bielgorod
- Les variations de la Caspienne
- Bien que l’anomalie magnétique de la région de Koursk (à environ 700 km au sud de Moscou) soit la plus importante de toutes les anomalies magnétiques connues, seuls des gisements de fer relativement modestes (de 200 à 500 millions de tonnes) avaient été découverts dans cette région jusqu’en 1953, nous dit la revue soviétique Priroda. Ce ne fut qu’en 1953, en effet, que les prospections effectuées sur la périphérie du bassin du Donetz permirent de déceler la présence de gisements de fer extrêmement importants au voisinage de la ville de Bielgorod, et, à l’heure actuelle, la richesse de oes gisements' est évaluée à plus de 20 milliards de tonnes, ce qui équivaut approximativement au quadruple des réserves totales du célèbre bassin de Krivoï-Rog. En outre, les minerais de fer de Bielgorod surpassent, qualitativement, tous.les autres gisements de fer connus de l’U. R. S. S. Ainsi, dans la mine de Iakovlev, déjà en exploitation, le minerai contient 61 pour 100 de fer, 5 pour 100 de silice, 0,1 pour 100 de soufre et 0,2 pour 100 de phosphore. Enfin, les gisements de cette région sont particulièrement précieux à cause de leur étendue et de leur épaisseur. Aux environs de Gos-tistchévo, par exemple, des forages ont permis de constater la pi é-sence d’une .veine longue de plus de 15 km pour une épaisseur moyenne de 100 à 120 m et, près de Iakovlev, ces valeurs dépassent même 30 km et 350 m respectivement. Les seuls gisements de Gos-tistchévo et de Iakovlev peuvent déjà fournir 100 millions de tonnes de minerai par an, ce qui permettra de produire au moins 50 millions de tonnes de fonte. G. M.
- Le niveau de la mer Caspienne, comme celui de la mer d’Aral, est sujet à de grandes variations (La Nature, janvier 1950, p. 45). Les causes de ces variations peuvent, en principe, être aussi bien de nature climatique que de nature géologique. C’est l’hypothèse climatique qui a été adoptée par la plupart des spécialistes. Ceux-ci, rappelle la revue soviétique Priroda, avaient annoncé, dans une réunion tenue à Astrakhan en 1956, que selon leurs prévisions le niveau de la mer Caspienne allait baisser systématiquement au cours des années à venir. C’est tout le contraire qui s’est produit, et même assez nettement, dès. 1957. Depuis lors, l’élévation se poursuit régulièrement, en dépit de la réduction du débit du Volga, réduction due à la création de barrages et de lacs artificiels. On a donc été obligé de recourir de nouveau à l’hypothèse géologique et de l’étudier de plus près. Ces nouvelles recherches n’ont évidemment pas encore pu aboutir à des résultats concrets. Il a cependant été constaté déjà que le fond, dans, la partie méridionale de la moitié nord de la Caspienne, semble s’élever progressivement. Ce mouvement épirogénique, lié à d’autres facteurs d’ordre géologique et tectonique, amorcerait un processus qui aboutirait à une diminution de la capacité de la fosse de la mer Caspienne. Il est fort possible que l’élévation du niveau en 1957, qui a démenti les prévisions des. partisans de l’hypothèse purement climatique, soit la preuve que ce processus a déjà commencé.
- C. M.
- p.247 - vue 250/558
-
-
-
- Une substance inhibitrice de la germination est sécrétée par les Abeilles
- Depuis la découverte de l’iridomyrrnécine par le professeur Pavan, de l’Université de Padoue, de nombreux travaux ont été publiés sur les produits insecticides et bactéricides sécrétés par les insectes sociaux (voir La Nature, décembre 1959, p. 54o). En ce qui concerne l’action des sécrétions des fourmis sur les plantes, on a remarqué que les graines emmagasinées par certaines fourmis comme les Messor ne germent jamais tant qu’elles se trouvent dans la fourmilière; de même on peut constater qu’aucune végétation ne pousse sur le dôme des fourmilières de la fourmi rousse des forêts. Naturellement, les fourmis peuvent détruire les germes des graines ou les herbes qui tentent de se développer, mais il semble que leurs sécrétions jouent aussi un rôle important dans cette inhibition.
- En ce qui concerne les abeilles, on a constaté la présence d’antibiotiques dans les ruches; ils proviennent soit des produits récoltés ou élaborés par les abeilles, soit du corps même de ces insectes. Les travaux récents de Maurizio (Congrès international d’Apiculture, 1958) ont montré que la nourriture des larves, les glandes pharyngiennes des ouvrières, les extraits alcooliques et le miel lui-même peuvent jouer un rôle inhibiteur sur la germination des grains de pollen.
- Dans une note à l’Académie des Sciences (Comptes Rendus, 18 janvier i960), MM. Michel Gonnet et Pierre Lavie viennent de faire connaître les intéressants résultats d’expériences assez différentes. Il s’agit de l’action des substances qui se trouvent dans la ruche sur la germination des tubercules de pomme de terre et des grains de riz. Des pommes de terre en bon état germinatif furent introduites dans une ruche, sans aucune protection contre les abeilles ; des tubercules témoins étaient mis à germer en étuve, dans les mêmes conditions de température et d’humidité, de sorte que la seule différence entre les deux lots était due à la présence des abeilles. Au bout de 10 jours, les témoins commencent à germer et, après 21 jours, neuf sur dix d’entre eux sont couverts de pousses vigoureuses; pendant ce temps, les tubercules de la ruche restent sans aucun germe.
- Mais, ces derniers ont été recouverts par les abeilles d’une légère couche de propolis et une autre série d’expériences s’est montrée nécessaire pour déterminer si une action purement mécanique ne s’était pas opposée à la sortie des germes.
- Les auteurs ont alors planté trois séries de tubercules, aussi semblables que possible. La première série comprend des tubercules tels qu’ils se trouvent après un séjour dans la ruche; ceux de la seconde série sont soigneusement lavés et passés à l’alcool à 5o° pour éliminer toute trace de substance provenant des abeilles; enfin, le troisième lot n’a subi aucun traitement. Seuls, les tubercules de la première série ne germent pas; ceux qui ont été lavés germent aussi bien que les témoins. Il existe donc une substance, soluble dans l’alcool, qui inhibe la germination, sans toutefois détruire le pouvoir germinatif.
- Les essais avec grains de riz ne pouvaient être faits dans la ruche; les grains ont été mis en germination dans des boîtes de Pétri, à l’étuve, après traitement avec divers extraits susceptibles de contenir des substances antibiotiques : extraits alcooliques d’abeilles et de pollen, extrait aqueux de propolis, extraits acétoniques de miel et de cire, extrait éthéré de gelée royale. Les résultats obtenus, quoique assez variables, confirment la présence d’une ou plusieurs substances inhibitrices. Avec le miel et la propolis, aucune graine n’a germé après une période de i5 jours; les extraits d’abeilles et de pollen retardent seulement la germination, mais les plantules obtenues sont deux fois moins grandes que des plantules normales; les extraits de cire et de gelée royale retardent la germination de trois jours seulement; mais les plantules des grains traités par la cire restent minuscules et celles qui germent sur des grains qui ont été trempés dans l’extrait de gelée n’atteignent que la moitié de la grandeur normale.
- Le miel et la propolis se montrent donc les inhibiteurs les plus puissants. Les auteurs observent à ce sujet que ces substances ont été employées depuis l’Antiquité pour la conservation des fruits et des graines. L. C.
- Compteur à œufs de poissons La culture fruitière en Chine
- Trois biologistes de la Station maritime d’Aberdeen, B. B. Par-rish, I. G, Baxter et M. J. D. Mowat ont donné dans la revue britannique Nature la description d’un compteur à œufs de poissons, conçu et construit par eux. Les auteurs, au préalable, rappellent l’intérêt qui réside dans une connaissance aussi exacte que possible de la fécondité des poissons, facteur qui varie chaque année et dont l’influence sur l’effectif et la vitalité des classes annuelles est indéniable.
- Jusqu’ici le nombre des œufs, qui caractérise la fécondité, était mesuré en faisant une pesée globale de la gonade, puis en comptant les, œufs sur un échantillon d’un poids déterminé. Le nombre total était obtenu, avec une assez large approximation, par une simple multiplication. Le comptage manuel de l’échantillon était évidemment très long et fastidieux, d’autant plus qu’il devait être répété pour un grand nombre de poissons.
- Le compteur d’Aberdeen a été mis au point pour mesurer la fécondité des harengs. Le principe est de faire passer les œufs un par un dans un tuyau de diamètre approprié (1,53 mm) : ail moment où ils franchissent la chambre de comptage, ils interrompent un rayon lumineux et ce sont ces interruptions qui sont dénombrées par un enregistreur électronique.
- Des manipulations préparatoires sont évidemment nécessaires pour dégager les œufs des tissus qui les enrobent. Ils sont ensuite placés dans un entonnoir où un agitateur les maintient en suspension dans l’eau. Le courant qui les charrie vers la chambre de comptage doit être soigneusement réglé pour éviter des a embolies ». Le rythme de 100 oeufs à la seconde est en général satisfaisant. La méthode paraît fort exacte : quatre mesures successives sur un même échantillon n’ont jamais fait apparaître de différences supérieures à. 1 pour 100. G. C. .
- La Chine, dont le vaste territoire se prête à l’acclimatation de presque toutes les espèces d’arbres fruitiers, connaît, depuis plusieurs années, un développement remarquable de la culture fruitière, selon un récent article de la revue soviétique Prirocla. Ainsi, les jardins fruitiers couvraient en 1957 une surface de
- 1 025 717 ha, ce qui représentait un accroissement de plus de 100 pour 100 par rapport à 1940. Cette surface doit atteindre
- 2 700 000 ha en 1962, et 5 000 000 ha en 1967. Il convient de signaler à ce propos que les cocotiers et les noyers n’entrent pas dans cette évaluation, car ces arbres sont considérés, en Chine, comme faisant partie de la sylviculture. Dans de nombreuses provinces chinoises, la récolte moyenne est, à l’heure actuelle, de 100 à 120 quintaux par hectare, mais il existe des jardins fruitiers où cette récolte atteint jusqu’à 400 à 500 quintaux par hectare.
- La culture fruitière se développe surtout dans les provinces orientales de la Chine, où l’on peut distinguer trois zones différentes : la zone septentrionale, la zone subtropicale et la zone tropicale. Dans la zone septentrionale (comprenant le Nord et le Nord-Est de la Chine) on cultive principalement le pommier, le poirier, l’abricotier, le pêcher, la vigne. A côté des variétés connues en Europe, il existe des fruits spécifiquement chinois, par exemple la pomme Malus asiatica Nakai et la poire Pyrus sero-tina Eehd. Dans la zone subtropicale (principalement au sud du fleuve Yang-Tsé), on trouve surtout des orangers et des mandariniers. Mais on y cultive également les pamplemousses, dont certains atteignent jusqu’à 22 cm de diamètre. Enfin, dans la zone tropicale (Sud-Est de la Chine), on rencontre de nombreux ananas, bananiers et cocotiers.
- C. M.
- p.248 - vue 251/558
-
-
-
- Pour l’Alaska de i960 le temps de l’aventure est clos
- 249
- Le 3 janvier 1969, l’harmonie dodécalinéaire du drapeau américain était bouleversée par l’accession de l’Alaska au titre de 49e État des U.S.A. Par maints côtés le nouveau territoire s’apparentait aux derniers états admis dans l’Union : Arizona et Nouveau-Mexique. Comme eux, pays de frontière et de pionniers. Même climat psychologique de Far West. Peu exploité, partiellement exploré, mais riche de promesses.
- Couvrant 1 5oo 000 km2, deux fois plus que le Texas qui était le plus grand des états américains, Canada ou Océan le sépare des États-Unis et les villes américaines les plus proches s’en trouvent à 1 3oo km. Acheté aux Russes, apparemment sans préavis, en 1867, par le secrétaire d’État Seward pour la somme de 7 200 000 dollars. En fait, transaction préméditée avec l’envoi d’une mission d’étude pour la liaison télégraphique Moscou-New York, via la Sibérie. W. A. Dahl, chef de mission, ne s’était pas mépris, en effet, sur les richesses du pays. Son geste fut pourtant assez fraîchement accueilli' jusqu’au jour de i885 où l’or y fut découvert à Juneau, De cet or, à la ruée duquel 100 000 Américains participèrent, il a été extrait à ce jour pour plus de 700 millions de dollars, soit cent fois le prix d’achat du territoire.
- Il y a tout juste un quart de siècle que l’essor de l’Alaska s’est affirmé. En xg35, 200 familles du Middle West américain tentaient la première expérience de colonisation agricole en s’installant dans' la vallée de Matanuska.
- Pays à l’échelle de son continent (Alaska veut dire « Grand Pays »’en dialecte aléoutien), son unité est plus historique que
- géographique, car l’éventail de ses climats et de ses ressources permettrait bien plutôt d’y décrire une demi-douzaine de pays. 3,8o m de pluie par an à Ketchikan, mais moins de i3 cm à Point-Barrow. A Fort-Yukon (32 km du Cercle polaire) la température peut tomber à — 56° en hiver et monter à +37° en été. Un tiers du territoire est situé au nord du Cercle Arctique et le climat y est rigoureux. Au sud il est au contraire, dans ses grandes lignes, assez semblable à celui de Philadelphie.
- Situation stratégique et richesses du sol l’ont fait passer au premier plan. La Petite Diomède, île américaine qui se trouve à moins de 4 km de la Grande Diomède soviétique, suffit à expliquer la « ceinture de sécurité » du continent ou Dew-Line qui borde ses rivages.
- Depuis longtemps reconnues, les richesses de son sol ne sont pas entièrement recensées. Une étude générale parue jadis dans La Nature (i5 février et ier mars ig48) demeure toujours valable à son endroit, les lignes qui suivent s’attachant seulement à définir l’étonnante évolution du territoire et les espoirs qu’elle comporte pour hommes d’affaires, techniciens et travailleurs dont chaque année un plus grand nombre s’y installent et y demeurent. Ce nouvel apport ne doit pas faire oublier les pionniers qui gagnèrent le pays pendant ou après la ruée de l’or de 1898-1901 et dont certains occupent aujourd’hui une place enviable.
- Démographie, conditions de rie. — Cristallisé actuellement
- Fig. 1. — Dans un igloo, une famille esquimau du Nord de F Alaska se nourrit d’un plat de crabe.
- p.249 - vue 252/558
-
-
-
- Fig. 2. — Carte de l’Alaska.
- (Cartographie La Nature).
- 250
- ^C-:ErAzN=G-:L^AzÇ^AzL=AzR£ÇhT=H0HJEEi
- autour des cités d’Anchorage, Fairbanks, Ketchikan et Juneau, le peuplement tend à gagner pourtant l’intérieur des terres.
- Devenus citoyens des États-Unis, les Alaskiens sont de ce fait soumis aux mêmes obligations militaires et aux mêmes impositions financières.
- Nombre des habitants sont aborigènes. Dans le Nord et Nord-Ouest vivent les Esquimaux. Dans le Sud-Ouest, les Aléoutiens. Dans le Sud-Est, ou à l’intérieur, les Indiens. Bien qu’ayant conservé partiellement leurs traditions tribales ils font le plus souvent corps avec les Blancs pour la manière de vivre et de penser, trouvant leur place aussi bien dans les services gouvernementaux et chambres de commerce que dans les mines, transports, pêcheries...
- Échelonnés au long de l’Océan Arctique et de la mer de Béring ainsi que dans les deltas de Yukon et du Kuskokwim, les Esquimaux (fig. i et 3) représentent le groupe le plus important. Ils s’adonnent à .la'chasse aux animaux à fourrure, à la pêche, à la sculpture sur ivoire. La seconde guerre mondiale a trouvé les hommes au service de l’aviation et de la marine, les femmes confectionnant des vêtements d’hiver pour l’armée.
- Adroits pêcheurs et marins, les Aléoutiens, traditionalistes, sont cantonnés dans la chaîne d’îles qui prolonge la péninsule d’Alaska et dans l’île Kodiak.
- En ig3o, d’après les estimations des missionnaires et des marchands, il y aurait eu 59 278 habitants. La population passait à 72 524 en 1940, 128 643 en avril 1960, 161 000 en juillet 1966. En juillet 1958, on comptait 47 000 militaires, 20 000 membres de familles de militaires et 167 000 civils dont 35 000 Aléoutiens, Esquimaux et Indiens. Population jeune puisque l’âge moyen est de 26 ans.
- Malgré la différence des habitudes, l’habitat alaskien ne diffère guère de celui que l’on rencontre dans les autres états, si ce n’est par sa dispersion à travers des étendues vides et la beauté du cadre géographique. On y trouve magasins semblables, écoles, églises, chambres de commerce, clubs, lignes de
- « bus »... Cependant, si l’accès à certaines villes est permis par route et rail, il en est d’autres auxquelles on n’accède que par voie maritime, fluviale ou aérienne. L’Alaska compte 12 compagnies aériennes privées et 270 aérodromes. L’utilisation de l’avion privé y est plus répandue que celle de l’automobile.
- Cité moderne et centre de communications, reliée par de grandes routes à la Péninsule de Kenai, à la vallée agricole du Ma-tànuska et à la Haute Route (.Highway) de l’Alaska, Anchorage (60 000 habitants) s’inscrit comme la ville la plus importante et un des principaux centres aériens du globe sur la route des lignes transpolaires. Pour le trafic son aéroport (fig. 4) est, en effet, le 5e du monde, derrière Chicago, Los Angeles, New York et Miami, bien avant le premier aéroport non américain, Londres. Des services quotidiens sont assurés pour la plupart des autres secteurs de l’Alaska et pour les États-Unis. Trente-huit églises, douze écoles homologues de nos écoles secondaires, deux hautes écoles, un hôpital moderne, plusieurs cliniques, quatre théâtres, deux journaux quotidiens, trois stations de radio, deux de télévision, trois banques nationales et plus de mille quatre cents fonds de commerce font d’Anchorage une ville active, piquée sur un fond de glaciers et de montagnes. La construction d’une université est pour demain. Son avenir s’affirmera encore par la découverte récente de pétrole dans la péninsule de Kenai, au sud de la ville.
- « Cœur et pouls de l’Alaska », au terminus de la Highway, deuxième ville du territoire, Fairbanks (4o 000 habitants), centre minier et de transports, témoigne d’une activité dont 75 pour 100 sont assurés par les bases militaires. Son climat est rude, malgré une température moyenne de + i5°6 en juillet, puisque le thermomètre peut descendre en hiver à — 54°. Son aéroport international est tête de ligne vers Nome, Barrow et l’intérieur des terres, avec service quotidien pour Anchorage. Des vols au-dessus du cercle polaire sont même offerts aux touristes durant l’été. Les églises y sont nombreuses. Deux stations radio et deux de télévision. Un journal quotidien et un hebdomadaire. Marché pour les produits agricoles fournis par la vallée de Tanana. Gisement aurifère. A quelques kilomètres de là, l’Université.
- Accessible seulement par voie maritime ou aérienne, Juneau (9 5oo habitants), capitale de l’Alaska, offre, dans un décor de montagnes, ses pêcheries et ses usines de conserves. Grâce au climat humide et relativement doux, son port qui peut recevoir de grands navires est ouvert toute l’année. Chaque semaine des bateaux venus de Seattle et Vancouver y font escale. Aéroport. Deux grandes écoles, une haute école et une école paroissiale. Deux hôpitaux, l’un privé, l’autre gouvernemental. Une clinique : 9 médecins, 6 dentistes, mais pour les prothèses dentaires et certaines opérations chirurgicales importantes, il faut gagner Seattle. Deux banques, deux cinémas, un jôurnal quotidien et un hebdomadaire. Une station de télévision et deux de radio. Une usine de balsa et une scierie. Nombreuses égli-
- p.250 - vue 253/558
-
-
-
- 251
- Fig. 3. — Des chas-
- à terre
- laire.
- (Photos aimablement communiquées par le Centre culturel américain).
- ses. Musée. Dans cette ville essentiellement administrative, les prix et les salaires sont élevés. Juneau doit d’être connue mondialement à la mine d’or voisine, aujourd’hui sans objet, mais qui remuait quotidiennement plus de 12 000 t de minerai.
- Accessible par mer, de Seattle ou Seward, et par air d’Anchorage, Kodiak, située dans l’île du même nom, est un des plus anciens établissements de l’Alaska. Tournée vers l’élevage du bétail et la pêche au crabe, saumon, hareng et flétan, elle chasse le gros gibier, particulièrement l’ours brun.
- Ce tour des cités notables se bouclera sur Sitka, située sur la côte occidentale de l’île Baranof, à 1 5oo km au nord-ouest de Seattle. Jadis capitale de l’Amérique russe, elle fut capitale de l’Alaska aux premières heures de l’occupation américaine. Plus d’un millier de petits bateaux animent son port qui vient en tête pour la pêche au saumon. Journal quotidien. Deux stations radio. Sur l’autre versant du détroit de Sitka s’élève le volcan’éteint du Mont Edgecumbe, encapuchonné de neige. A ses abords le Bureau des Affaires indiennes entretient une école, et le service de santé des États-Unis gère un centre tuberculeux.
- Pratiquement, l’isolement des divers territoires de l’Alaska est rompu par le téléphone et le télégraphe. La pose de câbles sous-marins a récemment amélioré les communications entre Alaska et États-Unis.
- Là comme ailleurs, l’importance de l’immigration pendant et après la deuxième guerre mondiale, au service de la défense nationale, des communications, des usines de pâte à papier..., a rendu aigu le problème du logement, facteur de base de l’évolution économique.
- Cent écoles et une université dispensent aux étudiants immigrés et autochtones un enseignement qui n’a rien à envier aux enseignements des autres états de l’Union. Il s’y ajoute les écoles de mission. L’Université d’Alaska se trouve à 7 km à l’ouest de Fairbanks, sur une colline couverte de bouleaux qui domine la vallée de la Tanana. Fondée en 1922, elle ne comptait alors que 6 étudiants. Aujourd’hui ses élèves viennent d’une grande partie des États-Unis, attirés spécialement par l’excellence de l’enseignement minier. Les cours y sont variés : géophysique, biologie, chimie, géologie, mines... Typiquement alaskienne par sa rudesse, on a pu dire qu’elle avait été « la plus grande contribution individuelle à la colonisation de
- Fig. 4. — L’aérodrome d’Anchorage, le cinquième du monde pour le trafic.
- p.251 - vue 254/558
-
-
-
- Fig. 5. — Ketchikan, centre de pêche et de conserveries, important marché de bois et de pâte à papier. Fig. 6. — Au cœur de la grande forêt,
- à Ketchikan, une des usines les plus modernes de pâte à papier. Terminée en 1954, cetle fabrique produit 480 t par jour de pulpe de bois de première qualité.
- p.252 - vue 255/558
-
-
-
- Fig. 7
- Au premier plan,
- . — Le Mont McKinley (6 191 m), la plus haute montagne de l’Amérique du Nord. La région est Parc .National, la Highway qui relie l’Alaska au Canada et aux I5tats-Unis. Fig.- 8. — Otaries dans la réserve zoologique de l’île Bogoslof.
- p.253 - vue 256/558
-
-
-
- l’Alaska ». Bien des étudiants assurent leurs études en consentant quelque travail dans les mines, bureaux ou magasins des compagnies minières.
- Riche des oeuvres d’art des Esquimaux et des objets qui ont valeur d’histoire, un musée complète l’université, mais l’exiguïté des locaux interdit d’y présenter les 7& ooo spécimens qu’il recèle. Quant à la bibliothèque, elle compte déjà plus de 20 ooo volumes et quelque 20000 brochures.
- S’installer en Alaska n’est donc pas se résigner à une forme de vie primitive. Les services de santé du territoire comptent de nombreux hôpitaux dont les principaux sont l’hôpital fédéral d’Anchorage (4oo lits), le sanatorium méthodiste de Bartlett (i55 lits) et l’hôpital fédéral du Mont Edgecumbe (342 lits). Cette armature est complétée par quatre importants laboratoires (Juneau, Ketchikan, Anchorage et Fairbanks) où sont permises analyses bactériologiques, sérologiques, etc. Un bâtiment de la marine possède à son bord un laboratoire complémentaire et opère au long des côtes, dans l’île Kodiak, péninsule d’Alaska et secteur de la mer de Béring, dispensant soins dentaires et secours aux mères et nourrissons, aux enfants estropiés, etc.
- Comme dans les autres pays à haute latitude, la tuberculose est ici lia maladie la plus meurtrière pour la population autochtone. Alors que dans les autres étals de l’Union, le nombre des cas m’était en ig54 que de 6 pour 10 ooo, il s’élevait en Alaska à 245 dans la population indigène. Si bien que le service hospitalier du territoire a dû être complété par trois sanatoriums qui se trouvent dans l’État de Washington et où les malades sont transportés par avion. Sur 1 ooo lits et plus dont dispose le service de santé indigène dans ses huits hôpitaux, 65o étaient pourtant déjà réservés aux tuberculeux, bien que chimiothérapie et vaccination au B.C.G. soient largement employées sur ce territoire. A noter cependant un abaissement de la mortalité parmi les natifs, tombée de 67 pour 10 ooo en ip5o à 3i en ig53. Par ailleurs, un service médical itinérant assure la visite de ii3 villages éloignés.
- Pêcheries et conserves de poisson. — Dans l’ordre des activités, la pêche s’inscrit après la construction, mais avant les mines, transports, industries du bois. Les trois premières sont éminemment saisonnières. Au regard des industries annexes qui en découlent, le temps de la pêche est d’ailleurs très court. Les industries du bois (pâte à papier...) et des transports sont au contraire assez stables, compte tenu évidemment des conditions atmosphériques.
- L’industrie de la pêche fournit une part importante du revenu de l’état. Favorisée par les eaux peu profondes et tièdes des indentations de la côte du Pacifique, elle appelle deux formes d’activité : capture et préparation du poisson. On pouvait évaluer grossièrement, en ig5o, à plus de 2 milliards de dollars le montant des produits de vente de la pêche depuis l’achat du. territoire par les États-Unis en 1867. Pour l’année xg56 seule, il était évalué à 92 960 379 dollars.
- 3o ooo habitants de l’Alaska participent à cette industrie, dont 3o pour 100 sont pêcheurs. Mais, pour éviter le dépeuplement des lieux de pêche, on a dû établir une réglementation assez stricte, révisée d’ailleurs annuellement en fonction des variations des bancs et du complément d’informations biologiques apporté par le laboratoire expérimental des pêches de Ketchikan (fig. 5), créé avant la seconde guerre mondiale.
- Quatre-vingt-cinq canneries (usines de conserve) importantes fonctionnent en Alaska, dont un petit nombre flottantes où le travail s’effectue à la main. Mais la plupart sont ultra-modernes et pourvues d’appareillage automatique, comportant habituellement 2 ou 4 chaînes de traitement, dont chacune peut traiter en une minute 120 kg de poisson. L’éloignement des marchés ne permet, en effet, qu’une vente infime de poisson frais et le manque d’ensoleillement interdit le séchage.
- De loin le saumon (qüi ici appartient au genre Onchorynchus et non au genre Salmo) occupe la première place, comptant à peu près pour 90 pour 100. Au cours de l’année 1918, il représentait en valeur nutritive 3 millions 5oo ooo têtes de bétail
- Fig'. 9.
- Une pêcherie de saumon dans le Sud-Est de l’Alaska.
- p.254 - vue 257/558
-
-
-
- 255
- dont l’élevage aurait nécessité une surface de pâturage de 28 000 000 ha. En ig56, 49 284 g48 saumons étaient capturés. N’entrent en ligne de compte que ceux qui sont pêchés dans un but commercial, abstraction faite des nombreux autres qui sont réservés à la nourriture personnelle ou à celle des chiens (fiff- 9)*
- Cinq espèces de saumons se rencontrent en Alaska : Onchoryfichus nerka, O. tschawytscha (saumon de printemps), O. kisutch (saumon d’argent), O. keta (saumon chien), O. gorbuscha (saumon à bosse). Tous sont exploitables en quantités commerciales, leur valeur étant fonction de leur couleur et de leur richesse en huile. Quelques-uns sont livrés à la vente, frais, gelés ou faiblement salés, mais la plupart sont mis en conserve.
- Dans l’ordre des prises le flétan ou halibut arrive en seconde place. De 1910 à 1980 l’extension de ses pêcheries a été considérable, tant et si bien que de sévères prescriptions durent être édictées. En 1956, 32 firmes en traitaient ix Ô2i t.
- Par contre une désaffection notable pour le hareng (Clupea mirabilis) dans la consommation humaine s’est manifestée à la fin de 1920 sans qu’une reprise sérieuse ait été enregistrée depuis. Cette carence tient dans le mode de conservation pratiqué alors dans un certain nombre de pêcheries et qui était le salage; méthode assez peu goûtée du client devant les offres de poissons frais, conservés ou gelés. De sorte qu'actuellement le plus clair des harengs pêchés est traité aux fins d’obtention d’hui'le et de farine, exception faite d’une petite quantité réservée comme appât. Chaque usine de traitement fait généralement contrat avec quatre bateaux de pêche. Sauf imprévu, il ne semble pas que l’on doive s’attendre dans l’immédiat à une expansion sérieuse de la pêche du hareng.
- Trois espèces de morue sont pêchées, la principale étant Gadus macrocephalus. Aux abords de l’île Kodiak et surtout dans la mer de Béring, la morue entretient une industrie d’avenir dont pourraient pâtir assez sérieusement les pêcheries, pourtant bien assises, de la côte atlantique.
- Bien d’autres espèces de poisson pourraient faire l’objet d’une industrie florissante. Mais les techniques a frigore sont à parfaire pour assurer à leur conserve une présentation alléchante et une saveur meilleure.
- Les phoques qui sont nombreux dans les eaux alaskiennes sont accusés de causer de grands dommages aux filets.
- En quantités importantes se rencontrent les clams dont l’industrie relativement faible s’est vue freinée par un élément toxique qui pouvait inquiéter, bien qu’aucune maladie précise n’ait pu être enregistrée. Le laboratoire de Ketchikan s’est employé à réduire la toxicité de ces mollusques. Moyennant certaines précautions, il semble que leur mise en conserve soit justifiée.
- Un peu partout au long de l’Alaska, on recueille les crabes dont le plus grand nombre sont congelés ou mis en conserve. Comme l’époque de leur pêche est différente de celle du saumon, les pêcheurs y trouvent un complément de revenu inté-i-essant. En 1955, 1 438 t de crabes conservés, gelés ou frais étaient lancées dans le commerce, ce qui représentait 2 649 Û89 dollars. Chiffre qui tombait en 1956 à 2 oxo 776 dollars pour une production de g56 520 t. De florissantes pêcheries de « crabe royal » prospèrent sur la mer de Béring, à Kodiak et autour de Cook Inlet.
- Les eaux alaskiennes sont également riches en crevettes dont il reste à mieux préciser l’habitat pour établir à bon escient des usines de traitement. Jusqu’ici les crevettes ne subissent pas de préparation en Alaska, mais sont livrées au marché congelées; 322 t, d’une valeur de 5oo 262 dollars, ont été produites en ig56.
- Mines ; énergie. — Avec la deuxième guerre mondiale avait pris fin l’exploitation des mines qui avait constitué durant de nombreuses années la deuxième industrie de l’Alaska. Per-
- Fig. 10. — Les crabes royaux de la mer de Béring peuvent dépasser un mètre et peser dix kilogrammes.
- sonne ne se méprend pourtant sur la richesse considérable qu’elles représentent puisque, sur les 33 métaux que les Américains font figurer sur la liste des métaux stratégiques, on en trouve ici 3i.
- Quoique la demande accrue de métaux et la prospection de l’uranium aient ultérieurement stimulé leur recherche, cette industrie n’a pas retrouvé sa situation passée. L’or, par exemple, aurait pu espérer conserver sa première place si son prix de revient lié aux difficultés d’accès n’avait contrarié son exploitation, limitée par ailleurs aux mois d’été. Des encouragements sont prodigués aux prospecteurs et des cours ont été institués à cet effet dans les grandes villes du territoire par l’École des Mines de l’Université de l’Alaska.
- Pendant un quart de siècle la recherche du pétrole a. été vaine. On en a enfin découvert en 1957, dans la presqu’île du Kenai, à 112 km au sud-est d’Anchorage. Selon certains spécialistes, la configuration géologique du sol devrait en faire le quatrième réservoir mondial, perspective que d’autres lui dénient. Quoi qu’il en soit, vingt-cinq compagnies pétrolières sont à pied d’œuvre, qui prospectent et exploitent déjà.
- Quant à la production charbonnière dans les vallées situées entre Anchorage et Fairbanks, elle atteint mensuellement 80 000 t et les réserves sont estimées à io9 t.
- L’énergie hydroélectrique est le nerf de l’économie pour un pays qui veut vivre et grandir. Recensement est actuellement fait des chutes et sites éventuels de barrages, réservoirs, centrales... Des travaux à venir, l’un des plus grandioses intéresse le cours supérieur du Yukon qui se trouve à 700 m d’altitude alors que 25 km seulement le séparent de la mer. Étant donné la maîtrise acquise par les techniciens américains dans le domaine des barrages (vallée du Tennessee...), le creusement, dans la montagne, d’un tunnel par où s’engouffrerait l’eau est
- p.255 - vue 258/558
-
-
-
- 256
- un travail très réalisable qui permettrait d’obtenir quelques millions de kilowatts.
- Agriculture; îorêts. — Si l’Alaska veut vivre, il doit trouver sur son sol la matière de son alimentation. Or, de ce sol, il ne tire actuellement que io pour ioo de ses propres besoins en produits agricoles alors qu’il serait capable d’en fournir 45 pour ioo. Un pour cent seulement du territoire est cultivé, ce qui appelle une aide permanente des autres états de l’Union pour l’approvisionnement des Alaskiens en beurre, œufs, volailles, porc et légumes frais. Les frais de transport grèvent lourdement le prix des produits, ceux que le fermier vend comme ceux qu’il achète (machines, engrais...). La mise en route d’une agriculture efficiente nécessitait une connaissance sérieuse du sol qui a manqué aux colons autant que l’assistance financière sans 'laquelle ils ne pouvaient prétendre à l’équipement nécessaire et assurer la vie de leur famille avant que ne se lèvent les premières moissons rentables. Aussi, des études sont-elles en cours qui ont justifié la constitution de divers organismes de recherche, en agronomie, horticulture, entomologie, pathologie végétale...
- L’activité agricole est limitée essentiellement aujourd’hui à la vallée de Matanuska, au nord d’Anchorage et autour de Palmer; à la vallée de Tanana-Chena, autour de Fair-banks et à la presqu’île de Kenai qui borde le Cook Inlet, à l’est.
- La péninsule d’Alaska, l’île Kodiak et les Aléoutiennes sont des terres à herbages substantiels qui pourraient permettre; 9ur une large échelle, 'l’élevage du bétail et des moutons. Une industrie de la laine pourrait s’y développer. Le cheptel y est encore bien maigre.
- La saison de croissance pour les plantes n’est que de 80 à 90 jours dans les vallées de Tanana et du Yukon, de 120 jours sur la côte pacifique centrale, mais la longueur du jour compense cette brièveté de la saison utile. Il n’en est pas ainsi sur la côte sud-est de l’Alaska qui, malgré ses i4o jours favorables, ne peut espérer un bon développement de l’agriculture.
- De toutes les vallées alaskiennes promises à l’agriculture, celle de Matanuska, tirée de l’oubli par la ruée vers l’or, paraît bien la plus favorisée.
- Laiterie, élevage de volailles, production de pommes de terre sollicitent partiellement l’activité du fermier. Peu de fermes, en effet, travaillent à temps plein. Les exploitations comprennent deux ou trois bâtiments, habituellement entourés de 1 ha de potager, de 6 ha de bois, de 8 ha de prairies et de 16 ha
- de cultures proprement dites. Quant aux productions qui exigent de la chaleur (tomates, concombres...) elles sont, comme en Islande, obtenues en serre. Les rendements des arbres à fruits sont des plus satisfaisants. Avoine, orge, blé -et pois du Canada viennent normalement.
- Composée pour l’essentiel de sapin, bouleau, tremble, mélèze et occupant environ 60 pour 100 de la surface du pays, la forêt alaskienne apparaît comme une source de profit inépuisable, tant dans les zones de l’intérieur que dans les deux forêts nationales de Tongas et de Chugach (8 000 000 ha pour ces deux dernières) dont la production annuelle peut se maintenir à plusieurs milliards de pieds de planches pour bois de construction. La demande en déchets de bois, contreplaqués, répond largement à l’offre aussi bien pour la construction croissante dans le territoire que dans les autres états. Là, comme en d’autres domaines, l’accessibilité commandera leur exploitation.
- Deux types de végétation caractérisent l’intérieur du pays : forêt d’une part; toundra de l’autre, dans la zone arctique, en bordure de la mer de Béring. Si l’humidité du sol et la rigueur du climat des zones de toundra interdisent la croissance des arbres, elles offrent pourtant saules nains, lichens et mousses dont les caribous font leur pâture, caribous qui assurent largement la vie des autochtones.
- La plus grande partie du bois appartient au domaine public et est traitée par plus de 70 scieries (scieries de Wood Island, de Saint-Paul Harbor.,.). Le groupe des épicéas (Picea mariana, P. glauca, P. rubra...) qui atteignent leur plus grand diamètre dans la région de Sitka, fournit largement la matière des bois de construction. Quant au baume du Canada, utilisé en micrographie, il est tiré du sapin baumier (Abies balsamea) bien représenté ici.
- A condition de n’en point faire vente, les colons, mineurs et résidents peuvent disposer librement du bois du domaine public pour leur usage personnel. Mais un grave danger menace depuis toujours les surfaces boisées ou herbeuses, au temps des étés arides : l’incendie que chaque habitant s’empresse de signaler au garde forestier le plus proche.
- Faune ; tourisme. — Les richesses animales de l’Alaska ont été souvent rappelées. En fait, leur aspect est multiple, à la fois utilitaire, touristique et cynégétique. Plus de la moitié des habitants, en effet, sont tributaires du poisson et des animaux sauvages. Mais la montée en flèche de la population civile et militaire, l’ouverture de nouvelles routes à travers les aires giboyeuses, l’emploi de l’aviation pour gagner les territoires
- p.256 - vue 259/558
-
-
-
- Fig. 12. — Le Mont Shishaldin, volcan en activité, que survolent souvent les avions de tourisme.
- (Photo aimablement communiquée par le Centre culturel américain).
- de chasse et de pêche font planer un danger permanent sur la faune du pays.
- La faune alaskienne est un patrimoine qui pourrait se chiffrer en millions de dollars. Patrimoine à sauver et préserver pour l’industrie touristique dont on attend beaucoup, pour les naturalistes et pour les résidents mêmes de l’Alaska qui trouveront là matière à évasion dans leur vie rude. Pêche sportive, par exemple, celle du saumon royal qui attire au printemps et à l’été des adeptes de plus en plus nombreux.
- Aussi convient-il de protéger et même déjà de reconstituer les espèces d’oi-seaux et d’animaux en péril. Parmi les refuges les plus représentatifs, on peut citer celui des îles Aléoutiennes pour la protection des oiseaux et du gibier, la propagation des animaux à fourrure (ours brun, renard bleu...), celui des îles Saint-Mathew et Iiall sur la mer de Béring (nombreux renards arctiques dont le pelage vire au blanc en hiver), celui de l’île Kodiak (ours brun...). En dehors, bien entendu, du parc national McKinley (5 700 km2) (fig. 7) que l’on atteint par Cook Inlet et de quelques autres comme le parc national des Dix-mille Fumées (extrémité orientale de la presqu’île d’Alaska) dont les nombreux volcans s’offrent à tous les stades d’activité plutonienne (fig. 12).
- Contre les loups qui font des coupes sombres dans les troupeaux de caribous et autres gibiers, les services spécialisés interviennent par appâts empoisonnés, trappes ou chasse par avion.
- Le tourisme peut faire demain la fortune du pays. Déjà au long de la Haute Route (Highway) qui monte des États-Unis, quelques gîtes d’étape et terrains de camping se dressent, alternant avec les stations-services. Pendant quelques mois chaque année, le voyage automobile y est possible.
- Parmi les sites d’attraction on peut nommer Kotzebue, village esquimau relié journellement en été par avion. Au nord de cette agglomération, Point Hope, autre village esquimau reculé et primitif, est desservi hebdomadairement par une ligne commerciale.
- II paraît inutile d’insister sur le rôle joué par l’Arctique dans la genèse du temps, justifiant l’établissement de stations météorologiques. L’étude biologique des animaux et des poissons. adaptés aux sévères conditions des hautes latitudes peut amener à prendre conscience de certains processus physiologiques d’une importance fondamentale à l’échelle de l’humain.
- Six volumes publiés en ig56 et qui contiennent le sommaire
- de 5 000 publications en anglais, russe, Scandinave..., disent assez la place d’élection occupée par l’Arctique dans les préoccupations planétaires.
- *
- * *
- Le destin de l’Alaska est de grandir. Pour ce fait, rien n’est négligé, à commencer par l’exemption d’impôts pendant dix ans pour toute entreprise agréée par les autorités. Le développement de son réseau routier est un des premiers labeurs à poursuivre. En dehors des 2 445 km de la Highway on n’y compte, en effet, que 8 3oo km de routes dont près de 3 200 km de voies de grande communication reliant les principales villes, le reste étant formé de routes secondaires.
- Hormis les forêts nationales, parcs nationaux, réserves militaires, sites énergétiques, la terre alaskienne est tenue pour libre. Tout Américain qui postule son admission dans le territoire reçoit gratuitement du gouvernement 64 ha de terre qui sont, en réalité, forêt à défricher, sous réserve pour lui de vivre sur sa propriété et de la cultiver au moins pendant trois ans.
- Qu’on n’aille pas croire pour autant que l’Alaska soit un Eldorado ouvert à tout venant. Les travailleurs non spécialisés excédant déjà généralement les capacités d’absorption du territoire, il convient de ne s’y présenter que dûment qualifié, encore que les chances soient aussi variables que les métiers et les saisons. Cependant, ingénieurs civils, techniciens de l’électronique, etc., y sont les bienvenus. Le personnel est généralement recruté en Alaska même ou, à défaut, aux États-Unis. Dans ce dernier cas, les frais de transport sont parfois remboursés. Quant aux salaires, plus élevés que dans tous les autres états, ils varient selon les régions, selon la qualification et le prix de la vie.
- Les industries qui relèvent de la pêche et le commerce absorbent les activités féminines. Sténographes et secrétaires hautement qualifiées sont recherchées.
- Qui prétend vivre en Alaska sans besogne définie doit donc, le cas échéant, prévoir sa subsistance durant le temps où il sera sans travail, voire son retour. Le temps de l’aventure est clos. La technique prend la relève.
- Pierre Gauroy.
- p.257 - vue 260/558
-
-
-
- 258
- Comment l'oiseau commence son nid
- Il ne paraîtra pas, j’espère, insolite aux lecteurs de La Nature qu’à la saison nouvelle il leur soit piarlé, et en langage non chiffré, de la merveille du monde depuis longtemps si émouvante pour les humains : du nid de l’oiseau. Ce thème, cher aux naturalistes observateurs, je l’aborderai, en cet article assez concis, par son côté le plus mystérieux, le moins complètement connu : le départ de sa construction, que les manuels ne narrent qu’en passant. Je n’irai pas chercher mes exemples très loin, mais rien que dans les limites de mon pays, la France même.
- Vous apprendrez par vos livres, avant de partir en excursion, que l’hirondelle de fenêtre maçonne son nid en quart de sphère avec de la boue ramassée dans l’ornière humide du chemin, mais je n’ai lu nulle part encore que l’oiseau au croupion blanc et aux dessous immaculés, alternant dans son vol avec ses dessus noirs à reflets bleus en des ballets aériens que mire la rivière aux soirs d’été, est issu d’un nid architecture avec l’instinct le plus méthodique : c’est par l'épissure inférieure, en effet, que celte hirondelle débute son ouvrage; et mieux encore, à la mesure exacte de son corps appliqué à la paroi verticale de la muraille, qu’elle soit fenêtre ou falaise de craie, comme avant l’apparition des 'maisons et des villes, et même, ce qui est tout un pour un petit oiseau, à la corniche, de la cathédrale. Témoin sur cette vigne qui court sculptée aux siècles de « lenteur », au bas côté sud du vaisseau de Laon que je contemplais en 1917 pendant notre réoccupation du terrain usurpé par les légions germaniques. Il y avait là toute une colonie de ces hirondelles urbaines.
- Savez-vous aussi comment sont commencés les nids des rousserolles turdoïde et effarvatte ? Les naturalistes nous ont dit : ils sont tressés en rapprochant plusieurs roseaux aux
- Fig. 1. — Hirondelle de fenêtre.
- (Dessins inédits de Roger Reboussin).
- "WJ;
- Fig. 2. — Rousserolle turdoïde.
- hampes verticales, les reliant avec des fibres végétales, puis montés en une coupe profonde, leur rebord s’ourlant nettement afin que, sous l’inclinaison des Arundo pendant une tempête, les œufs ne soient pas précipités au fond de l’eau. Ceci est exact mais sans jamais pourtant nous- révéler comment « tient » la base de ce berceau sur pilotis. Or j’ai observé sur le Loir, au moment où, les roseaux reverdis, cannes et feuilles poussent et confèrent un abri aux fauvettes aquatiques en désir de nicher, que là où ces oiseaux se groupent on peut trouver un bon nombre de nids en naviguant d’une ïive à l’autre. Tous sont plus ou moins achevés au début de juin. Et c’est précisément l’instinct du naturaliste qui lui fait découvrir avec une habitude exercée les constructions les plus fraîchement commencées, au point que quelques fibres seulement trahissent les débuts même de la corbeille. Ici encore, c’est par le fond que le tisseur commence : les fibres végétales employées sont longues, flexibles à souhait grâce à l’humidité de la vase sur laquelle elles ont été cueillies par le « tire arrache » (nom vulgaire onomatopique du chant coassant de la grande fauvette au plumage couleur de tan). Ainsi humectée, la fibre adhère après entrelacs à un premier roseau; de là au voisin. Et j’ai trouvé, de place en place, des départs qui tenaient
- p.258 - vue 261/558
-
-
-
- 259
- < t
- Fig- 3. — Roitelet huppé.
- déjà suffisamment parce que la vase avait séché et fait office de colle avant que les zones progressivement tissées sur cet appui n’achèvent la nacelle où l’oiseau introduira, surtout chez la rousserolle effarvatte, de la bourre de peuplier, des matériaux mollets obstruant les boursouflures d’une résille en nacelle sur trois ou quatre cannes balancées par le vent.
- A ces deux exemples, j’en ajouterai deux autres aussi aériens : dans un grand épicéa, entre ses ramilles pendant sur le vide, n’ai-je pas assisté aux tout débuts d’un nid de roitelet huppé, le firecresl de nos voisins d’Outre-Manche, Pour un nid de pinson dans une enfourchure, pour un nid de merle sur une assise ferme comme les racines entrecroisées d’un chêne surplombant un ravin, rien de plus simple. Mais pour le plus petit de nos nicheurs, comment bâtir au-dessus du vide et dans les remous d’une frange de sapin un petit nid qui, achevé, vous apparaît comme une boule bien secrète faite de mousse, ouatée de bourre, capitonnée de plumes et de crins, bien accrochée à ses agrès P Seul l’oiseau à l’œuvre me révéla le secret de sa technique. J’eus la chance de le voir, accroché des deux pieds aux brindilles d’épicéa choisies par lui, passer à bout de bec, verticalement, dressé, les fils d'araignée les plus ténus entre deux supports voisins de la retombée et, un tour suivant, renforcer les lignes de cette épure invisible et les entrecroiser, s’assurer enfin d’un soutien sur lequel les matériaux peu à peu visibles d’en bas, de mon observatoire, me rassuraient sur la résistance croissante de son édifice de gnome.
- Enfin, c’est par une observation exceptionnelle que je me promettais de terminer cet aperçu. Transportons-nous en
- Camargue afin de livrer ceci à mes lecteurs in natura. Habitant familier des rives arbustives du Bas-Rhône, la mésange rémiz niche souvent dans les tamaris.
- Le 6 juin 1920, je remarquai les allées et venues d’un couple qui transportait des matériaux d’un nid ancien à un point nouveau, une ramifie de tamaris pendant à deux mètres au-dessus d’une « roubine » d’eau stagnant dans ce sous-bois. Le vieux nid contenait un jeune desséché. Un drame mystérieux avait incité les parents à recommencer leur nichée ailleurs. Ils empruntaient en hâte la bourre de ce premier édifice que, d’en bas, on eût pris pour un essaim posé à quatre mètres au-dessus du vide. Le trajet des oiseaux n’excédait pas cin- ' quante mètres.
- Les manuels proclament unanimement que la rémiz suspend son nid à une branche ; mais comment ? Ils se gardent de le dire sans avoir étudié ce que voici et que j’ai observé avec ma femme.
- Étendus dans l’herbe non loin du nouveau nid, nous constatâmes que les deux oiseaux y collaboraient. Chaque fois que l’un d’eux arrivait, il se signalait par un « psîî » de rappel et, avec un « psî viu, viu viu viu » rassuré ou un « szirr, szirr » d’inquiétude, il se perchait sur le rameau où débutait un étrier de fibres réunies sous une fourche pendante. Cette fois, c’est de haut en bas que s’élabore le travail car, aussitôt posé, l’oiseau commence par serrer autour de la branchette, axe initial de soutien, les brins d’herbe par lesquels, est amorcée l’amarre supérieure; relâchant un peu son étieinte, il pirouette la tête en avant, ses deux pieds l’aidant à tresser plus étroitement son cordage de départ. Ce menu câble s’effilochant vers le bas, ses éléments seront entrecroisés afin d’in-
- //• '
- Fig. 4. — Mésange rémiz.
- (Dessins inédits de Roger Reboussin).
- p.259 - vue 262/558
-
-
-
- 260
- sérer dans leurs interstices le bourrage de la bourse ovoïde allongée avec bec de cornue unique s’ouvrant comme un abat-son au-dessus de l’eau et permettant une esquive rapide et sûre. A chaque voyage la mésange resserrait son épissure comme par un réflexe et, rassurée sur la solidité de son filin qu’elle accroissait souvent d’un nouveau brin, continuait à occlure les deux ouvertures libres de l’étrier, feutrait le fond et montait les parois, pointant du bec et tirant comme un matelassier avec son alêne, flocons de laine et bourre de roseau. Certains nids sont ainsi blancs ou bruns suivant le matériau.
- L’insouciance de mes rémiz s’accrut devant notre immobilité attentive. De mon côté, je m’enhardis à tenter une expérience : grâce à la confiance mutuelle, je décrochai l’ancien nid et le transportai sur la tête d’un grand chardon bien en vue, à proximité du nid nouveau. Nous vîmes chaque oiseau,
- après quelques hésitations ponctuées de menus cris, venir continuer à s’approvisionner sur le vieux nid; le mâle s’acharna même à diviser les matériaux qui le retenaient à son support et à le faire choir à terre où il continua son exploitation.
- Émerveillé par son ardeur au travail, je pris le chardon dans ma main, agraffai le vieux nid en haut de sa tige et m’allongeai de nouveau dans l’herbe, tendant l’ensemble à bout de bras. Et la jolie mésange vint à plusieurs reprises becqueter longuement dans les matériaux que je lui offrais. Nous pouvions ainsi contempler la fraîcheur de son plumage et les attitudes variées d’un couple de rémiz comme ni la cage, ni les vitrines des musées ne le permettront jamais.
- Ainsi commence un nid exceptionnel et finit mon article.
- Roger Reboussin.
- Champignon contre Termite
- On sait quels importants dégâts les termites ont à leur actif dans le Sud-Ouest de la France (voir : Les Termites de France, par F. Chaboussou, La Nature, septembre 1954, p. 347-352). Il semble qu’aux traitements chimiques actuellement employés puisse bientôt s’ajouter un moyen de lutte biologique fourni par un champignon parasite de ces insectes. En 1949 MM. Roger Iieim, directeur du Muséum de Paris, et Harro Buchli avaient découvert ce champignon, que M. Iieim dénomma Antennopsis gallica, vivant en ectoparasite sur le termite Reticulitermes santonensis, qui d’ailleurs ne paraissait pas en souffrir considérablement. En igôg, le champignon a été retrouvé dans une grande colonie du même termite à Ghâ-telaillon-Plage (Charente-Maritime), et M. Buchli se livra alors à des essais de contamination dont il a donné récemment les résultats (C. R. Académie des S-ciences, 250, n° 7). Sur 20 colonies contaminées, i5 sont mortes 11 à i3 mois après leur fon-
- dation. Leurs populations étaient restées très réduites; leurs ouvriers, couverts des conidiophores de VAntennopsis, avaient des difficultés à muer et moururent les uns après les autres ; le couple royal, demeuré seul, meurt obligatoirement à son tour. Deux colonies seulement, elles aussi sérieusement contaminées au début, ont guéri et poursuivi ensuite une évolution normale.
- D’autre part des colonies expérimentales du Termite de Provence (Calotermes jlavicollis), qui attaque surtout les vignes, ont été parasitées et sont toutes mortes dans un délai de trois mois à un an.
- Les essais se poursuivent. M. Buchli pense que si l’on pouvait cultiver VAntennopsis gallica et en récolter des spores en grande quantité, il serait possible d’en injecter dans les.galeries des termites et d’enrayer leur propagation.
- J. G.
- L’énergie des marées en U.R.S.S.
- L’Union Soviétique dispose de réserves importantes d’énergie fournie par les marées, notamment sur les côtes de la Mer Blanche et de la Mer d’Okhotsk. L’utilisation de l’énergie de la Mer d’Okhotsk ne peut pas encore être envisagée à l’heure actuelle. En revanche l’énergie de la Mer Blanche offre, dès aujourd’hui, des possibilités appréciables, en particulier dans le golfe de Menzen, au nord-est d’Arkhangelsk, en face de la presqu’île de Kola. L’exploitation de cette énergie est considérée comme nécessaire, car les ressources principales d’énergie fluviale seront bientôt utilisées à plein en U.R.S.S., du moins en ce qui concerne les fleuves et rivières qui arrosent son territoire européen.
- La revue soviétique Priroda a signalé justement un projet, actuellement à l’étude, qui prévoit l’installation, au bord du golfe de Menzen, d’une très importante centrale électrique alimentée par l’énergie des marées. Cette centrale pourrait fournir 36 milliards de kWh. Sa construction exigerait évidemment des travaux très considérables : il faudrait, par exemple, installer 2 000 turbines et ériger des barrages sur une longueur totale de 100 km. En dehors de la centrale gigantesque de Menzen, d’autres centrales, moins importantes, pourraient être créées sur les côtes de la Mer Blanche, notamment dans les régions de Kouloïsk et de Loumbovsk. La puissance de ces centrales serait comprise entre 300 000 et 500 000 kW, ce qui porterait à 40 milliards de kWh l’énergie électrique obtenue, en U.R.S.S., par l’exploitation de l’énergie des marées. Cette énergie électrique pourrait surtout être employée aux heures de surcharge et soulager ainsi, dans un avenir relativement proche, les centrales thermiques ou atomiques. En outre, elle faciliterait l’aménagement de nouveaux ports sur la côte de la Mer Blanche et intensifierait ainsi très confortablement, l’exportation en provenance des régions septentrionales de l’U.R.S.S., si riches en forêts.
- C. M.
- La production mondiale de beurre
- 0n note depuis quelques années un accroissement sensible de la production de beurre (environ 10 pour 100 de plus en 1958' qu’au cours des années 1950-1955). Cet accroissement, de même d’ailleurs que celui observé dans la production de fromage, est en relation avec l’augmentation de la production laitière.
- L’Europe occidentale, c’est-à-dire ici les États d’Europe non communistes, se place très nettement en tête des régions productrices, avec le tiers du total. L’Allemagne de l’Ouest (385 000 t en 1958) et la France (337 000 t) arrivent au premier rang ; ces deux producteurs sont en progrès sérieux, dépassant de 20 pour 100 leurs chiffres de 1950-1955. Certains États, en revanche, sont en recul : tel le Danemark, dont la production est revenue de 167 000 à 156 000 t. De même les États-Unis (679 000 t en 1958, contre 687 000 en 1950-1935).
- Mais, d’une façon générale, on peut dire que la moitié du beurre mondial provient d’Europe occidentale et d’Amérique du Nord (Mexique exclu). Les autres parties' du monde ne jouent qu’un rôle secondaire, voire négligeable pour certaines. : l’Afrique ne produit pas 120 000 t ! La seule région importante est constituée par l’Australasie (Australie et Nouvelle-Zélande), qui totalise 408 000 t. Le monde entier produit 4,6 millions de tonnes (1958).
- Les gros' exportateurs de beurre sont : la Nouvelle-Zélande, le Danemark, les Pays-Bas. Le principal acheteur est toujours la Grande-Bretagne, en constant accroissement d’ailleurs : n’a-t-elle pas acheté au dehors 420 000 t de beurre en 1958 ? La plupart de ses importations sont effectuées au profit de la Nouvelle-Zélande et du Danemark, mais on la voit également acheter des. beurres néerlandais, suédois, irlandais, polonais même.
- La consommation de beurre a sérieusement augmenté en Angleterre ces dernières années., atteignant à présent 9 kg par an et par tête. La margarine a souffert de cette concurrence, et sa consommation est descendue de 9 à 6 kg. D. C.
- p.260 - vue 263/558
-
-
-
- 261
- Le Mirage III, dernier intercepteur français
- Nous avons déjà eu l’occasion ici à plusieurs reprises de dire quelques mois de l’intercepteur Mirage III de la ‘Générale Aéronautique Marcel Dassault dont la production est •en cours pour l’Armée de l’Air française. Ses performances, qui le classent au tout premier rang des appareils mondiaux, méritent que nous en donnions une description complète.
- Le Mirage III est un avion essentiellement polyvalent, conçu pour une gamme très étendue de missions : interceptions à haute altitude, appui tactique, reconnaissance photographique. Cette polyvalence est obtenue grâce à l’emploi d’ensembles d’équipements rapidement interchangeables qui correspondent à chacune des missions-types. C’est ainsi par exemple que, pour la reconnaissance, on adjoint des réservoirs largables supplémentaires, et pour les vols à haute altitude un moteur-fusée S.E.P.R. de 760 ou 1 5oo kg de poussée.
- La voilure est en forme delta, de flèche au bord d’attaque 45°, et de 5 pour 100 d’épaisseur relative. Le bord de fuite de chaque •demi-aile est entièrement occupé par des élevons qui jouent le rôle à la fois de gouverne de profondeur et de gouverne de .gauchissement. Le fuselage obéit à la règle de surface, c’est-à-dire qu’il est creusé en son milieu, suivant ce que l’on a appelé « la taille de guêpe » ; les performances dans la zone transsonique se trouvent ainsi considérablement améliorées. Le train d’atterrissage est rétractable dans le fuselage et la voilure, et chacune des trois roues est équipée de pneus basse pression qui autorisent l’ulilisalion de terrains rudimentaires et même de pistes en herbe.
- Les appareils de série sont équipés de réacteurs S.N.E.C.M.A. « Atar 9 » de 6 000 kg de poussée avec post-combustion. Comme ses prédécesseurs dans la famille des Atar, ce réacteur se caractérise par une simplicité de conception qui facilite sa construction, assure une grande robustesse et simplifie les problèmes de maintenance. Il comporte successivement : un compresseur axial à 9 étages, une chambre de combustion annulaire à 20 brûleurs, une turbine axiale à 2 étages, un canal de post-combustion avec tuyère à section variable; enfin, les entrées d’air sont équipées d’une « souris » mobile qui permet de régler automatiquement leur section et d’assurer une ali-
- mentation en air parfaite du moteur dans toutes les conditions de vol.
- L’équipement électronique a fait l’objet d’une étude poussée; l’appareil peut recevoir différents types de radars permettant la poursuite automatique des bombardiers ennemis ou le guidage d’engins télécommandés. L’infrastructure au sol peut être ainsi libérée d’une grande partie des tâches qui lui incombaient auparavant.
- Pour la vitesse pure, le Mirage III se classe parmi les tout premiers avions de série. Équipé d’un engin sous le fuselage et avec la seule poussée de son turboréacteur, il a réussi à dépasser un nombre de mach de 2. Récemment, au cours d’un vol d’essai normal avec fusée allumée, un Mirage III de présérie a atteint une altitude de 25 000 m; au cours de cette montée, il a volé à Mach 1,6, soit 1 700 km/h environ. Des altitudes encore plus élevées pourront être atteintes au cours des essais qui continuent.
- Enfin, il faut insister sur les très faibles longueurs de roulement nécessaires à l’atterrissage et au décollage; celles-ci varient entre Goo et 1 000 m, la distance de 600 m à l’atterrissage correspondant à l’emploi d’un parachute de queue (fig. 1).
- En ajoutant à ces besoins limités en infrastructure le fait que les techniques de fabrication font appel à peu de machines spéciales, on voit que le Mirage III répond à un souci d’économie qui est bien dans la ligne des problèmes européens, sans que ses performances en soient aucunement affectées.
- D’ores et déjà d’ailleurs, une extrapolation de cet appareil a été réalisée; il s’agit du Mirage IV, bombardier supersonique capable de voler à Mach 2 et de transporter une bombe atomique, et dont la construction en série de cinquante exemplaires vient d’être décidée. Peu de détails ont encore été révélés sur ce dernier; on sait seulement qu’il sera un peu plus grand que le Mirage III (12 m d’envergure, 20 m de longueur contre respectivement 8 m et i4 ni), que sa voilure est également en delta et que son poids total doit atteindre environ 25 t. Il est propulsé par deux réacteurs S.N.E.C.M.A. « Atar 9 » identiques à celui du Mirage III, mais qui pourront être poussés ultérieurement. J. S.
- Fig. 1- — Le Mirage III à l’atterrissage.
- On voit le parachute de queue qui permet à l’appareil d’atterrir sur 600 m (Photo Générale Aéronautique Marcel Dassault).
- p.261 - vue 264/558
-
-
-
- Progrès récents en matière de navigation et guidage des avions et engins
- L’ère des intercepteurs à hautes performances et des bombardiers hypersoniques en projet aux États-Unis comme certainement en U.R.S.S. va donner une place importante à un problème qui jusque-là ne se posait guère pratiquement que pour les engins : le guidage. Il n’est pas d’ailleurs jusqu’à l’introduction dans l’aviation commerciale des appareils à réaction qui ne doive apporter aussi dans cette catégorie des exigences relatives au guidage inconnues jusqu’alors.
- C’est bien entendu grâce aux recherches effectuées dans le domaine des engins guidés que des progrès se sont fait jour. Il est juste de reconnaître aussi que le développement rapide des programmes d’astronautique a contribué pour une large part à l’obtention de résultats intéressants. Dans la réussite du lancement d’un satellite, et plus encore d’un astronef destiné à prendre contact avec une autre planète, la précision du guidage le long de la première partie de la trajectoire est l’un des facteurs prédominants, et bien des échecs enregistrés jusqu’à présent doivent être imputés à une défaillance du système de navigation.
- Dans le cours de cet article, nous examinerons deux procédés nouveaux qui semblent promis au plus brillant avenir : les systèmes de navigation Doppler et le guidage par rayons infrarouges.
- Principes et performances des systèmes de navigation
- Doppler. — L’effet Doppler repose sur la variation de la fréquence des ondes reçues d’un mobile en mouvement. Il est observé, par exemple, lorsque l’on se trouve sur le quai d’une gare et qu’un train passe devant soi; le son produit par le sifflet de la locomotive est plus aigu avant le passage du train qu’après. Ce principe sert également en astronomie à déterminer la vitesse de déplacement des étoiles en mesurant la variation de la fréquence de la lumière que l’on reçoit d’elles, matérialisée par le déplacement des raies spectrales.
- Revenons aux applications purement aéronautiques pour dire qu’un navigateur Doppler se compose essentiellement d’un radar de bord qui émet des ondes électromagnétiques vers le sol où elles se réfléchissent pour être de nouveau reçues à bord de l’avion. La fréquence de l’onde reçue est différente de celle de l’onde émise, et la différence entre les deux fréquences est proportionnelle à la vitesse de l’avion par rapport au sol, et inversement proportionnelle à la vitesse de la lumière : d/ 2 F
- y = — cos a (fîg. i).
- Fig. 1. — Schéma de la navigation Doppler.
- Si donc l’on mesure l’écart de fréquence d/, la fréquence d’émission / et l’angle a que fait le vecteur vitesse de l’avion avec la direction des ondes, on peut en déduire la valeur de la vitesse V de l’avion.
- En fait, même en supposant l’avion en vol horizontal, ce qui est le cas le plus simple, la vitesse par rapport au sol possède deux composantes, l’une dirigée suivant le cap de l’avion et l’autre suivant la perpendiculaire au cap. On émet alors suivant deux directions symétriques par rapport à l’axe de l’avion, et on obtient la composante de la vitesse suivant le cap en ajoutant les écarts de fréquence correspondant à chacun des faisceaux, et la composante perpendiculaire au cap en les soustrayant (fig. 2). On en déduit alors aisément la valeur absolue du vecteur vitesse et l’angle de dérive, c’est-à-dire l’an-
- Fig. 2. — Configuration Doppler à deux faisceaux.
- gle entre la vitesse et l’axe géométrique de l’avion. D’autres causes perturbatrices peuvent introduire des erreurs dans les mesures, telles les oscillations en tangage de l’avion autour de son axe transversal. Pour les éliminer, on a recours à un système plus compliqué, qui comporte quatre et non plus deux faisceaux d’ondes radar, et qui a été baptisé système Janus, par analogie avec le dieu romain que l’on représentait habituellement avec deux visages dirigés en sens contraire.
- Enfin, le faisceau d’ondes émis présente une certaine largeur, et les ondes réfléchies ne correspondent pas à une fréquence unique du fait de la variation de a, mais à un spectre de fréquence représenté par une courbe du type courbe de Gauss
- Amplitude
- en décibels
- Fig. 3. — Spectres de fréquences des ondes réfléchies.
- (fig. 3). Le calculateur Doppler utilise la fréquence pour laquelle l’amplitude est maximale, fm. On a coutume de définir la finesse de la réception par la largeur de bande A/, telle que l’écart d’amplitude par rapport à l’amplitude maximale soit égal à 3 décibels (*). Cette largeur de bande est donnée par 2V
- l’expression : A/ = - sin da, où da est la largeur du fais-
- À
- ceau d’ondes. Les antennes courantes émettent des faisceaux d’angle variant entre 2 et 7 degrés; elles présentent une forme de parabole et sont entourées de réflecteurs métalliques.
- Un dernier facteur à prendre en considération pour l’étude de la précision d’un système à effet Doppler est la nature de la surface survolée. La précision est inférieure lorsque la zone
- 1. Rappelons que l’on mesure en décibels le logarithme d’un rapport d'amplitude quelle que soit la nature de l’onde envisagée (acoustique, électromagnétique, etc.).
- p.262 - vue 265/558
-
-
-
- - 263
- survolée est la mer, par suite des mouvements de la surface de l’eau et des courants. Aussi munit-on souvent le calculateur d’un commutateur qui change l’étalonnage de l’appareil selon la nature de la surface.
- L’émission radioélectrique peut s’effectuer suivant trois modes différents :
- — émission d’impulsions de faible durée;
- — émission d’une onde entretenue;
- — émission d’impulsions de longue durée.
- C’est cette dernière qui est la plus en faveur sur les réalisations les plus récentes.
- La fréquence adoptée avoisine la bande des i3 5oo MHz et les puissances émises sont de l’ordre de xo W, ce qui est très faible.
- L’erreur sur la détermination de la position est dans les plus mauvais cas de o,5 pour ioo pour un vol au-dessus du sol ; pour un vol au-dessus de la mer, elle est un peu plus mauvaise et peut atteindre quelques pour-cent.
- Le guidage par infrarouges. — Un tel dispositif est adopté sur les plus récents engins anti-aériens. Le repérage utilise le rayonnement thermique émis par l’objectif, c’est-à-dire, dans le cas des chasseurs à réaction, par les gaz chauds qui sortent de la tuyère. La loi de guidage utilisée pour les engins sol-air consiste à faire tourner l’axe de l’engin avec une vitesse proportionnelle à la vitesse de rotation de la droite qui relie l’engin à l’objectif. Ceci nécessite que la tête chercheuse ait un champ assez important, de l’ordre de 4o à 5o degrés, et qu’elle soit sensible à un spectre de radiations assez étendu, car le rayonnement thermique de l’avion varie notablement suivant les directions. Ce rayonnement, devant traverser une certaine bande d’atmosphère, sera évidemment affaibli en arrivant au détecteur qui doit donc être d’une assez grande sensibilité.
- Une tête chercheuse à infrarouges se compose principalement de trois éléments : un système optique pour concentrer le rayonnement, le détecteur sensible et le cerveau électronique.
- Nous n’insisterons pas sur le système optique qui est une association de miroirs sphériques ou à facettes, ni sur le cerveau électronique dont le rôle est d’envoyer des ordres aux commandes de l’engin, ce qui est analogue à celui de n’importe quel autre dispositif de guidage.
- Le détecteur peut prendre de nombreuses formes. Les plus couramment utilisés sont des cellules photorésistantes aux sulfure, tellurure ou séléniure de plomb. La résistance électrique de ces corps diminue lorsqu’ils sont frappés par un rayonnement infrarouge et il suffit de mesurer la variation de résistance d’une mince couche de l’un d’eux pour en déduire l’intensité du rayonnement. Citons encore les cellules à transistors, les récepteurs à gaz dans lesquels le gaz contenu dans une enceinte s’échauffe sous l’effet du rayonnement incident et subit une augmentation de pression, et enfin les cellules à couche d’arrêt dans lesquelles la surface de contact entre deux matériaux est exposée au rayonnement, ce qui donne naissance à une différence de potentiel entre les deux corps.
- La sensibilité du détecteur peut être définie comme la plus faible énergie qu’il doit recevoir pour fournir un signal utilisable aux gouvernes. Elle dépend évidemment du bruit de fond du détecteur et de celui qui est dû aux rayonnements parasites. Le premier est produit par les mouvements des électrons des matériaux qui forment le détecteur; comme il est dû à l’agitation thermique, il peut être réduit par refroidissement de la surface. Le bruit de fond dû aux rayonnements parasites est très variable; il provient du Soleil et du fond du ciel et peut être réduit en interposant devant le détecteur des filtres appropriés.
- Parmi les engins déjà équipés d’une tête chercheuse à infrarouges, citons l’engin air-air américain Hugues « Falcon » qui équipe les plus récents intercepteurs de l’U. S. Air Force, et le De Havilland « Fire Streak » monté sur l’intercepteur anglais English Electric P. i. En U.R.S.S., un engin sol-air de ce type serait également en construction.
- Jacques Spincourt.
- JOURNAL DE BORD AUTOMATIQUE
- Ce petit appareil, mis au point par les Laboratoires de recherche aéronautique du gouvernement australien, a pour but de déterminer les causes des accidents dont peuvent être victimes les avions. On le destine plus particulièrement aux unités importantes et surtout aux nouveaux modèles, pendant leur période d’essais et dans leurs premières années de fonctionnement. Il consiste essentiellement en un enregistreur magnétique où les différentes informations sont recueillies sur un fil métallique d’une extrême finesse. Ces informations comprennent toutes les conversations échangées entre le pilote et l’équipage ainsi que les indications fournies par les instruments du tableau de bord. L’appareil entre en action dès que l’avion prend son vol. Une commande automatique déclenche l’effaçage et la régénération du fil pour toutes les informations vieilles de plus de six heures. Ce « journal de bord automatique » est placé dans la queue de l’avion, où l’on espère pouvoir le retrouver plus facilement en cas d’accident. Il est protégé par un container en matériau ignifuge.
- p.263 - vue 266/558
-
-
-
- LE TRANSPORT DU LAIT EN MONTAGNE
- PAR « PIPELAIT »
- Un problème très important pour l’économie montagnarde est la bonne exploitation des hauts pâturages. Celle-ci n’est possible que si le lait produit sur l’alpage est traité dans des conditions techniques, hygiéniques et économiques satisfaisantes, de façon à « valoriser » le lait d’une manière correcte. Il faut reconnaître que cette valorisation sur place est difficile; les locaux sont sommaires à l’alpage, le matériel insuffisant, les manipulations ne sont guère hygiéniques, les moyens de conservation manquent. De plus les fabrications sont parfois coûteuses, le fromager saisonnier exige un salaire relativement élevé pour des fabrications qui peuvent porter sur des quantités de lait insuffisantes. Le travail du lait dans la laiterie, ou « fruitière », de la vallée, qui centralise le lait d’une commune, est toujours plus aisé; les sous-produits peuvent être utilisés pour la porcherie et la vente du lait en nature est possible et rémunératrice. '
- La descente du lait dans la vallée doit être considérée comme une règle qui ne doit souffrir que de rares exceptions. Jusqu’à ces dernières années, c’est la solution du câble transporteur qui prévalait, dans les régions accidentées où les voies de communications sont insuffisantes. Mais l’installation de transporteurs est coûteuse, l’amortissement est lent étant donné que leur service ne dure que quelques mois par an, leur entretien est onéreux. De ce fait leur extension est limitée.
- Une solution nouvelle, considérablement moins coûteuse que la précédente, a vu le jour il y a quelques années en Autriche, dans le Vorarlberg, c’est le transport par des conduits en matière plastique. En France ce système se répand, depuis la création du premier « Pipelait » à Onnion, en Haute-Savoie, en juin
- Fig. 1. — Le départ du « pipelait ».
- A gauche, le « pèse-lait ». A droite, le bac de départ en polyéthylène ; sous la partie conique est soudé le tube du pipelait qui conduit le liquide dans la vallée (Photo R. Mourgues).
- 1957. Notre pays a même innové en utilisant le chlorure de polyvinyle (Lucoflex) et en installant le plus long transport connu en Europe, celui de Sixt, qui mesure 4 5oo m. La Suisse, l’Allemagne et l’Italie ont également adopté ce système de transport. Ses avantages sont tels qu’il a été utilisé, en France, pour des transports permanents : ainsi le pipelait de Taninges, qui remplace un télé-benne hors d’usage, conduit tout au long de l’année environ 5oo 1 de lait par jour.
- Il aurait peut-être été plus juste de dire « lactoduc », mais le terme « pipelait », né dans le milieu paysan savoyard, a fait fortune. Je l’ai utilisé timidement dans un rapport, à une réunion de spécialistes à Kiel (Allemagne); il a plu d’emblée aux étrangers !
- Le tableau I donne les caractéristiques des pipelaits en Haute-Savoie. Les premiers ont été faits en tuyau de polyéthylène, les derniers en tuyau de chlorure de polyvinyle non plastifié, qui est moins coûteux et convient aussi bien. Huit sont installés, deux autres en projet.
- Tableau I. — Pipelaits en Haute-Savoie
- Fruitière Alpage Dénivel lation lm) Longueur -du tuyau (m) Diamètre du tuyau (mm) Matière plastique
- Onnion L’Arpaz 464 1 536 12-16 Polyéthylène
- Mégevetle. N ancy-sur- La Gombaz 4o6 2 25o 12-16 )>
- Cluses . » Rom me Les Chavan- 355 1 65o l3-20 »
- nés 267 1 35o — »
- Taninges . i5o 700 i3-i6 Polyvinyle (Lucoflex)
- Habère-Lullin. Villard-sur- La Glappaz 38o 2 5oo i3-i6 »
- Boège . Sixt La Glappaz Alpe « Com- 427 4 000 20-25 ))
- Vallorcine et Chamonix. munc » (en projet) 1 i5o 4 5oo i3-i6 »
- Les tuyaux ont une faible section (diamètre intérieur de 12 à 20 mm), de façon à limiter la turbulence du liquide; la vitesse d’écoulement est de 1,0 à i,5 m/s, le débit de 9 à i5 litres par minute. Ils partent du local de pesage du lait; à côté de la balance à lait se trouve le bac de départ, en matière plastique, d’une contenance Arariable, 100 à 200 litres. On s’efforce de faire un trajet souterrain, ce qui a le grand avantage de refroidir le lait jusqu’à i5° C et au-dessous et de limiter les proliférations microbiennes. Il n’y a pas de' robinet et pas d’aspérités, l’écoulement est continu; entre les descentes de lait, deux par jour, on fait couler l’eau en permanence. Un téléphone, par ligne contiguë au tuyau, assure la synchronisation des opérations.
- Les propriétés des plastiques utilisés sont connues. La masse est colorée au noir de carbone (2 pour 100 pour éviter l’action photochimique de la lumière dans les parcours aériens). Ces matériaux sont légers, inertes (insolubles dans le lait) et robustes; certains tuyaux ont même résisté à des glissements de terrain ! La mise en place en tranchées étroites, de 4o cm de profondeur, est facile, sauf dans les cas où il faut miner des roches (il est préférable de les contourner). Les prix de revient globaux sont variables. M. Bouverot, ingénieur des Eaux et Forêts et chef du Service de Restauration des Terres en Montagne, qui subventionne les installations, l’estime à 700 francs
- p.264 - vue 267/558
-
-
-
- Fig. 2. — L’arrivée du « pipelait » dans la cuve de la « fruitière »
- ( fromagerie).
- A Tanière-plan, une écrémeuse.
- anciens (1958) le mètre courant en moyenne, prix qui peut être réduit par le travail des intéressés.
- Un problème s’est révélé capital, après les premiers temps d’utilisation, c’est celui du nettoyage et de la désinfection des installations. Le service spécialisé de l’Institut national de la Recherche agronomique (Station centrale de recherches laitières de Jouy-en-Josas ; directeur : M. G. Mocquot) a assuré le contrôle hygiénique des installations. Des accidents sérieux se sont pro-
- duits au début qui ont tous pour cause la prolifération des micro-organismes dans les tuyaux mal lavés. L’accident dramatique est l’obturation du tuyau par du lait coagulé ou par des colonies microbiennes. D’autre part, les fabrications fromagères peuvent être compromises par la pollution du lait pendant son parcours dans le pipelait. Si celui-ci est mal entretenu, des bactéries coliformes peuvent s’y développer en abondance, et si l’eau de lavage est impure elle peut apporter une contamination importante dans des germes caractéristiques des eaux polluées : Pseu-domonas, Proieus, etc.
- L’usage du pipelait exige donc des précautions minutieuses :
- i° Utilisation d’une eau de rinçage pure, si besoin est, javellisée; elle circulera dans le tuyau pendant les intervalles d’utilisation.
- 20 Nettoyage soigneux en trois temps :
- — Ap rès descente du lait, envoi d’eau tiède;
- —• Ensuite passage d’une solution chaude de produits détergents et antiseptiques (par exemple P3 — Z, etc.) ;
- — De temps en temps, passage d’une solution acide pour dissoudre la « pierre de lait » (dépôts de phosphates calciques enrobés de graisse et de protéines).
- Si ces précautions sont prises, les contrôles effectués sur le lait au départ et à l’arrivée montrent que l’usage du pipelait ne modifie pas la qualité du lait.
- Charles Alais,
- Station centrale de Recherches laitières et de Technologie des produits animaux.
- Tempêtes de poussière saline
- Les tempêtes de poussière sont un phénomène assez fréquent dans le sud-est de l’Union Soviétique et en Asie Centrale. Elles se produisent surtout entre les mois de mars et novembre. Il a été constaté, cependant, qu’il s’agit parfois de tempêtes de poussière saline. Tel fut notamment le cas en avril xqôô, après une longue péi’iode de sécheresse, dans la région de la ville d’Elist (République des Kalmouks) où, après la tempête, le sol était recouvert d’un dépôt salin. La tempête dura environ 35 heures. Un dépôt gris cendre, épais de 0,09 mm environ, se forma sur la surface exposée au vent de tous les objets et de toutes les plantes. L’analyse du dépôt prélevé sur les troncs et les branches des arbres révéla que ce dépôt se composait pour 47,4 pour 100 de sels solubles dans l’eau, e't pour 52,6 pour xoo de substances solides non solubles. Les sels dont on a constaté la présence se x'épai’tissaient comme suit : sulfates, 90,6 pour 100 ; chlorures, 7,4 pour 100; bicarbonates, 2 pour 100. D’après les calculs approximatifs des auteui’s d’un article pai’u dans la revue soviétique Priroda, le dépôt de sulfate de sodium qui s’était formé sur le sol pendant la durée de la tempête peut être évalué à environ 25 kg par hectare. Cette tempête semble avoir été déterminée par des tempêtes de poussière et des vents
- très violents du sud-est qu’on avait observés, depuis le
- 10 avril 1959, dans la région des mers Caspienne et Ai'al.
- C. M.
- «
- Ce phénomène est peut-être en x’elation avec l’existence du Kara Rogaz, golfe situé au nord-est de la Mer Caspienne et qui couvi'e une surface d’envii'on 16 000 km2. Les particulai’ités de ce golfe sont d’abord une très faible profondeur, n’atteignant que l'arement 10 m, et une intense évaporation, favoi'isée à la fois par l’insolation et par les vents. Les pertes d’eaxi du Kara Rogaz sont compensées par les apports de la Caspienne, à tra-vei’S un étroit chenal de 600 à 800 m de lai’ge. Le cycle qui s’établit ainsi a eu pour conséquence de transformer ce golfe en un marais salant naturel, dont l’action, à la longue, pourrait faire de la Caspienne un lac d’eau douce.
- Par ailleui’s, certains gisements de sel fossile peuvent être expliqués par un phénomène analogue à celui du Kara Rogaz.
- 11 est également légitime de concevoir que les vents violents de
- la steppe puissent ti'ansporter à de longues distances les poussâmes de sels dont la description est fournie par la revue Priroda. G. C.
- Le renne en U.R.S.S.
- Dans les régions septentrionales, tant d’Europe que d’Amérique et d’Asie, où règne un climat extrêmement rigoureux, le renne est l’animal domestique le plus utile. En U.R.S.S., selon Priroda, on compte deux millions de rennes environ, et ce nombre sera vraisemblablement doublé d’ici une dizaine d’années. On distingue des rennes de toundra et des rennes de forêt. Les conditions de nourriture étant meilleures en forêt et le travail y étant moins pénible, le poids du renne y est, en moyenne, de o à 6 kg plus grand que dans la toundra. Dans les toundras, un ti'oupeau se
- compose habituellexxient de 2 000 à 2 500 têtes, et les distances à franchir dépassent parfois 1 000 km, tandis que dans les forêts l’importance d’un troupeau n’excède pas CO rennes et les trajets à couvrir sont relativement courts. Ce sont les lichens qui en hiver constituent la nourriture essentielle du x'enne. Le lichen est riche en amidon, mais pauvre en albumine, en matières azotées et en sels minéraux. Aussi s’efforce-t-on, en U.R.S.S., de permettre aux rennes d’atteindre d’auti'es plantes, généralement recouvertes de neige. C. M.
- p.265 - vue 268/558
-
-
-
- 266
- Vitesses de consolidation et de granitisation des continents
- Les progrès de la géologie descriptive, depuis deux siècles, nous ont conduits à nous représenter les continents comme formés soit de terrains plissés, chaînes de montagnes récentes ou anciennes, soit de couvertures horizontales reposant elles-mêmes sur des restes d’anciennes chaînes, plus ou moins arasées par la suite. La plupart de ces chaînes, et en tout cas les plus anciennes, sont lardées de granités, contemporains de leur surrection ou postérieurs, et qui ont contribué à les consolider. Et les grands boucliers granito-gneissiques, qui forment comme le cœur et le socle de tous les continents, se montrent de plus en plus comme étant non pas les restes d’une imaginaire croûte primitive, mais les racines indurées des chaînes anciennes, venues au jour grâce à l’érosion des parties hautes.
- Depuis une vingtaine d’années, grâce aux isotopes radioactifs, nous savons en outre dater ces surrections et granitisations successives. Connaissant les aires qu’elles affectent, et les dates, nous pouvons évaluer alors la progression, au cours des temps, de leur extension et la représenter par une courbe. Nous obtenons ainsi, par interpolation, leur vitesse; et, en extrapolant vers les origines, nous pouvons nous faire une idée provisoire de la date approximative du début de ces phénomènes.
- A notre connaissance, les efforts dans ce sens sont dus à Birch (1951), Cailleux (1954, 1959), Knopf (ig55). Nous voudrions faire le point de la question, en rassemblant les résultats des travaux précédents, et en y ajoutant les données toutes nouvelles qu’on peut tirer de la belle esquisse structurale de l’Afrique par Raymond Furon (1958).
- Toutes les données numériques de Birch et de Knopf seront exprimées ici, comme les nôtres, en kilomètres carrés.
- Consolidation progressive des continents. — En chaque région des continents, nous pouvons déceler une ou plusieurs phases de plissement. Considérons la plus récente; évaluons l’aire qu’elle affecte. Cette enquête, menée à l’aide des travaux de Belooussov, Birot, Fourmarier, Furon, Hussey, Umbgrove, pour les différentes régions du Globe, a conduit à une carte et à une liste détaillée, publiées par ailleurs (Cailleux et Tricart, 1955). Par convention, les plissements y sont classés sous les noms suivants, d’après leur âge en millions d’ans :
- o — Cénozoïque — 65 — Mésozoïque — 190 — Hercynien — 280 — Calédonien — 5oo — Précambrien.
- Maintenant, pour chacune de ces cinq grandes périodes, nous mesurons sur un planisphère la surface totale des territoires qui ont subi alors leur dernier plissement; nous l’exprimons en millions de kilomètres carrés. Ceci nous donne les valeurs indiquées dans le tableau I, première colonne de chiffres. On voit que c’est dans les temps les plus anciens, au Précambrien, que s’est faite la consolidation principale, 84 millions de kilomètres carrés environ. De là aux temps calédoniens, on n’en compte que 8 à ajouter aux précédents; de là aux temps hercyniens, 12 à ajouter; et ainsi de suite : 10 et 21 jusqu’aux temps les plus récents.
- La colonne suivante donne le résultat de ces additions, ou cumulations successives. Elle peut se lire ainsi : 84 millions de kilomètres carrés étaient consolidés, n’ont plus bougé depuis le Précambrien; 92 en tout n’ont plus bougé depuis le Calédonien, io4 depuis le Hercynien, ii4 depuis le Mésozoïque, tout proche de nous. Et aujourd’hui nous en sommes, comme chacun sait, pour l’ensemble des continents émergés, à i35 millions de kilomètres carrés, sans compter l’Antarctique caché aux neuf dixièmes par les glaces, et sur lequel nous n’avons évidemment pas assez de données pour le faire entrer dans nos statistiques.
- Dans le même tableau I, dans la colonne 3, les surfaces consolidées, cumulées, sont ramenées par convention à xoo pour
- l’actuel; on passe de la colonne 2 à la colonne 3, bien entendu, par une règle de trois.
- Quant à la dernière colonne, à droite, elle donne la vitesse de consolidation, en kilomètres carrés par an, pendant la période considérée. On l’obtient en divisant la surface consolidée pendant la période (colonne 1), par la durée de la période, que nous avons rappelée plus haut.
- Tableau I. — Plissements du Globe.
- Epoque des derniers plissements Sui en ic Part. (G face >6 km2 Cum. |3l Surface p. 100 cum. (3) Vitesse km2/ an 14)
- Cénozoïque .... < 21 < i35 IOO 0,34
- Mésozoïque .... 10 n4 84 0,08
- Hercynien 13 104 77 0, i3
- Calédonien .... 8 9 2 68 o,o4
- Précambrien .... 84 84 Ü2
- Si maintenant, nous reportons les points sur une courbe (fîg. 1), nous constatons une accélération récente, surtout pour les mouvements cénozoïques; mais elle est probablement une simple apparence, car rien ne nous garantit que les terres qui ont bougé au Cénozoïque soient définitivement consolidées. Pour les époques plus anciennes, la vitesse est plus constante. Du Cambrien au Mésozoïque inclus, elle est en moyenne de 0,07 km2, soit 7 ha, par an.
- Si l’on se risque à extrapoler la courbe vers le passé, on trouve une date-origine de la consolidation entre 2 4oo et 4 200 millions d’années, valeurs qui encadrent bien celles obtenues par de tout autres méthodes (Cailleux, 1954, 1969).
- Granitisation progressive de l'Amérique du Nord. —
- Birch (1951) a évalué les surfaces occupées par les granités précambriens dans la Cordillère Pacifique et la Chaîne Appa-lachienne. Knopf (1955), dans un travail remarquablement composé et pensé, a évalué les surfaces de batholites granitiques de toute l’Amérique du Nord; il entend par batholite une masse intrusive grande (affleurant sur 25o km2 au moins), soit concordante, soit recoupant les terrains encaissants, et dépourvue de substratum de roches plus anciennes. Knopf classe les batholites par âge, et il mesure les aires au planimètre. J’ai repris ses résultats dans le tableau II, en comptant le Post-Glenarm pour moitié dans le Paléozoïque, et pour moitié dans le Précambrien; et pour celui-ci j’ai exclu la majoration proposée par Knopf pour le Précambrien présumé en profondeur, et qui n’affleure pas.
- Tableau IL — Batholites gbanitiques d’Amérique du Nord
- Surface
- en 10 3 km2 Surface
- Partielle Cumulée p. 100 cumulée
- Cénozoïque i35 5 44o IOO
- Mésozoïque 5g5 5 3o5 97
- Paléozoïque .... 210 4 7ïo 87
- Précambrien .... 4 5oo 4 5oo 83
- p.266 - vue 269/558
-
-
-
- 267
- Les données de Knopf sont en excellent accord avec celles de Birch, obtenues pourtant sur un échantillon 5o fois plus petit (tableau III).
- Tableau III. — Granités d’Amérique du Nord
- Cénozoïque à Cambrien ; Surface relative cumulée p. 100 ..... Cordillère Pacifique (Birch) Chaîne des Appalaches l Birch) Toute l’Amérique du Nord (Knopf)
- IOO 100 100
- Précambrien ; Surface relative cumulée p. 100 . -Cf 00 86 83
- Date. Origine extrapolée, en millions d’années. 3 100 3 45o 3 ooo à 5 ooo
- Les points représentatifs étant reportés sur la figure x, nous pouvons tenter une extrapolation. La date-origine se situe entre 3 ooo et 5 ooo millions d’années, coïncidant bien avec celles obtenues par d’autres méthodes. Birch et Knopf en concluent à juste raison qu’en Amérique du Nord la granitisation
- Millions d'années
- Fig. 1. — Progression de la consolidation et de la granitisation.
- En ordonnées, pourcentage de la surface actuelle qui était déjà consolidé ou granitisé à l’époque considérée. Carrés noirs : consolidation de l’Afri-que ; cercles blancs : consolidation du Globe ; points en croix : granitisation de l’Afrique (courbe provisoire) ; croix : granitisation de l’Amérique
- du Nord.
- (Les trois premières courbes d’après Cailleux, la quatrième d’après Knopf).
- a progressé à vitesse sensiblement constante, contrairement à ce qu’avaient supposé certains auteurs. Quant aux fluctuations de la vitesse, entre le Cambrien et nos jours, qu’on pouvait tirer des données du tableau II, on doit se demander s’il s’agit d’aléas propres à l’Amérique ou s’ils ont une valeur mondiale. Seule une enquête sur d’autres continents pourra le montrer.
- Consolidation et granitisation progressive de l’Afrique.
- — La très belle carte structurale de l’Afrique due à Raymond Furon (ig58) ne représente, l’auteur s’empresse de nous le dire, qu’une esquisse provisoire et sujette à révision. Aussi les résultats que nous en tirerons sont-ils passibles de la même expresse réserve. Cette carte n’en offre pas moins deux grands avantages : c’est l’une des rares cartes structurales d’un continent entier; c’est la seule à offrir une subdivision du Précambrien, d’après les dates isotopiquea.
- Sur cette carte, nous avons opéré la mesure des surfaces par découpage et pesée. Ont été comptés séparément les quatre Précambriens et chacun de leurs granités; le Paléozoïque plissé (Hercynien et Calédonien) et ses granités ; et le cycle alpin (Mésozoïque et Cénozoïque plissés au Cénozoïque). Le socle d’âge indéterminé de Furon a été compté avec le Précambrien I; s’il se révélait être d’un autre âge, ceci ne changerait presque rien, car il occupe une surface infime. Ont été exclues les couvertures non plissées quaternaire, tertiaire, crétacée, jurassique, triasique et Karroo, ainsi que les laves et les roches basiques et ultra-basiques.
- Les pesées ont été faites au trébuchet, au centigramme près, par double pesée. La masse de l’Afrique avant découpage était de 35 670 mg (Madagascar et autres îles inclus). Après découpage, pesées séparées et sommation, on a trouvé 35 220 mg. Erreur : 45o mg, soit i,3 pour 100. Par comparaison avec l’incertitude bien plus forte sur les âges et sur les aires, due au caractère incomplet des levés, le procédé par découpage et pesée est donc très satisfaisant.
- Pour évaluer les pourcentages relatifs, nous les comparons à leur somme, c’est-à-dire que nous prenons pour 100 la somme des aires des terrains plissés ou granitisés énumérés plus haut.
- Les résultats sont représentés dans les tableaux IV et V et par la figure 1. Sur celle-ci on voit que la consolidation a été fort régulière. Peut-être a-t-elle été plus rapide au début, plus lente à la fin. Comme l’ensemble des continents nous a donné plutôt une variation en sens inverse, ou tout au plus linéaire, l’Afrique semblerait (si la carte est exacte sur ce point) s’être consolidée un peu plus vite que les autres continents. Si on extrapole la courbe vers le passé, on trouve une date-origine entre 3 600 et 4 5oo millions d’années, valeurs en excellent accord avec celles obtenues par ailleurs (Cailleux, ig54 et 1059)-
- Tableau IV. — Consolidation de l’Afrique
- Age de la consolidation finale Date-limite en io6 ans Surface cumulée p. 100
- Cénozoïque ....... 0 100
- Paléozoïque . . .... 0- 190 96
- Préc. IV 190- 600 q3
- Préc. III . . 600-1 ooo 81
- Préc. 11 1 000-2 000 73
- Préc. I 3 000-3 ooo 43
- Tableau V. — Granités africains (Compte tenu des indications aimablement fournies par R. Furon).
- Age en millions d’années
- antérieur à 3 ooo 2 ooo I ooo 600 190 0
- Surface cumulée en p. 100. 3 78 93 97 IOO IOO
- Toujours d’après la même carte provisoire, les aires graniti-sées occuperaient en Afrique 10 pour 100 du total consolidé, alors que sur le bouclier canadien, d’après Knopf (1955), les roches granitiques occupent 80 pour 100 de la surface. Le désaccord est considérable; une partie vient probablement de ce qu’entre les granités et les schistes métamorphiques, on a toutes les transitions par les granités gneissiques, gneiss granitiques et gneiss, et que la coupure a été placée probablement plus près des granités en Afrique, plus loin en Amérique du Nord. Rien qu’en suggérant cette remarque, les comparaisons de mesures exposées ici peuvent contribuer à une meilleure
- p.267 - vue 270/558
-
-
-
- 268
- homogénéisation des définitions et conventions adoptées pour les cartes des différents continents. D’ailleurs R. Furon lui-même nous avertit (1909) qu’il n’a « pas obtenu suffisamment d’informations précises pour pouvoir-Figurer tous les granités ». Aussi la question d’une différence réelle entre les degrés de granitisation de l’Afrique et de l’Amérique du Nord reste évidemment ouverte, jusqu’à meilleure information.
- Tableau VI. •— Date du début, en millions d’années
- Date Auteur
- Plissements du Globe .... 2 400 à 4 200 Cailleux
- Granitisation 1 Pacifique . 3 100 Birch
- Amérique < Appalaches 3 45o Birch
- du Nord f Continent . 3 000 à 5 000 Knopf 11)
- Consolidation de l’Afrique . 3 600 à 4 5oo Cailleux
- 1. Extrapolation par Cailleux.
- Les aires cartographiées en granité en Afrique étant faibles, les renseignements que nous pouvons attendre de leur répartition sont très incertains; en particulier, le saut de 3 pour 100 à 89 pour 100 montré par la figure 1 ne saurait être interprété. Tout au plus on peut noter que, d’après l’allure générale de la courbe, la granitisation de l’Afrique, comme sa consolidation, semble avoir marché plus vite au début qu’à la fin.
- Conclusions. — Les dates-origines, déduites de la consolidation et de la granitisation, sont rassemblées dans le tableau VI.
- On voit que les résultats sont en bon accord avec ceux des astronomes qui attribuent plusieurs milliards d’années au Système solaire, et davantage encore à l’Univers connu. Bien entendu les valeurs de notre tableau ne nous donnent que des ordres de grandeur, avec un large éventail de variation, et ceci n’a rien d’étonnant si on réfléchit à la hardiesse des extrapolations que nous a\ons faites. Ce qui peut sembler étonnant, au contraire, c’est la bonne concordance des résultats.
- André de Cayeux.
- Maître de conférences à la Sorbonne.
- L’économie de l’U.R.S.S.
- On sait combien il est délicat d’avancer le moindre chiffre avec certitude lorsqu’il s’agit de l’Union soviétique. Les sources sont dispersées, hétérogènes, et concôrdent rarement entre elles. De plus, la difficulté due au langage interdit fréquemment l’accès direct aux études soviétiques elles-mêmes.
- Or, le développement des sciences géographiques est considérable en U.R.S.S. à l’heure actuelle. Aussi faut-il, saluer comme il convient le remarquable effort entrepris par VAme-rican Geographical Society de New York afin de mettre à la disposition des chercheurs occidentaux les principaux résultats des travaux de leurs collègues russes : chaque mois paraît, depuis le début de i960, une brochure de 80 à 100 pages intitulée Soviet Geography, qui fait le point des articles et ouvrages publiés en Union soviétique; des traductions anglaises présentent les articles les plus importants. Voici, par exemple, le sommaire du premier numéro paru (janvier-février i960) :
- I. P. Gerasimov : Statut actuel de la géographie en TJ.R.S.S.
- D. V. Kravehenko : Les travaux de l’Institut de Géographie de l’Académie des Sciences de l’U.R.S.S. en 1957.
- E. M. Murzàiev : Résultats des études de géographie physique régionale en U.R.S.S.
- Y. D. Zekkel : Les nouvelles tâches de la géomorphologie.
- S. N. Riazantzev : Études de géographie économique régionale à l’Institut de Géographie de l’Académie des Sciences de l’U.R.S.S.
- Y. P. Parmouzine : Le caractère zonal du pôle du froid sibérien.
- M. I. Pomous : Une expérience d’étude économico-géographique des villes de l’U.R.S.S.
- V. V. Pokchichevsky : Les grandes régions économiques du Brésil.
- La carte forestière de l’U.R.S.S.
- Le volume s’achève par des notes économiques de très grand intérêt, présentées par Théodore Shabad (voir ci-après), et par une bibliographie complète des études publiées dans les grandes revues soviétiques de géographie.
- Voici, empruntées à l’étude de Th. Shabad, quelques indications chiffrées touchant l’économie soviétique en 1959 :
- Combustibles. — La production de charbon semble arriver à son plafond (4g5 millions de tonnes métriques en 1968; 5o6 en ig5g; 5i5 prévues en i960). Mais celle du pétrole continue à augmenter rapidement (n3 Mt en 1968, 129 en ig5g, i44 prévues en i960), ainsi que celle de gaz naturel (respectivement
- 3o, 3y el 33 milliards de m3). L’évolution semble donc s’aligner sur celle des pays européens et des États-Unis.
- Electricité. — L’accroissement de la production est d’environ 10 pour 100 par an, comme en Occident (264 milliards de kWh en 1969, 291 attendus en i960). La centrale hydroélectrique de Stalingrad sera entièrement en service à la fin de l’année, et sa puissance installée de 2 563 000 kW en fera la plus puissante centrale du monde. D’autres usines sont en achèvement sur le Dniepr (Krementchoug) et sur l’Angara (Bratsk, où la puissance définitive sera dans quelques années de 4 500 00O' kW).
- Métallurgie. — La production de minerai de fer s’accroît régulièrement, passant de 89 Mt (ig58) à g4,4 (1969) et sans doute io5 (i960). De nouvelles mines sont mises en exploitation en Sibérie et surtout dans le secteur de la fameuse anomalie magnétique de Koursk en Russie centrale. La production de fonte et d’acier atteint les valeurs suivantes : respectivement 3g et 55 Mt en ig58; 43 et 60 en 1959. On attend k~j el 65 Mt en i960.
- Agriculture. — La superficie ensemencée totale se chiffre (1969) à 196 3oo 000 ha, en augmentation de 4o 000 000 ha sur 1953, grâce aux défrichements entrepris dans les « terres vierges » du Kazakhstan et de Sibérie méridionale. On note une spectaculaire avance des surfaces ensemencées en maïs, multipliées par 7 depuis ig53 (on sait l’intérêt de M. « K » pour cette céréale, qui lui a valu d’être surnommé en U.R.S.S. « Petit Père Maïs »).
- Les récoltes, en raison de la sécheresse, sont inférieures en 1969 aux chiffres de 1968 (125 Mt de céréales contre i4i ; 44 Mt de betteraves à sucre contre 54). Mais le coton progresse à 4 700 000 t (record).
- Elevage. — Un effort particulier concerne l’élevage, point faible de l’économie soviétique jusqu’à présent. La production de viande (1969) a été supérieure à 8 600 000 t (bêtes abattues). L’augmentation est de l’ordre de 12 pour 100 en un an; le chiffre prévu pour i960 est de 10600 000 t.
- Pour le beurre, on a enregistré en ig5g la production de 845 000 t, et pour le lait 62 Mt (34 millions de vaches laitières sur un total de 74 millions de bovidés).
- P. W.
- p.268 - vue 271/558
-
-
-
- Une moisissure mortelle pour le bétail peut envahir les cultures hydroponiques de fourrage
- M. Roger Heini, directeur du Muséum de Paris, a récemment présenté à i’Académie d’Agriculture une noie de M. Claude Moreau et Mme Mireille Moreau sur une moisissure toxique qui, ayant envahi des grains de blé en germination dans une culture sans sol (culture hydroponique), a causé des accidents mortels dans un troupeau de bovins nourri avec les plantes issues de ces grains.
- Par suite de la sécheresse de l’été 1909, nombre d’éleveurs ont eu recours à des germoirs à fourrage marchant en continu. Un éleveur de l’Ile-de-France, qui cultivait ainsi sur eau, en 1969, des plantules de blé pour compléter la ration de son bétail, constata que ses vaches présentaient de graves symptômes morbides : incoordination des mouvemenls, voussure du dos, position anormale des membres postérieurs (mouvement de Stepper), fièvre légère, inappétence, cessation de la rumination, tremblements chez les plus atteintes, baissé très forte de la lactation. Plusieurs animaux moururent et l’autopsie révéla des îlots de dégénérescence dans le foie, une vésicule biliaire distendue par la bile, une rétention des aliments dans l’estomac, une congestion de l’intestin, des poumons et des reins, des surrénales doublées de volume, des altérations au cœur, un liquide céphalo-rachidien verdâtre, etc.
- Ayant tour à tour éliminé les différents éléments de la ration (pulpe, paille, foin), l’éleveur dut attribuer ces accidents à ses cultures hydroponiques. C’est alors que M. et Mme Moreau furent appelés à examiner les plantules issues des germoirs. Ils y décelèrent le développement d’une moisissure, VAsper-gillus clavatus, que l’on reconnaît aux vésicules terminales de ses conidiophores, qui présentent l’aspect d’une minuscule épingle de 1 à S mm de long, d’un bleu verdâtre pâle, portant plusieurs dizaines de milliers de spores. Ce champignon est fréquent dans le sol, particulièrement dans les cultures de blé et dans les matières en décomposition riches en azote. M. et Mme Moreau en avait déjà trouvé dans l’atmosphère d’un tunnel de séchage de pâtes alimentaires. Il n’avait pas encore été signalé sur des grains.
- Tué par un froid prolongé (six mois à —ma0 C) V Aspergillus clavatus a son optimum thermique entre 23 et 26° C. Une forte humidité favorise sa croissance. Les germoirs à céréales lui fournissent donc des conditions extrêmement favorables. Le cycle complet de son développement peut se faire en trois jours. Il n’est pas exclu qu’il puisse poursuivre sa croissance dans les réservoirs gastriques des animaux.
- Cette moisissure était déjà connue comme sécrétant un puissant antibiotique, dont M. et Mme Moreau ont constaté l’efficacité sur divers champignons. Cette substance, généralement appelée clavacine (mais aussi claviformine, patuline, pénicidine, expansine), répond à la formule brute C71I604. On a renoncé à son emploi comme bactéricide en médecine, à cause de sa toxicité. Elle tue les leucocytes in vitro à la concentration de 1/800000. Sur les animaux de laboratoire, elle provoque de l’œdème pulmonaire avec hémorragies, des troubles capillaires dans le foie, la rate et les reins, un œdème du cerveau, des convulsions, une inhibition de la phagocytose, etc. Un filtrat
- Fig. 1. — Un grain de blé en germination envahi par la moisissure Aspergillus clavatus.
- {Photo aimablement communiquée par M. Claude Moreau).
- d’une cullure de douze jours préparé par M. Moreau s’est montré rapidement mortel pour des souris.
- Après une interruption de quelques mois, l’éleveur a remis son germoir en fonctionnement. Aussitôt son bétail a commencé à présenter les mêmes symptômes morbides que précédemment. M. et Mme Moreau ont constaté que toutes les parties de l’installation (atmosphère, murs du local, eau des bacs de culture, grains) étaient contaminées par VAspergillus clavatus. Une désinfection totale s’est donc montrée nécessaire.
- Il est à noter que, contrairement à d’autres moisissures, levures ou bactéries qui peuvent contaminer les cultures sans sol, VAspergillus clavatus semble ne gêner en rien le développement des plantules. Il est par là particulièrement dangereux. Il y aurait lieu de rechercher si le lait et la viande des animaux malades ne contiennent pas de la clavacine et ne présentent pas de ce fait une certaine toxicité. P. O.
- Les singes réservoirs de virus
- L’Association de la Santé publique des États-Unis a signalé les dangers d’infection qu’entraîne la présence des singes dans les laboratoires. Hormis plusieurs maladies infectieuses qui semblent üe pas être transmissibles à l’homme, les singes sont souvent porteurs du virus B de l’encéphalomyélite. 11 se trouve que ce
- virus ne déclenche ehez eux aucune affection grave, de telle sorte que cet agent infectieux peut rester ignoré. Étant donné l’absence d’un vaccin spécifique, il serait nécessaire de prendre des mesures prophylactiques sur les singes eux-mêmes, afin de protéger le personnel des laboratoires.
- p.269 - vue 272/558
-
-
-
- 270
- LE CIEL EN JUILLET I960
- SOLEIL : du 1er juillet au 1er août (à 0*) sa déclinaison décroît rie + 23°8' à + 4S°5' et la durée du jour de 16h3m à 15*5“ ; diamètre app. le 1er (à (fi1) = 31'30"7, le 31 (à 24*) = 31'34",1. — LUNE : Phases P. Q. le 2 à 3*49*, P. L. le 8 à 19*37“, D. Q. le 15 à 15*43“, N. L. le 23 à 18*31“ P. Q. le 31 à 12*39“ ; périgée le S à 11*, diamètre app. 33'27" ; apogée le 21 à 14*, diamètre app. 29'24". — Principales conjonctions : avec Neptune le 4 à 1*, à 2°5' N. ; avec Jupiter le 7 à 12*, à 4°44' N. ; avec Saturne le S à 1S*, à 4°6' N. ; avec Mars le 17 à 17*, à 3°2S' S. ; avec Mercure le 22 à 23*, a 0°28' N. ; avec Vénus le 24 à 16*, à 4°23' S. ; avec Uranus le 23 à 11*, à 3°r S. ; avec Neptune le 31 à 8*, à 2°19' N. Principales occultations : le 3, de 98 Vierge (mag. 4,3} immersion à 21*48“,5 ; le 19, d’Aldébaran (mag. 1,1) immersion à 10*22m,9 et émersion à 11*40“,7, — PLANETES : Mercure, devient étoile du matin à la fin du mois, se lève le 31 à 3*6“, soit 1*18“ avant le
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIlTl ASTRONOMIQUE DE FRANCE
- fondée en 1887 par C. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc
- Demandez les programmes au Siège Social
- Hôtel des Sociétés Savantes, 28, rue Serpente, Paris-6*
- Permanence, tous les jours non fériés de 14 à 17 h
- Cotisations : Région Parisienne, 25 11F ; France, 20 INF ; Etranger, 30 NF ; Etudiants, 3 INF ; Droit d’inscription pour tous, 2 NF.
- Spécimen gratuit de la, revue sur demande.
- Demandez « Splendeur de l’Astronomie », les plus belles photographies astronomiques : 16 pages 13,5x20,5, tirage néogravure bleu nuit.
- 0,65 NF franco.
- Soleil ; Vénus, noyée dans les lueurs crépusculaires ; Mars, dans le Bélier puis le Taureau brille toute la seconde moitié de la nuit ; Vesta, dans le Sagittaire est visible toute la nuit (mag. 6,0), positions, le 1er : 18*47“ et — 22°9', le 11 : 18*37“ et — 23°4', le 21 : 18*28“ et — 23°54', le 31 : 18*22“ et — 24°,37' ; Jupiter, dans, le Sagittaire, puis Ophiuchus brille encore jusqu’à 2 heures du matin, le 15 : diamètre pol. app. 42”,6 ; Saturne dans le Sagittaire se montre toute la nut, le 15 : diamètre pol. app. 16",4 et axes de l’anneau : 41",5 et + 17",4 ; Uranus, se perd dans les brumes du crépuscule ; Neptune, dans la Balance disparaît un peu avant minuit, le 15, position : 14*19“ et — 11°57', diamètre pol. app. 2",4. — ETOILES VARIABLES : minima de (3 Lyre (3“,4-4“,3) le lor à 5*,1, le 14 à 3*,4, le 27 à 1*,7 ; maxima de 8 Céphée (3™,7-4“,6) le 1er à i*,2, le 6 à 10*,0, le 11 à 18*,8, le 17 à 3*,6, le 22 à 12*,4, le 27 à 21*,2 ; maxima de i\ Aigle (3“,7-4“,4) le 2 à 9*,8, le 9 à 14*,1, le 16 à 18*,3, le 23 à 22*,5 le 31 à 2*,7 maxima de R Aigle (5“,1-12“,0) le 18, de Mira Ceti (2“,0-10“,l) le 20. — TEMPS SIDÉRAL : au méridien de Paris, à 0* (T. U.), le 1er : iS*45“32s, le 11 19*24“58s, le 21 : 20*4“23s, le 31 : 20*43“49s.
- Phénomènes intéressants. — Le 2 à 22* la Terre à l’aphélie, le Soleil à l’apogée. — Surveiller l’apparition de taches à la surface du Soleil. — Du 17 au 21, lumière cendrée de la Lune, le matin. — Le 19, on ne manquera pas l’observation de l’occultation de la belle étoile orangée Aldébaran (mag. 1,1}, en plein jour aux heures indiquées, dans une petite lunette. — On suivra très facilement à la jumelle la petite planète Vesta, en opposition avec le Soleil le 2. — Les planètes Jupiter et Saturne sont commodément observables. — Du 20 au 30, étoiles li lantes : Aquarides (radiant 8 Verseau), maximum le 28. — En l’absence de Lune, l’observation de la Voie lactée devient facile dans les constellations où elle est la plus inlensc : Scorpion, Ophiuchus, Sagittaire, Écu, Aigle, Cygne.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur. L. Tartois.
- LES LIVRES NOUVEAUX
- Naissance et mort du Soleil, par G. Gamow, professeur à l’Université du Colorado. Trad. de l’américain par Geneviève Güér'on. 1 vol. 16 x 21, 162 p., 68 flg. Dunod, Paris, 1960. Prix : 7,40 NF.
- Avec le talent affirmé dans une série de livres célèbres, M. Gamow expose ici, de façon à être compris de tous, ses idées sur l’évolution des étoiles et du Soleil. Contrairement à ce qu’on pourrait croire, l’auteur montre que le Soleil ne perdra pas progressivement de sa luminosité en consommant son hydrogène dans ses réactions thermonucléaires. Au contraire, il viendra un moment où il rayonnera cent fois plus qu 'aujourd’hui. Heureusement, cela ne se passera que dans quelques milliards d’années ! Ensuite il se refroidira vite, à moins qu’il ne fasse explosion, ce qui, pour un soleil, est reculer pour mieux sauter...
- Report on progress in Physics. Volume XXII. 1 vol. 17,5 x 25,5, iv-634 p., flg. The Phy-sical Society, Londres, 1959. Relié.
- Ce volume, publié annuellement, contient quatorze articles de mise au point sur des sujets de physique fort différents. Des questions aussi théoriques que celle de l’invariance en physique des particules élémentaires voisinent avec des articles expérimentaux puisque, par exemple, on y trouve un article sur les récents progrès dans la technique du vide.
- Processus aléatoires et systèmes asservis, par J. II. Laning jr. et R. IL Battin. Traduit de l’américain par R. Danon et J. Lajzérowicz. 1 vol. 16 x 25, 452 p., 100 fig. Dunod, Paris, 1959. Prix, relié toile sous jaquette : 66 NF.
- Cet ouvrage est la traduction de l’édition américaine que nous avions signalée lors de sa publication. Les premiers chapitres sont consacrés à l’exposé du calcul des probabilités et à l’étude la plus générale des fonctions aléatoires. Les notions fondamentales d’indépendance et,de corrélation, de processus stationnaires et ergodi-ques sont introduites, puis on étudie l’effet de grenaille pure et les processus gaussiens qui en dérivent et jouent un très grand rôle dans la pratique. Le reste de l’ouvrage traite du problème de la prédiction tel qu’il a été défini
- par Wiener : la prédiction d’un signal consiste à déterminer quelle sera sa forme la plus probable dans l’avenir. Différentes méthodes sont utilisées, toutes méthodes qui peuvent être appliquées pour concevoir un servomécanisme. Le dernier chapitre est plus spécialement consacré à l’élude des données expérimentales et à la façon de les utiliser au mieux. Ce livre, où l’on trouvera, à côté d’un exposé des fonctions aléatoires, les applications que l’on peut espérer en faire, est à conseiller aux ingénieurs et aux étudiants.
- Cours de Cristallographie, par R. Gay. 2 vol. 16 x 25. Livre I : Cristallographie géométrique, 253 p., 108 lig. Livre II : Cristallographie physico-chimique, 232 p., 151 fig. Gau-ihier-Viliars, Paris, 1959. Prix, relié : 29 NF chaque volume.
- A NOS LECTEURS
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- Ii'exposé de la cristallographie géométrique, auquel est consacré le Livre I, respecte la succession historique des théories sur la nature cristalline ; fondées sur la géométrie, elles conservent dans les limites de leur objet une valeur incontestable ; elles proposent des méthodes de définition et de classement qui accommodent la représentation des formes et des structures. La connaissance des structures, naissant de la simple observation des formes naturelles et de leur symétrie, se développe épuisant la notion d’un espace compact diversement coupé, avant de s’epanouir dans la théorie des réseaux dont les diverses figures se déduisent par un nombre limité d’opérations. Cette partie difficile de l’exposé prélude à une étude des structures réelles classées par type. Le Livre II complète le magistral exposé du livre précédent. Il envisage la réalité physique de la matière cristalline, il montre comment naissent et se transforment les cristaux selon les variations du milieu. Il expose les théories dans leur expression essentielle, donne quelques exemples typiques sans entrer dans le détail des innombrables cas d’espèce. Le livre commence par des notions de thermodynamique cristalline ; il traite ensuite des chaleurs spécifiques, des changements de phase, de la diffusion des atomes dans les cristaux et des phénomènes de surface. Le polymorphisme, l’iso-inorphisme, les solutions solides et leur vieillissement, la cristallisation elle-même et les associations géométriques de cristaux remplissent la plus grande part de l’ouvrage qui s’achève par un chapitre sur la corrosion.
- Studies in crystal physics, par M. A. Jawson, 1 vol. 18 x 24,5, 42 p., 63 fig. Butterworths Scientifîc Publications, Londres, 1959. Prix, broché : 10 sh. 6 d.
- L’auteur a rassemblé ici cinq articles qui traitent de la physique des cristaux. Bien que les sujets soient relativement différents, ils ont tous un point commun : les effets étudiés sont les conséquences de l’état cristallin ordonné et non pas de la nature des atomes qui constituent le cristal. Cet ouvrage devrait intéresser les physiciens du solide et les étudiants du 3“ cycle. Table des matières : Quelques propriétés des réseaux cristallins ; imperfections dans les cristaux presque parfaits ; diffraction des rayons X
- p.270 - vue 273/558
-
-
-
- 271
- par les cristaux imparfaits ; changement de phase martensitique dans les métaux ; thermodynamique des solides.
- Vector space and its application in crystal. Structure investigation, par M. J. Btjerger. I vol. 15,5 x 23,5, xiv-347 p., 170 fig. John Wiley and Sons, New York, et Chapman and Hall, Londres, 1959. Prix, relié : 12 dollars.
- Le problème de la structure exacte des cristaux est encore loin d’étre résolu. La diffraction des rayons X ne fournit pas toutes les informations nécessaires pour mener à bien un tel travail et si certaines méthodes existent, elles ne s'appliquent en fait qu'à des cas particuliers. L’auteur développe une méthode basée sur la fonction de Patterson (fonction qui permet non pas de localiser les atomes, mais de connaître les distances interatomiques) et des méthodes analogues (section de llarker et théorie de i' « implication »). Cet ouvrage hautement spécialisé devrait intéresser au plus haut point les cristallographes qui y trouveront la plupart des travaux faits sur ce sujet depuis 1945.
- Group Theory and its application to the quantum mechanics of atomic spectra,
- par Eugene P. Wjgner. Traduit de l’allemand par J. J. Griffu*. 1 vol. 15,5 x 23,5, xir-372 p., 15 fig. Anadémie Press Inc.. New York et Londres, 1959. Prix, relié : 8,80 dollars.
- Traduction anglaise augmentée de l’ouvrage désormais classique publié en allemand en 1931. Le but de l'auteur était de décrire l’application de la théorie des groupes aux problèmes de mécanique quantique. Deux parties : exposé de la théorie des groupes et application de cette théorie à la résolution de l'équation de Schrodinger dans le cas des spectres atomiques. La rigueur mathématique, l’importance du sujet traité, sa remise à jour (trois nouveaux chapitres ont été ajoutés) en font un ouvrage de base pour tous ceux (étudiants et chercheurs) qui font de la physique théorique.
- Electron physics. The physics of the free électron, par O. Klemperer. 1 vol. 14 x 22,5, xii-248 p., 88 fig. Butterworths Scientific Publications, Londres et Academie Press, New York, 1959. Prix, relié : 32 sh. 6 d. ; édition américaine : 7 dollars.
- L'auteur traite de la physique de l’électron libre, c'est-à-dire de l’électron qui n'appartient pas au cortège électronique. Il étudie d’abord la dynamique de l’électron et l’optique électronique. La seconde partie de l’ouvrage décrit les propriétés fondamentales de l'électron libre : charge, masse, longueur d'onde associée, spin et moment magnétique. Présentation agréable.
- i ...
- Semiconductors, édité par N. B. Hannay. 1 vol. 16 x 23,5, xxiv-767 p., fig., Reinhold Publishing Corporation, New York, 1959. Prix, relié toile : 15 dollars.
- L’emploi des transistors a contribué à faire connaître l’importance des semi-conducteurs ; leur emploi est basé sur une théorie physique assez complexe que nous trouvons exposée ici, ainsi que leur préparation, leurs propriétés, l'étude des divers semi-conducteurs minéraux ou organiques, etc.
- Les montages multivibrateurs. Introduction à la technique des robots, par A. IL Bruinsma. 1 vol.. 15 x 21, 74 p., 41 fig. Bibliothèque technique Philips, Eindhoven, 1959. Série vulgarisation. Prix : 7,40 NF.
- Description générale des divers types de multivibrateurs astables, monostables et bistables, des montages à tube porte et de leurs conditions de fonctionnement. L'exposé est orienté vers l'utilisation de ces montages dans les circuits de commutation des robots. De caractère très général, cet exposé est destiné au public le
- plus large et les notions théoriques sont réduites au minimum.
- Eléments of Physical Metallurgy, par Albert G. Guy. 1 vol. 15,5 x 23,5,. xvi-528 p., fig. Addison Weslev Publishing Company, Reading (Mass.), 1959 (2e édition). Relié.
- Excellent exposé de métallurgie, insistant essentiellement sur la physique du métal : structure atomique et cristalline, examen des phases, propriétés mécaniques, diffusion dans les métaux, durcissement structural, traitement thermique de l'acier. Très bonne illustration.
- Materials for Nuclear Reactors, par Bernard Kopelman. 1 vol. 16 x 24, x-411 p., fig. McGraw-Hill, Londres, 1959. Prix, relié toile : 93 sh.
- L'ouvrage présente la métallurgie des matériaux pour réacteurs : uranium, thorium, zirconium, béryllium, dont on indique les caractéristiques en tant que combustibles nucléaires et les transformations qu’ils subissent sous l’effet des radiations. Il expose les essais auxquels ils sont soumis. On traite ensuite des fluides utilisés comme transmetteurs de calories, des problèmes que soulève leur emploi, des modérateurs comme le graphite, et des matériaux de protection.
- La modulation de fréquence. Théorie. Application aux faisceaux hertziens, par J. Fagot et Ph. Magne. 1 vol. 15,5 x 24, 676 p-, 393 fig. Collection des Annales de Radioélectricité. Société française de documentation électronique, Paris, 1959. Prix : 69,50 NF.
- Cet ouvrage traite des problèmes généraux de la modulation de fréquence et de leur application aux techniques de transmissions radioélectriques sur faisceaux hertziens. La lro partie est consacrée aux questions de propagation des ondes métriques, décimétriques et centimétriques dans la troposphère. Avec la 2e partie, on aborde l'ensemble des notions fondamenta-
- LA NATURE PLASTIFIÉE
- ENROBAGE DE SPÉCIMENS BIOLOGIQUES
- dans résine artificielle claire comme du cristal
- CHEZ VOUS
- Demandez renseignements pour colis d’essai avec instructions
- Joindre enveloppe timbrée avec adresse S.V.P
- INTERNATIONAL PLASTIC RESEARCH B. P. 03 CONTES (A.-M.)
- les relatives aux systèmes à modulation de fréquence. La 3e partie traite des phénomènes de distorsion liés à la propagation. La 4e partie réalise la synthèse de toutes les notions précédentes pour aborder le problème de la transmission des signaux sur faisceaux hertziens. Un important chapitre sur les appareillages représente la moitié du volume. Abondante documentation schématique et photographique. Traité complet qui, malgré son niveau élevé, ne perd jamais le point de vue de rutilisation pratique.
- Les semiconducteurs électroniques. Introduction à la physique des redresseurs et des transistors, par Dr. E. Spenke. Traduit' de l'allemand par L. Godefroy. 1 vol. 16x25, xx-348 p., 187 fig. Dunod, Paris, 1959. Prix, relié toile sous jaquette : 56 NF.
- Excellente introduction à la physique des transistors. La lre partie est consacrée à l’exposé des principes physiques de la théorie du solide et aux applications aux semi-conducteurs ; la 2e, plus théorique, permet au lecteur qui a assimilé la lre partie de s'initier plus complètement à ce chapitre de physique moderne. Malgré les développements mathématiques, l’auteur reste toujours très près de la réalité physique et ceci rend son livre plus accessible.
- Mémoires présentés à la Section de Chimie minérale du 16e Congrès international de Chimie pure et appliquée,, Paris, 1957. 1 vol. 16 x 24, -891 p., 518 fig. Sedes, Paris, 1958. Prix : 50 NF.
- Quatre thèmes principaux : composés solides des métaux de transition, combinaisons du bore avec l'hydrogène et les éléments non mélalli-ques, éléments de la série de l'actinium, propriétés des corps aux températures élevées.
- Phosphorus ant its compounds. T. I : Che-mistry. 1 vol. 15,5 x 23,5, xiv-954 p., fig. Interscience Publishers Inc., New York, 1958. Prix, relié : 27,50 dollars.
- Très belle monographie sur la chimie du phosphore et ses composés, minéraux et organiques. Excellente présentation et très riche documentation.
- Advances in Petroleum Chemistry and Re-fining, édité par Kenneth A. Kobe et John J. McKetta jr. 1 vol. 15,5 x 23,5, xvi-641 p., fig. Interscience Publishers, New York et Londres, 1958. Prix, relié ; 14,50 dollars.
- Après un exposé sur l’économie de l’industrie du pétrole aux États-Unis et sur les sources dont elle dispose, on examine la théorie des opérations de base, fractionnement, procédés de raffinage, reforming catalytique, raffinage par solvants, puis certains procédés de pétrochimie dont le procédé Oxo. Une vingtaine de spécialistes ont contribué à la rédaction de ce traA'ail.
- La grande industrie chimique de base, par
- Henri Guérin, professeur à l'Universilé de Paris. 1 vol. 11 x 16,5, 212 p., 18 fig. Collection Armand Colin, Paris, 1959. Prix : 4,50 NF.
- Après avoir retracé l'évolution de la grande industrie chimique de base, l’auteur examine les diverses fabrications groupées autour des matières premières qu'elles emploient. On étudie ainsi : les industries du soufre et de ses composés ; les chlorures alcalins et industries dérivées ; le carbure de calcium, l’acétylène, et les autres fabrications électrothermiques ; les industries dérivées de l'azote et les sources industrielles de l'hydrogène ; enfin les industries des dérivés phosphorés. Quelques schémas de fabrication sont donnés. Le côté économique de la chimie industrielle n'est pas négligé.
- Les alchimistes, par M. Caron et S. Hutin. 1 vol. 192 p. illustr. Collection Le temps qui court. Éditions du Seuil, Paris, 1959. Prix : 4,50 NF.
- Un charmant ouvrage qui, sous les dehors d’une grande aisance, figure un effort remarquable de synthèse. Les sources de l'alchimie y sont clairement pressenties, si tant est que l’on puisse résoudre un problème d'origines. Les auteurs ont excellé à recenser les ayants cause de l’alchimie que souvent l'on ne s'attend pas à y rencontrer. Le choix des citations et des images restitue savoureusement une longue époque de l'humanité, celle ou triomphait la mentalité prélogique. Bref, un ouvrage qui se recommande à l'attention de ceux qui aiment à se familiariser avec les sources irrationnelles de la science.
- p.271 - vue 274/558
-
-
-
- 272
- Orchidées exotiques, par Albert Zimmermann. 1 vol. 15 x 21,5, 326 p., 57 photos dont 39 en couleurs, 18 dessins. Collection Les beautés de la nature. Delachaux et Niestlé, Neu-, châlel-Paris, 1959. Prix, cartonné : 29,50 NF.
- Après le très. joli livre sur les Orchidées d’Europe par M. Duperrex, voici dans la même collection les Orchidées exotiques présentées par un botaniste qui est allé les chercher et les étudier jusque sur les pentes de l’Himalaya. L’auteur commence par faire une histoire très vivante de la chasse aux Orchidées que des collecteurs pratiquèrent longtemps à grands frais 'et même au péril de leur vie. Puis il conte la découverte des champignons symbiotes qui permit de les faire reproduire loin de leur habitat naturel, et de les hybrider à volonté. Après des directives générales pour leur culture et leur multiplication, un grand nombre d’espèces remarquables sont décrites. Les belles photographies de R. Dougoud complètent cet excellent texte. La présentation est celle qu’on admire pour tous les livres de cette collection.
- Biting midges of the genus Culicoides from Panama (Diptera : Heleidæ), par Willis AV. Wirth et Franklin S. Blanton (Proceed-ings of the U. 8. National Muséum, vol. 109, n° 3415). 1 vol. pp. 237-482, 91 tig. Smith-sonian Institution, Washington, 1959.
- tëtude détaillée des espèces de Culicoïdes habitant la République de Panama. Ce -travail est basé sur Les résultats de récoltes intensives à la lumière et dans les régions peu connues des forêts-galeries du Chiriqui et de la rain forest des Caribbes. Le nombre d'espèces de ces petits Diptères a été porté à 88 au lieu de 16 précédemment connues. Les auteurs insistent particulièrement sur l’habitat des larves qui peuvent se trouver dans toutes les petites collections d’eau calme, mais aussi dans les matières végé-iales en décomposition, dans les trous des crabes et dans les cavités naturelles formées par la base des Aroïdées et des Broméliacées. Un court chapitre sur l’importance économique des Culicoïdes, nuisibles comme vecteurs de maladies à fllaires et à virus, mais aussi utiles comme pollinisateurs des fleurs du cacaoyer et des plantes à caoutchouc. •— L. C.
- Les Oiseaux du Monde, par L. Delapchier, membre du Conseil de la Société française d'Ornithologie. Préface de J. Berlioz, professeur au Muséum. Nouvelle édition entièrement. refondue et considérablement augmentée. Tome I ; Passereaux, Rolliers, Pics, Perroquets, Rapaces nocturnes. 1 vol. 13,5 x 18,5, 420 p., 183 fig., 30 planches en couleurs. N. Boubée, Paris, 1959. Tome II : Rapaces diurnes, Pigeons Gallinacés, Râles, Grues, Bécasseaux, Goélands, Canards, Hérons, etc. 1 vol. 13,5 x 18,5, 436 p., 108 fig., 10 planches en noir, 24 planches en couleurs. N. Boubée, Paris, 1960. Prix, chaque volume : 36 NF.
- Parmi les charmants et savants Petits Atlas des éditions Boubée, l’ouvrage de L. Delapchier fut un des plus prisés des amateurs. L’auteur, grand connaisseur des oiseaux, était aussi un artiste adroit et fidèle. Disparu depuis peu, il
- ne verra malheureusement pas le succès auquel est promise cette nouvelle édition, qu’il avait entièrement refondue pour tenir compte des progrès réalisés en ces dernières années dans la classification ornithologique. On y trouvera aussi de nombreuses additions, concernant par exemple les œufs et le développement des poussins, avec de nouvelles planches correspondantes. La lre partie donne un aperçu sur les oiseaux fossiles, la morphologie et l'anatomie, la biologie, le rôle des oiseaux dans la nature, les nids. La 2e partie expose la classification, puis l’étude des différents groupes d’oiseaux, quelques-uns étant pris comme exemple dans chaque groupe, figurés et étudiés avec un peu plus de détail. S’ajoutant aux 400 espèces et 47 poussins en noir ou en couleurs, deux planches en couleurs représentent les œufs de 57 espèces. Les oiseaux de nos régions tiennent bien entendu la plus grande place. Tables et index facilitent la consultation.
- Les yeux et la vision, par Yves Le Grand, professeur au Muséum et à l’Institut d’Opti-que. 1 vol. 15 x 21,5, 196 p., 78 fig., 2 planches en couleurs. Collection Science et Progrès. Dunod, Paris, 1960. Prix : 14,50 NF.
- L’auteur a repris dans cet ouvrage, a l’inten-lion du grand public cultivé et aussi, pensons-nous, à celle des étudiants en sciences naturelles, la matière de son admirable Optique physiologique, parue précédemment en trois tomes aux éditions de la Revue d’Optique. Clarté de l’exposition, agrément du style sont les qualités dominantes de l’auteur que nos lecteurs connaissent bien. Énumérons simplement les chapitres de cet excellent livre : un peu d’histoire ; sensibilité à la lumière ; colorimétrie ; adaptation ; optique de l’œil ; vision de détails ; champ visuel ; interactions rétiniennes ; mouvements ; vision binoculaire ; perception visuelle ; anomalies de la vision. Index.
- L’âge atomique et notre avenir biologique,
- par IL V. Brondsted. Trad. de l’anglais par Mme M. GoimER-BACQ. 1 vol. 14,5 x 22,5, 90 p. Masson, Paris, 1959. Prix : 8,50 NF.
- Ce livre de vulgarisation, d’ailleurs assez bon, ne correspond pas au niveau habituel de la collection Évolution des Sciences » où il a pris place. L’auteur, professeur de zoologie, embryologie et génétique à l’Université de Copenhague, a voulu instruire un large public sur les dangers des rayonnements pour l’avenir de l’espèce. C'est un exposé élémentaire sur le rayonnement, l'œuf fécondé, les mutations, l’effet des rayonnements sur le corps, sur l'embryon, sur les gènes. Il montre la nécessité de grandes précautions dans l’emploi de l'énergie atomique.
- Éléments de science et de technologie du caoutchouc, par Jean Le Bras. 3* édition. 1 vol. 15,5 x 23,5, 435 p., nombreuses fig. SETCO, Paris, 1958. Prix, relié : 20 NF.
- Revue et mise à jour avec la collaboration de huit spécialistes, cette troisième édition nous présente, après un exposé de généralités consacrées à l'historique du caoutchouc et au pro-
- blème économique, les sources et la récolte du caoutchouc, l'étude du latex, les propriétés physiques et chimiques du caoutchouc, l’examen de sa vulcanisation, sa mise en œuvre et ses applications. Une part importante est faite aux caoutchoucs artificiels, à rébonite et au problème de l’analyse du latex et des caoutchoucs.
- How paper is made, par David G. Cooke. 1 vol.
- 23,5 x 18,5 (à l'italienne), 64 p. dont 30 p.
- 111. American Paper and Pulp Association,
- New York, 1959. Prix, relié toile : 2,25 dollars.
- Monographie relatant tant par le texte que par l’image (une page illustrée sur deux) la fabrication du papier. Les illustrations sont excellentes.
- Journal d’un Biologiste, par Albert Delaunay.
- I vol. 14 x 21, 392 p. Plon, Paris, 1959.
- Prix : 15 NF.
- II existe une catégorie très peu nombreuse d’hommes qui, parvenus au sommet de leur carrière scientifique, partagent un temps strictement mesuré entre leurs recherches au laboratoire, leurs cours à la faculté, les congrès et les colloques, les entretiens avec d’autres savants, les conseils donnés à leurs élèves, la rédaction de leurs ouvrages, les corrections d'épreuves... Leurs témoignages, leurs confidences sont infiniment précieux, à condition évidemment qu'eux-mêmes aient le goût et le loisir de les transmettre. C’est ce que l'on trouve dans le Journal d'Albert Delaunay. La lecture en est passionnante : les hommes, les idées, les connaissances et surtout le métier de ce savant s’y inscrivent sous des formes sans cesse renouvelées et frappantes. En se laissant guider par lui, on apprendra beaucoup, on trouvera encore davantage matière à réflexion.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- CONSULTATIONS TECHNIQUES pour la lutte contre le bruit : Isolation phonique, Correction acoustique, Vibrations.
- R. GRUZELLE, Ingénieur-Conseil Expert, 8, rue des Moines, Paris-17*. MAR. 92-07.
- Dans notre prochain numéro
- L’Actualité instrumentale LA PYROMÉTRIE par Gilbert Guiroy
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d’État Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- LE CALCUL INTÉGRAL ET DIFFÉRENTIEL
- A LA PORTÉE DE TOUS
- PAR Silvanus P. THOMPSON +
- TRADUIT DE L’ANGLAIS PAR
- A. ERIC GÉRARD
- Ingénieur A. I. Lg.
- 232 p. 14 x 22, avec 67 fig. 4* édition revue et corrigée (26e mille). 1959. Broché sous couverture illustrée.. 9,60 NF
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6e. DAN 99-15.
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 2e trimestre i960, n° 35â8. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 4lîO, —^ 6-1960.
- p.272 - vue 275/558
-
-
-
- N° 3303
- Juillet I960
- Fig. 1. — Les travaux du barrage de Sefid-Roud dam en Iran.
- Vue prise en 1958 sur le batardeau amont et la future retenue {Photo Méhard, Unesco).
- i
- Un vaste programme de recherches internationales sur la zone aride, en vue de sa mise en valeur, a été entrepris depuis ig5i, sous l’égide de l'Unesco. On se propose de reconquérir, au profit de la population du Globe, les immenses territoires désertiques ou semi-désertiques qui s’étendent surtout sur le Nord de l’Afrique, le Moyen-Orient et l’Asie méridionale. Un Colloque a réuni, à Paris, du ïi au 18 mai, les spécialistes de
- tous les pays qui ont participé à ces recherches Au programme figuraient toutes les principales disciplines intéressées : hydrologie des eaux supei’ficielles et souterraines ; géologie ; climatologie et microclimatologie; pédologie; physiologie et écologie végétales, animales et humaines; énergie; déminéralisation des eaux; démographie; sociologie.
- Plusieurs rapports ont fait la somme des connaissances acqui-
- p.273 - vue 276/558
-
-
-
- 274
- Fig. 2. — Champ d’opuntia, sur le plateau de Borborema (Brésil).
- C’est l’habituelle plante fourragère du Nord-Est aride.
- (Photo AuBEivr r>E la Rüe, Unesco).
- ses dans ees différentes sciences, appliquées à la zone aride. Il a pu être constaté qu’une foule de problèmes particuliers restent encore à résoudre. Notons à cet égard certains des vœux émis :
- i° Que soient concentrés les moyens actuellement disponibles sur une région pilote de la zone aride, qui, par la suite, servirait d’exemple universel;
- 2° Que soit poursuivie en commun une exploration systématique des nappes souterraines de l’Afrique du Nord;
- 3° Que soit créé un Phytotron international, destiné à accélérer la connaissance imparfaite que l’on a des végétaux susceptibles d’être adaptés à la zone aride.
- Ce sont là les éléments d’un plan d’action qui sans doute ne prendra forme, dans sa totalité, qu’au bout d’une assez longue période d’élaboration. Il est intéressant, en attendant, d’« échantillonner » quelques-unes des recherches entreprises.
- Citons les travaux menés en Union Soviétique pour traiter à l’eau salée les semences de certaines plantes ahn qu’elles soient par avance rendues aptes à prospérer dans des sols fortement minéralisés. D’autres végétaux, a-t-on signalé, ont la propriété d’absorber la rosée par leurs tiges et leurs feuilles et de transmettre cette humidité atmosphérique au sol, grâce à de longues racines plongeantes. D’autres encore possèdent l’étonnante faculté de retarder leur germination jusqu’au moment où le milieu environnant est suffisamment chargé d’humidité pour leur permettre d’arriver à maturité.
- A ces actions botaniques s’ajoute la connaissance de phénomènes géologiques et climatologiques imprévus : l’existence par exemple, dans le Tanezrouft, d’un « sol fossile », témoin d’un climat méditerranéen de date relativement récente, et que recouvre actuellement une couche caillouteuse, ce qui éclairerait certains processus (peut-être réversibles) de désertification. Ail-
- leurs on a signalé les inondations épisodiques qui s’abattent parfois sur les déserts, indices d’une pluviométrie plus ou moins ignorée et qu’il, faudrait mesurer en vue de futurs aménagements hydrauliques.
- Mais les recherches de la zone aride sont une matière trop riche pour pouvoir être rapidement examinées une à une, cela d’autant plus que la plupart méritent encore d’être approfondies. Nous nous bornerons à détacher quelques sujets caractéristiques.
- Lutte contre l’évaporation par films monomoléculaires
- En zone aride, la création de grands réservoirs d’eau est d’une importance vitale, mais leurs pertes par évaporation sont directement fonction de l’aridité. Rien que dans les secteurs du Sud et de l’Ouest des États-Unis d’Amérique, on estime que les pertes nettes (évaporation diminuée des précipitations reçues par les réservoirs) s’élèvent annuellement à environ 16 milliards de mètres cubes. Ce chiffre a été fourni par Walter B. Langbein qui, dans son rapport à l’Unesco, a passé en revue les études et les expériences poursuivies par plusieurs pays dans le but de limiter l’évaporation.
- Un procédé employé est de recouvrir la surface du réservoir d’un film monomoléculaire qui isole l’eau de l’atmosphère et s’oppose par conséquent à l’évaporation. Le terme « monomoléculaire » demande évidemment à être expliqué : il signifie que le corps chimique, utilisé en phase liquide pour servir d’isolant, a la propriété de s’étaler en une couche dont l’épaisseur (on devrait plutôt dire la minceur) ne dépasse pas les dimensions de la molécule.
- Le corps choisi jusqu’ici est Vhexadêcanol. Il a été expérimenté sur plusieurs réservoirs d’Australie, de Birmanie et du Kenya. Mais les principales investigations ont eu lieu aux États-Unis sur le lac Hefner qui couvre environ i ooo ha et sert à l’approvisionnement en eau de la ville d’Oklahoma City.
- Ce lac a été traité à l’hexadécanol en juillet, août et septembre 1958. Des mesures précises ont indiqué que l’évaporation a été diminuée d’au moins 9 pour 100, malgré des conditions météorologiques défavorables. Il semble que le film a souffert successivement de températures plus élevées que la moyenne et de vents dépassant la vitesse de 3o km/h. En année normale, on pense que l’économie d’eau aurait pu être quatre fois plus grande.
- La présence de l’hexadécanol n’a eu aucun effet nuisible sur les organismes végétaux et animaux du lac. Certains microorganismes se sont même nourris de cette substance et ont proliféré grâce à elle. L’eau, parvenue à Oklahoma City, ne contenait pas d’hexadécanol et restait parfaitement potable.
- Les expériences ont été poursuivies à une échelle plus modeste, sur des réservoirs dont la surface est de l’ordre de 2 ha, On s’efforce désormais d’obtenir un film comprimé, fait de molécules à longue chaîne qui se maintiennent perpendiculaires à la surface de l’eau. La compression serait réalisée grâce à une alimentation continue qui renouvellerait le film et compenserait ses pertes. Un vent léger, bien loin d’être nuisible, serait un utile agent de compression, à condition toutefois de souffler dans la direction voulue pour pousser le film naissant, coulant de récipients placés sur la rive. Cela suppose que ces récipients seront disposés tout autour du réservoir et que l’ouverture de chacun sera automatiquement déclenchée lorsque le vent soufflera « dans son dos ».
- D’autres pei’fectionnements peuvent intervenir : l’hexadéca-nol sera remplacé au besoin par le dodécanol, de même composition chimique, mais mieux adapté physiquement à certaines conditions de température.
- Les expériences de l’été dernier ont permis de réduire l’évapo-
- p.274 - vue 277/558
-
-
-
- 275
- Figr. 3. — Un coin du jardin écologique de VInstitut de recherches sur la zone aride, à Beersheba, dans la région du Negev (Israël).
- (Photo Alfred Bernheim, Unesco).
- ration d’un lac peu étendu dans une proportion .de i5 à 20 pour ioo. Elles seront reprises cette année. Dès maintenant, on pense pouvoir affirmer que le procédé est efficace pour des réservoirs dont la surface ne dépasserait pas 4o ha. Sa valeur est plus douteuse lorsqu’il s’agit de grands lacs. Les recherches en cours permettront de se rendre compte si l’économie qui en résulte est d’une importance suffisante pour en généraliser l’application aux nombreuses réserves d’eau existantes ou à créer à travers la zone aride.
- Y. M.
- Des plantes gaspilleuses d’eau : les phréatophytes
- Il existe des plantes qui sont de très grandes consommatrices d’eau; elles la puisent avidement et rapidement par leurs racines et elles la transpirent abondamment par leurs parties aériennes. Ces plantes, évidemment, ne peuvent prospérer sur un sol où l’eau est rare. En climat sec, elles ne s’installent que dans des endi'oits où l’eau est exceptionnellement abondante, par exemple près des sources ou près du lit d'un torrent là où l’eau, même en période sèche, continue à séjourner à faible profondeur. Quand l’homme creuse un puits ou dispose un réservoir ou une adduction d’eau, ces plantes en profitent largement. On les a appelées phréatophytes, c’est-à-dire « plantes de puits », et la dîme qu’elles prélèvent sur l’eau des régions arides est suffisamment importante pour qu’un sous-comité spécial et un centre de documentation leur aient été consacrés aux États-Unis, en Arizona.
- A l’heure actuelle, plus de 70 espèces ont été classées comme
- phréatophytes. Bien entendu, lorsqu’on voit des plantes s’installer auprès d’un point d’eau ou sur un sol humide, elles peuvent être a priori suspectes, mais on ne peut avoir une idée précise sur leur avidité. Il faut donc les isoler, espèce par espèce, et les cultiver dans des bacs spécialement aménagés pour mesurer leur consommation. Parmi celles qui ont été étudiées jusqu’à présent, celles qui se sont révélées les plus grandes gaspilleuses d’eau sont les aunes, les saules, certains peupliers, certains tamaris et des Mimosées du genre Prosopis.
- Comme on pouvait s’y attendre, un individu d’une espèce donnée consomme de l’eau en raison directe de la densité de son feuillage. L’évaluation de celle densité n’est pas facile et donne lieu encore à discussion. Les chiffres établis, qui correspondent à des densités de feuillage plus ou moins bien évaluées, n’en sont pas moins significatifs. Le prosopis, dont les racines descendent jusqu’à 3 m de profondeur, consomme 1 m3 d’eau par an et par mètre carré. Certains peupliers consomment de i,5 à 2,3 m3, et le tamaris jusqu’à 2,8 m3. Le tamaris s’est révélé comme étant l’ennemi n° x de l’eau dans les régions arides du Sud-Ouest des États-Unis. Naturellement la consommation est surtout forte quand la nappe d’eau est à faible profondeur et quand le climat est chaud et sec. D’autres plantes, comme de nombreuses herbes des terrains salés, n’ont que des racines assez courtes et sont pourtant des phréatophytes assez actives. Il est évident que l’eau profonde peut remonter par capillarité au fur et à mesure que la plante l’épuise en surface.
- De nombreuses recherches restent à faire pour déterminer les conditions de propagation de ces plantes, les meilleures méthodes de destruction et aussi, pour certaines d’entre elles, leur utilisation éventuelle. La luzerne, qui figure parmi les phréatophytes à racines profondes, est la seule dont la valeur économique soit évidente. D’autres peuvent donner du bois, des
- p.275 - vue 278/558
-
-
-
- 276
- fibres, un fourrage dont la valeur reste à mesurer; d’autres peuvent stabiliser le sol, fournir nourriture et couvert aux animaux sauvages. Tous avantages éventuels seront à évaluer en tenant compte de la consommation d’eau.
- .1. G.
- Les facteurs écologiques de la pullulation des insectes
- La pullulation des insectes nuisibles pose un problème d’une acuité particulière dans la zone aride. L’emploi massif des insecticides, auquel on a souvent recours, présente des inconvénients majeurs, qui seront prochainement exposés dans cette revue. Il semble que de meilleurs résultats seraient obtenus à long terme en abordant le problème sous son aspect écologique, c’est-à-dire en étudiant d’abord quelles sont les conditions qui favorisent la pullulation des insectes. Cette opinion a été reprise, au colloque de l’Unesco, par M. Uvarov, qui s’est spécialement consacré aux recherches entomologiques sous l’angle agricole.
- Une première observation concerne les prairies soumises au surpâturage. Trop pâturées, les herbes deviennent courtes et espacées, ce qui transforme profondément les conditions écologiques et la composition de la faune. Les criquets et les sauterelles en profitent : la démonstration en a été faite de longue date en Europe et en Asie, plus récemment aux États-Unis et en Amérique du Sud. Les études désormais visent isolément chaque espèce d’insecte. Aux États-Unis, Dissosteira longi-pennis, qui se cantonnait tout d’abord dans les prairies, a envahi, depuis 1933, les champs cultivés.
- Dans l’Oklahoma, on a eu l’occasion de faire l’épreuve inverse : une prairie, protégée pendant dix-neuf ans contre le surpâturage, a vu sa population d’insectes réduite des trois quarts.
- Le défonçage et le labourage des terres vierges entraînent des bouleversements encore plus importants. L’humidité du sol, son aération, son exposition au soleil se trouvent profondément modifiées et les répercussions sur la faune sont pour ainsi dire immédiates. Dans les steppes de la Russie méridionales, 372 espèces d’insectes peuplaient les espaces vierges, avec une densité de 199 individus par métré1 carré. Moins de deux mois après le labourage, le” nombre 'dës‘ espèces n’était plus que de i35, mais la densité avait été portée à 35i/m2, avec une très forte proportion de parasites : les attises et les thrips du froment.
- Aiflsi bien aux États-Unis que dans les steppes russes (en bordure de la Mer Caspienne), les sauterelles prolifèrent dès que d’importantes surfaces sont nouvellement défrichées et surtout lorsque les céréales alternent avec les herbages.
- Mais les conditions les plus favorables sont offertes aux sauterelles quand des champs cultivés sont laissés en jachère. Au bout d’un ou deux ans elles commencent à retrouver leur nourriture préférée, composée d’armoises et d’herbes diverses que la culture avait précédemment éliminées. La compacité du sol est exactement celle qui leur convient pour déposer leurs œufs, condition qui n’est réalisée ni dans les terres labourées trop molles, ni dans les terres vierges trop dures. Deux régions, le Kazakhstan en Union Soviétique, le Dakota aux États-Unis, ont été infestées de sauterelles pour avoir voulu suivre la politique, sage en principe, qui consiste à laisser le sol se reconstituer en le mettant « au repos ».
- ,.É’.jrrioa6on, indispensable à la mise en culture de la zone aride', est en même temps la voie ouverte à de nombreux insectes nuisibles que l’absence d’humidité avait précédemment empêchés de se multiplier. Ainsi, dans des terres nouvellement irriguées de Californie, un papillon indigène, Colias eurylheme
- philodice, est devenu un redoutable ravageur, tandis que les champs de luzerne étaient envahis par l’aphide Thericaphis maculata. En Argentine, au Pakistan, les sauterelles et les criquets ont pu survivre, grâce à l’irrigation, pendant la saison sèche. Au Soudan, en Asie Soviétique, différentes espèces d’insectes se sont attaquées à des cultures irriguées, parmi lesquelles le coton, les courges et la luzerne.
- Une des observations les plus curieuses porte sur un coléoptère, Diabrotica balteata, parasite du concombre. Cet insecte, inapte à se déplacer en zone aride, vivait dans un secteur étroitement limité de Californie. Les canaux d’irrigation lui ont fourni un « chemin écologique », grâce auquel il s’est largement répandu.
- Voici encore un cas très différent, celui des rideaux d’arbres de la steppe soviétique. Une telle plantation en zone semi-aride n’avait jamais été entreprise à pareille échelle, ni avec un tel déploiement d’études scientifiques préalables. Or, dès que les rideaux d’arbres ont eu une hauteur suffisante pour protéger les cultures contre le vent de la steppe, on a vu la faune se modifier. Par endroits, les insectes xérophiles (c’est-à-dire vivant normalement en milieu sec) se, sont adaptés aux conditions meilleures qui s’offraient. Plus souvent, ce fut l’invasion des insectes mésophiles (vivant normalement en milieu intermédiaire), tels que la mouche de Hesse, l’oscine et les altises, D’autres (Eurygaster et Aelia) ont pu hiverner sur place, au lieu d’être contraints à de longues migrations qui auparavant les décimaient. On cite des secteurs où les ravages dus à cette faune ont annulé l’action positive des rideaux d’arbres sur la production agricole. Les arbres eux-mêmes ont souffert, notamment Populus balsamifera, exposé aux attaques des chenilles perce-bois.
- Les travaux des écologistes peuvent aboutir à l’élaboration de méthodes efficaces de défense. Un exemple mérite d’être mentionné : on a pu délimiter sur le continent africain certaines régions où des conditions écologiques particulières favorisent le développement intense de deux espèces de criquets, le criquet pèlerin et le criquet migrateur (voir La Nature, mars et avril 1955). A partir de ces régions, dites aires grégarigènes, les criquets se répandent sur tout le continent. La lutte contre ces ravageurs a été circonscrite sur ces aires. Une mise en surveillance analogue a été enti’eprise dans le delta de l’Amou-Daria, aire grégarigène d’un criquet asiatique. On n’en connaît pas encore le résultat.
- On voit toute l’importance des enquêtes écologiques, nécessairement annexées à tout programme de défrichage, d’irrigation ou de plantation dans la zone aride.
- G. C.
- Résistance des végétaux aux très basses températures
- Selon des expériences menées par un botaniste soviétique, l’académicien Tumanov, certains végétaux pourraient survivre après avoir été exposés à de très basses températures, voisines du zéro absolu. Les expériences ont porté sur des rameaux de bouleaux et de cassis qui ont été soumis à une congélation progressive. Après un premier refroidissement, atteignant graduellement une température voisine dp —40°, aboutissant au durcissement des rameaux, ceux-ci ont été plongés successivement dans l’azote liquide, puis dans l’hydrogène liquide où ils se sont trouvés pendant deux heures à la. température de —217°. Ils ont été ensuite replacés dans l’azote liquide.
- Une fois ramenés à la température normale, les rameaux ont repris le cours de leur végétation et ont donné des bourgeons. Ce résultat favorable est attribué à la méthode de durcissement progressif : des rameaux en effet, qui avaient été d’un seul coup soumis à une température de —14,3°, ont péri.
- p.276 - vue 279/558
-
-
-
- LE PIED DE L’ « HOMME DES NEIGES »
- 277
- Fig. 1 et 2. — Reconstitution en plâtre du pied de V « homme des neiges » (à gauche) et empreinte obtenue dans la neige avec le modèle (au milieu),
- La photographie de l’empreinte, à d’infimes détails prés, est semblable à celle qui a été rapportée de l’Himalaya par E. Shipton.
- (Photos W. Tschei\>ezky).
- Fig. 3 (à droite). — Moulage d’un pied de gorille.
- (Photos aimablement communiquées par W. TsciiEnNEZKY).
- On sait que d'après des témoignages recueillis dans les régions bimalayennes il existerait un être analogue à un homme de carrure très massive qui vivrait en haute altitude, à la limite des neiges éternelles, et qui ne se laisserait pas approcher. On n’a aucune idée de ce que pourraient être les mœurs et les moyens de subsistance de cet être mystérieux dont l’existence même a paru problématique aux meilleurs esprits. Il est appelé yeli dans la langue du pays et on l’a décoré du surnom peu flatteur d’ « abominable homme des neiges ».
- lin membre de l’Everest Foundation, M. Eric Shipton, a rapporté d’une expédition dans l’Himalaya une photographie qui représenterait l’empreinte d’un pied de yeli dans la neige. M. W. Tschernezky, du Queen Mary College, s’est livré à une étude approfondie de ce document et il en a livré les résultats dans la revue britannique Nature (7 mai i960).
- En vue de faciliter son étude, W. Tschernezky a reconstitué, d’après le cliché de Shipton, un modèle en plâtre du pied (fîg. 1) et il a constaté, en imprimant ce modèle dans la neige, la similitude presque absolue de la trace ainsi obtenue (fig. 2) avec la trace originale. Considérant que cette épreuve vérifiait la fidélité du modèle, W. Tschernezky en indique les mesures qui sont 3i,a5 cm de longueur, 18,76 cm de largeur pour la partie antérieure du pied, 16,26 cm de largeur pour le talon.
- La largeur anormale de ce pied a pu faire penser que l’empreinte avait été déformée, par suite de la fusion de la neige : il ne semble pas que celte objection doive être retenue, en raison de la netteté de l’empreinte et de sa ressemblance avec l’empreinte du modèle en plâtre. L’auteur note d’ailleurs que la largeur relativement à la longueur (60 pour 100 chez l’homme des neiges) rappelle une caractéristique analogue chez le néanderthaloïde de Kiik Koba (Crimée) où le rapport est de
- 42,8 pour 100. Il compare en outre le modèle de l’homme des neiges à un pied de gorille (fig. 3) où il croit retrouver, malgré la moindre largeur, certaines analogies frappantes : éléments du tarse comptant pour seulement 3q pour 100 de la longueur du pied (dans l’axe du troisième doigt) alors que chez l’homme le rapport atteint 5a pour 100; développement beaucoup plus grand du talon chez le gorille que chez l’homme.
- W. Tschernezky ajoute d’autres observations concernant les doigts. Le pouce semble porter une grande partie du poids du corps. Selon toute apparence, il est opposable et peut servir à la préhension et pour grimper. Il est en tout cas très épais et nettement séparé des autres doigts. Sa forme serait en relation avec des os du métatarse anormalement courts. C’est ce même caractère du squelette qui justifierait la longueur exceptionnelle du second doigt, lui aussi séparé, non seulement du pouce, mais de la série des 3e, 4e et 5e doigts. H. Klaalsch a décrit le pied d’un indigène d’Australie où le second doigt est également très allongé. L’explication fonctionnelle serait que le pouce opposable perd une partie de son efficacité pour la marche en station droite et que le second doigt se renforce et s’allonge en vue de constituer un appui supplémentaire
- Les autres doigts, par contre, ont des caractères spécifiquement « humains » avec une tendance à la syndactylie : seules les extrémités distales ont imprimé leur séparation dans la neige.
- La marche en station droite serait confirmée (sur le cliché original) par les déplacements de masses de neige, en arrière du talon. En résumé, W. Tschernezky pense pouvoir s’associer à l’opinion selon laquelle 1’ « homme des neiges » serait un primate imposant et massif, apparenté au Giganlopilhecus fossile.
- R. A.
- Smog contre grippe
- On avait déjà observé que la pollution atmosphérique, en général très préjudiciable à la santé des populations urbaines, avait par contre une action inhibitrice à l’égard de certains germes pathogènes. Ce fait a été récemment confirmé par les travaux conduits à Los Angeles par .les docteurs R. D. Roche et J. J. Guilligan.
- Los Angeles est, on le sait, la ville qui possède, aux États-Unis, le record du smog (pollution rabattue en permanence vers le sol, en raison des conditions physiques locales de l'atmosphère). Et la composition du smog y a. été attentivement étudiée.
- Les chercheurs ont donc pu réaliser un air fortement chargé en smog où ils ont placé des souris pendant une période de deux mois. Ces souris ont reçu une inoculation de virus grippal puis
- onL été replacées dans le même milieu pollué. Au bout de l'expérience, il a été prouvé que ces animaux avaient une résistance à l’infection très supérieure à celle d’un groupe témoin, également inoculé mais maintenu en atmosphère pure. Les travaux ont été complétés par l’examen m vitro de virus grippal exposé à des constituants du smog, réalisés par synthèse. Le Arirus, à la suite de cette exposition, perdait son pouvoir pathogène.
- On souhaiterait que ces indications soient confrontées avec'lés1 statistiques épidémiologiques de Los Angeles. 11 sied de remarquer, d’autre part, que les agressions chimiques des éléments polluants de l’atmosphère ont toutes les chances de créer un terrain physiologique de moindre résistance aux différentes maladies.
- p.277 - vue 280/558
-
-
-
- 278
- L’ÉTUDE DU SOLEIL
- durant l’Année géophysique internationale
- Dans un article récent (La Nature, avril i960, p. 146) M. James bequeux exposait a ce que les satellites artificiels ont déjà appris sur les rayons cosmiques et les particules aurorales ». Cet article évoquait naturellement l’influence des émissions .solaires sur les ceintures de particules qui entourent îa Terre. Nous sommes heureux de publier aujourd’hui un exposé de M. B. Michard, chef du service solaire à l’Observatoire de Paris, sur les études récentes qui ont trait plus directement à l’activité
- du Soleil.
- UN bilan actuel des progrès accomplis dans la connaissance du Soleil, grâce à l’Année géophysique internationale, ne peut être que provisoire et incomplet. Tout comme les spécialistes des autres disciplines qui participaient à cette grande entreprise, les astronomes ont rempli leurs armoires et leurs classéurs d’innombrables clichés, de films, d’enregistrements, de catalogues : les observatoires n’ont pas encore eu le temps de digérer ce repas pantagruélique. D’ailleurs la coopération internationale réalisée lors de l’A.G.I. s’est poursuivie en 1959 avec des buts identiques; elle se poursuit encore afin de publier sous une forme directement utilisable à des études comparatives les documents récoltés par les techniques les plus variées. En pratique, l’Année géophysique n’est pas encore achevée !
- Cette restriction faite, la physique du Soleil a enregistré au cours des trois dernières années des progrès très remarquables ; certains d’entre eux auraient certainement été obtenus même sans l’effort particulier de l’A.G.I., mais beaucoup résultent de ce branle-bas général proposé par les géophysiciens !
- Pourquoi d’abord l’étnde du Soleil avait-elle sa large place dans une entreprise orientée (comme son nom l’indique) vers une meilleure connaissance de notre globe P C’est que l’état physique de l’atmosphère terrestre, particulièrement de la haute atmosphère, est conditionné par les phénomènes solaires. Par exemple, la formation des couches électriquement conductrices de l'ionosphère, si importante pour les télécommunications, est due à l’action ionisante des rayons ultraviolets et des rayons X du Soleil. Ce rayonnement est très variable car il est émis surtout dans des régions localisées de la surface solaire, les centres d'activité (*) dont la durée de vie se compte en jours ou en semaines et qui se renouvellent constamment. Des phénomènes soudains et de très courte durée, les éruptions solaires, sont particulièrement importants du point de vue de leurs effets terrestres.
- Les géophysiciens avaient donc besoin d’être renseignés de manière aussi complète que possible sur les phénomènes de l’activité solaire qui contrôle de manière plus ou moins étroite le géomagnétisme, l’ionosphère, les aurores polaires, le rayonnement cosmique et, peut-être même, la situation météorologique.
- Comme il est bien connu, l’activité solaire possède une périodicité de n ans environ; en 1954-1955 il n’y avait pour ainsi dire pas de taches sur le Soleil. Le maximum suivant étant prévu pour 1957-1958, c’est cette période qui fut choisie pour l’A.G.I., en vue justement d’étudier à fond la complexité des perturbations de la haute atmosphère lorsque l’activité solaire est la plus élevée. Les espoirs des géophysiciens ne
- 1. Le signe le plus aisément observable de l’existence d’un centre d’activité est le groupe de taches qu'il contient.
- furent pas déçus, car le maximum de 1957-1958 dépassa en intensité tous les précédents !
- Pour répondre aux exigences de la géophysique, il a donc fallu observer des phénomènes solaires déjà connus d’une manière beaucoup plus complète et systématique. C’est surtout naturellement dans l’étude des phénomènes à évolution rapide, éruptions, envols de protubérances, etc., que des progrès ont été réalisés par suite de la plus grande continuité des observations, ou de l’emploi de techniques meilleures et plus variées. Dans le même temps (profitant parfois de facilités matérielles supplémentaires grâce à l’effort financier important consenti en de nombreux pays à l’occasion de l’A.G.I.) certains observatoires ont réalisé des installations nouvelles et importantes pour l’élude approfondie de problèmes solaires (2) : celui des champs magnétiques à la surface de l’astre en particulier. Le but n’était plus alors de fournir aux géophysiciens des documents solaires à confronter avec les phénomènes terrestres : cependant ces travaux proprement astrophysiques sont, dans bien des cas, à porter au crédit de l’Année géophysique.
- Enfin des résultats extrêmement intéressants pour la physique solaire ont été obtenus grâce au développement, à l’occasion de l’A.G.I., de la recherche spatiale à l’aide des fusées et des satellites artificiels.
- Ainsi, nous avons dégagé trois lignes de force des progrès de la physique solaire au cours de l’A.G.I. : observations systématiques et continues, application d’instruments nouveaux et recherche au delà de l’atmosphère. Nous donnerons maintenant quelques exemples des résultats obtenus dans ces différentes voies, sans prétendre d’ailleurs épuiser le sujet.
- Surveillance des centres d’activité. — Centres d'activité. — Un ensemble complexe de phénomènes solaires, situés à différents niveaux dans l’atmosphère de l’astre et observables par des techniques très diverses, trouve son unité dans la notion de « centre d’activité ». On considère aujourd’hui que la formation d’un tel centre est due à l’arrivée à la sui’face du Soleil d’une perturbation magnétique : au sein d’un volume limité de matière solaire s’est développé, dans les profondeurs de l’étoile, un champ magnétique élevé. Une structure relativement simple du champ, prévue par la théorie du physicien suédois Alfvén, serait une sorte d’anneau de lignes de force refermées sur elles-mêmes. Lorsque ce tube de champ magnétique, entraînant la matière qu’il imprègne, parvient à la surface de l’astre, celle-ci le coupe suivant les deux taches d’un groupe bipolaire.
- Le groupe bipolaire de taches constitue en effet la formation la plus typique et l’armature, peut-on dire, des centres d’activité. Sa vie débute par l’apparition sur la photosphère de deux petites taches assez voisines, qui s’écartent progressivement tout en grandissant, le diamètre des taches peut atteindre 60 000 km et l’écartement des deux composantes principales du groupe i5o 000 km. La tache de queue (celle qui est à la traîne dans la rotation solaire et qui est par conséquent à l’Est de la tache de tête) décroît et disparaît la première, la tache de tête restée seule est unipolaire. Cette terminologie correspond à la découverte, vieille déjà de plus de 5o ans, du champ magnétique intense qui règne dans les taches : dans le cycle d’activité actuel (1956-1966 ?) la tache de tête d’un groupe de
- 2. Comme exemple de telles réalisations on peut citer l’équipement complet d’un laboratoire de spectroscopie solaire que nous avons pu réaliser, installer et faire fonctionner à l’Observatoire du Pic du Midi. Ce projet, résultant d’une coopération entre l’Observatoire du Pic du Midi et l’Observatoire de Paris, a reçu l’appui du Comité national pour l’A.G.I.
- p.278 - vue 281/558
-
-
-
- l’hémisphère solaire Nord est un pôle magnétique Nord et la tache de queue un pôle Sud, disposition qui s’inverse dans l’hémisphère Sud et qui s’inverse également d’un cycle de ii ans au suivant.
- Autour des taches sombres, le centre d’activité se marque par des « plages faculaires » brillantes, particulièrement bien visibles sur les clichés obtenus en lumière monochromatique (spectrohéliogrammes) à l’aide des radiations émises dans la chromosphère, quelques milliers de kilomètres au-dessus de la couche photosphérique responsable du spectre continu.
- Plus haut encore, dans la couronne, des condensations à température élevée surmontent le centre d’activité et émettent un llux radioélectrique intense. Les protubérances sont aussi des condensations de la matière coronale, mais à température relativement basse au contraire. Au voisinage des centres d’activité, les protubérances sont fréquemment instables; leurs mouvements internes rapides, et parfois leur éclatement et l’envol d’une partie de leur matière, ont été filmés dans de nombreux observatoires et ce grandiose phénomène naturel a pu ainsi être révélé à un large public.
- Pour en finir avec cette brève récapitulation des phénomènes qui constituent un centre d’activité, il convient d’insister sur les éruptions. Lorsqu’on observe la chromosphère dans une région active on voit assez fréquemment apparaître un ou plusieurs petits points brillants qui, en quelques minutes, atteignent un éclat 5 fois supérieur à celui de la chromosphère normale; ils s’étendent, se réunissent par des filets lumineux,
- puis leur éclat diminue et en quelques dizaines de minutes le calme est revenu. En môme temps que se déclenche l’éruption optique, on observe un sursaut brutal du rayonnement radioélectrique solaire, sursaut d’ailleurs très variable dans sa durée et son intensité. Il y a en fait plusieurs types de sursauts radioélectriques associés aux éruptions, correspondant à des mécanismes d’émission différents.
- L’éruption produit aussi des radiations ultraviolettes et des rayons X qui se révèlent par leurs effets terrestres : augmentation de l’ionisation de la haute atmosphère cl descente des couches de l’ionosphère vers des altitudes plus basses, avec les conséquences bien connues sur les télécommunications : évanouissement des transmissions en ondes courtes, augmentation des parasites atmosphériques de basse fréquence, etc., dont l’ensemble constitue la perturbation ionosphérique. à début brusque; avec aussi une perturbation soudaine dans le champ magnétique terrestre, dite crochet magnétique.
- Enfin les éruptions projettent dans le milieu interplanétaire des nuages de particules élémentaires, protons et électrons; ce rayonnement corpusculaire se divise en deux catégories bien distinctes : d’abord des particules de grande énergie qui atteignent la Terre avec un délai d’une heure environ, et qui s’ajoutent au flux de rayons cosmiques qui nous arrivent constamment de l’espace. Seules probablement les éruptions solaires les plus importantes accélèrent des rayons cosmiques. D’autre part il y a production de nuages corpusculaires de faible vitesse (environ i ooo km/s) qui ne parviennent à la Terre qu’avec
- MEUDON
- PIC DU MIDI
- 13 10 59
- Bril.— f a I bl 6
- POLE NORD
- R = 81 Qu.al.= 2
- ------8
- . POLE SUD
- Dole de la dernière carte -12 10
- Fig. 1. — Carte du Soleil distribuée quotidiennement par l’Observatoire de Paris-Meudon.
- Cette carte donne les positions des taches et des plages faculaires brillantes, des protubérances, les intensités des raies d’émission de la couronne (mesurées au Pic du Midi) ; les éruptions signalées par les observatoires du monde entier sont marquées par un carré noir, et leurs heures indiquées en annexe
- p.279 - vue 282/558
-
-
-
- 280
- un délai de 3o heures en moyenne : ces bouffées de gaz ionisé sont responsables des aurores polaires, ainsi que des grands orages magnétiques et ionosphériques.
- Enregistrement des éruptions solaires. — Cette simple énumération des effets géophysiques des éruptions explique les efforts entrepris pour les détecter par des moyens optiques sans en laisser passer aucune : il faut en même temps reconnaître leur localisation sur le Soleil et chiffrer leur importance de manière aussi objective que possible. Les éruptions sont, à part de rares exceptions, inobservables en lumière blanche : le phénomène lumineux affecte essentiellement la chromosphère et n’est sensible que pour les radiations émises dans cette couche de l’atmosphère solaire, par exemple les raies Ha et de l’hydrogène. L’isolement de la radiation intéressante peut être obtenu grâce au spectrohéliographe inventé en 1891 par G. E. Haie aux États-Unis et IL Deslandres en France, ou à l’aide du filtre polarisant imaginé par l’astronome parisien B. Lyot vers igoo.
- Une collaboration internationale pour l’observation des éruptions a été organisée dès ig34; le but était, grâce au travail concerté d’observateurs convenablement répartis sur le globe, de réaliser une surveillance continue de la chromosphère solaire, malgré tous les obstacles que la nature a semés sur le chemin des astronomes : la nuit, les nuages, les mauvaises saisons. On comprend aisément qu’un grand nombre de stations d’observation est nécessaire pour obtenir ce résultat. En fait il n’a jamais été atteint avant l’A.G.I. Durant l’été ig4g, période de très beau temps dans une grande partie de l’hémisphère Nord, et où l’activité solaire très élevée incitait les observateurs à l’assiduité, la surveillance ne couvrait que 17 h par jour en moyenne. Durant l’A.G.I. les 24 heures ont été couvertes presque complètement : 46 observatoires ont participé à la surveillance ! D’ailleurs une partie importante de ce travail a été exécutée par des héliographes automatiques, qui sont moins sujets à l’inattention que des observateurs humains et qui fournissent des documents objectifs et permanents, en fait des films du Soleil, en radiation Ha, les images étant prises à la cadence d’une par minute en général.
- L’héliographe monochromatique (et automatique) (voir La Nature, juin 1966, p. 219) est une petite lunette équipée d’un filtre polarisant de Lyot qui isole la raie chromosphérique lia. L’image solaire de i5 mm de diamètre environ se forme sur le film d’une caméra 35 mm; l’obturateur, indépendant de l’avance du film, est contrôlé par un photomètre à cellule qui règle le temps de pose selon la transparence du ciel et, en cas de nuages, arrête la prise des vues. Un viseur équipé de cellules photoélectriques donne ses ordres à un servo-mécanisme qui maintient la lunette exactement pointée sur le Soleil. L’observatoire de Meudon a été un des premiers à posséder un tel appareil; conçu par Bernard Lyot, il a été réalisé par ses élèves après sa mort prématurée et fonctionne depuis ig54. L’appareil de Meudon (figure de la couverture) a inspiré la construction d’un modèle industriel, dû à la firme Secasi de Bordeaux, dont plusieurs exemplaires ont été fournis à des observatoires étrangers, aux États-Unis, en Chine, au Japon, en Union Sud-Africaine. En tout une vingtaine d’héliographes automatiques sont en service actuellement, et il est probable qu’au cours du prochain maximum d’activité solaire un film continu de la surface solaire pourra être réalisé. Celte « co-production » battra certains records, car dix ou vingt pays peut-être devront y participer !
- Observations coronales. — Nous arrivons maintenant à l’enveloppe externe du Soleil, enveloppe qui peut être caractérisée par sa très faible densité et son énorme température, environ 2 millions de degrés. Le gaz coronal est presque complètement transparent dans le spectre visible et la couronne ne se révèle à nous que durant les éclipses totales. Mais quelques
- observatoires de montagne, une dizaine dans le monde, sont équipés pour voir et étudier la couronne chaque jour de beau temps grâce au coronographe de Lyot. D’autre part, c’est la couronne qui émet le spectre radioélectrique du Soleil, de sorte que les radioastronomes sont à même de l’observer malgré nuages ou pluie. Dans le domaine optique comme dans le domaine radio, l’A.G.I. a entraîné de grands progrès dans l’étude de la couronne : nous nous limiterons à des exemples.
- Le spectre optique de la couronne est dû essentiellement à la diffusion de la lumière solaire par les électrons du gaz coronal, et sa brillance n’excède pas r/i 000 000 de celle du Soleil. Cette très faible lumière ne se discerne pas, en temps ordinaire, sur le fond beaucoup plus intense du ciel de plaine, auquel s’ajoute un « voile » brillant dû à la lumière solaire diffusée par les surfaces optiques des télescopes. La haute montagne, et la lunette spéciale (coronographe) inventée par Lyot, ne remédient que partiellement à cette difficulté, et des conditions excep-
- Figr. 2. — La couronne solaire photographiée au coronographe
- (25 mars 1959) à travers un filtre de Lyot isolant la raie d’émission de Fe XIV à 5 303 Â.
- Un disque noir masque la photosphère sauf pour quatre petites plages où des écrans absorbants convenables permettent la comparaison photométrique de la couronne au Soleil.
- (Photo Observatoire du Pic du Midi).
- tiormelles sont encore nécessaires pour photographier la couronne « blanche ». Peu avant, ou pendant. l’A.G.I., des photomètres photoélectriques merveilleusement sensibles ont été mis au point, qui permettent de détecter et de mesurer la faible lumière coronale sur le voile beaucoup plus brillant de lumière parasite. Notons que la lumière coronale est assez fortement polarisée, la vibration privilégiée étant, en chaque point, tangente au disque solaire; cette circonstance permet seule de la distinguer de la lumière du ciel. Des « coronomètres » à polarisation ont été construits à l’Observatoire de l’Université de Colorado (d’ailleurs sous la direction de l’astronome parisien G. Wlérick) et à l’Observatoire de Paris-Meudon (A. Dollfus). Ces appareils remarquables permettent d’obtenir chaque jour de beau temps des informations comparables à celles que fournit la photographie d’une éclipsé totale !
- Superposé au continuum de lumière blanche, le spectre de la
- p.280 - vue 283/558
-
-
-
- Fig\ 3. — Le grand interféromètre radioélectrique de la Station de Nançay (Sologne).
- On voit ici la branche Est-Ouest dont les 32 miroirs paraboliques s’échelonnent sur une longueur de 1 800 m. La branche Nord-Sud a une longueur
- de 900 m, avec 8 miroirs (Photo Observatoire de Nançay).
- couronne présente un petit nombre de raies d’émission dues à des atomes qui ne peuvent exister que sous des températures énormes, autour de i million de degrés. Ces atomes sont ceux d’éléments courants (Fe, Ca, etc.) qui ont perdu sous l’effet de la haute température une part de leurs électrons. Par exemple la raie verte de la couronne, la plus intense de son spectre, est due au fer ionisé i3 fois. Vue à travers un fîlti’e qui isole cette raie d’émission, la couronne est io à ioo fois plus brillante qu’en lumière blanche (relativement au ciel), ce qui facilite grandement l’étude de sa structure et de son évolution. D’ailleurs l’observation des raies d’émission de la couronne apporte des informations sur sa température, tandis que l’observation du spectre continu n’indique guère que sa densité.
- A l’Observatoire du Pic du Midi, on a commencé durant l’A.G.I. à photographier régulièrement la couronne à travers des filtres monochromatiques Lyot isolant l’une ou l’autre des principales raies d’émission. Cette technique n’est pas nouvelle car Lyot lui-même avait utilisé le filtre de son invention à la cinématographie des structures coronales. Mais les perfectionnements apportés depuis et l’utilisation systématique de la méthode entraîneront sans doute de riches moissons (fig. 2).
- Observations radioastronomiques. — Un autre aspect de l’étude de la couronne mériterait de longs développements : il s’agit en fait de l’en semble de la radioastronomie solaire. Les radioastronomes reçoivent du Soleil des émissions de longueurs d’onde comprises entre 1 cm et 10 m environ (3o 000 à 3o Mc/s). La totalité de ce rayonnement est émise dans la couronne, mais à chaque fréquence correspond un niveau assez bien déterminé de l’atmosphère solaire; en effet, les
- ondes émises dans une couche ne peuvent en sortir que si la densité électronique du gaz situé au-dessus est inférieure à une certaine limite, laquelle décroît très vite avec la fréquence. Le rayonnement coronal sur ondes métriques provient donc de couches externes, à 100 000 km ou plus de la surface solaire, tandis que les ondes centimétriques proviennent des couches basses situées à la limite de la chromosphère (5 à 100 000 km). En mesurant par exemple la gamme de fréquence dans laquelle se produit une émission radiosolaire déterminée, disons un sursaut, on peut savoir quelles sont l’altitude et l’épaisseur de l’élément de couronne qui en est la source. La variation de la bande de fréquence occupée par le sursaut indique un déplacement de la source en altitude.
- Le grand intérêt de l’étude radioélectrique de la couronne est qu’elle révèle des phénomènes entièrement inaccessibles à l’observation optique : ceci n’est pas un effet de quelque manque d’ingéniosité des astronomes ! Mais le gaz coronal est presque totalement transparent aux ondes lumineuses et par conséquent n’en émet que des quantités insignifiantes : seuls les phénomènes intéressant de grands volumes de gaz, et aussi suffisamment durables, sont décelables optiquement. En revanche les radioastronomes enregistrent des sursauts d’émission dont la durée n’excède pas 0,2 s et dont les sources seraient de petits « nuages » coronaux de quelques centaines de kilomètres seulement. On les appelle sursauts de type I ou, plus joliment, des a pips ».
- La grande difficulté des radioastronomes reste la localisation précise à la surface du Soleil des émissions observées : il faut pour cela des antennes extrêmement directives, c’est-à-dire en pratique de dimensions aussi grandes que possible par rapport
- p.281 - vue 284/558
-
-
-
- 282
- Fig. 4. — L’un des miroirs paraboliques de l’interféromètre de Nançay (branche Nord-Sud).
- (Photo Observatoire de Nançay).
- à la longueur d’onde utilisée. Durant les dernières années, les efforts de la radioastronomie solaire ont été orientés sur le plan technique vers la mesure exacte des positions et des dimensions des sources et, par ailleurs, vers une meilleure analyse spectrale de leur rayonnement; des observations avec une meilleure résolution dans le temps ont aussi été effectuées, permettant de
- détecter individuellement des signaux solaires durant moins de 0,1 s.
- Durant toute l’Année géophysique, les physiciens de Sydney ont obtenu des « radiohéliogrammes », c’est-à-dire des cartes journalières de l’émission solaire sur 20 cm de longueur d’onde. Ces documents montrent de manière frappante la distribution des condensations coronales au bord et en avant du disque solaire, et leurs relations avec les centres d’activité. L’instrument d’observation est un interféromètre radioélectrique comprenant 32 miroirs paraboliques. L’ensemble est équivalent à une antenne unique très directive dont le lobe principal a une ouverture angulaire de 3 minutes. C’est avec cette précision que les sources d’émission solaire peuvent être localisées (rappelons que le diamètre apparent du Soleil « optique » est 32' environ).
- A la Station de Nançay en Sologne les radioastronomes français ont achevé durant l’A.G.I. le grand interféromètre qui fonctionne sur 1,77 m de longueur d’onde. Sur 20 cm, l’émission solaire est « thermique » ; autrement dit les mouvements de charges électriques qui produisent les ondes hertziennes sont des mouvements désordonnés dus à la haute température du gaz ionisé. Au contraire sur 1,77 m il existe différents types d’émissions « non thermiques », dues à des mouvements organisés et cohérents de charges électriques. Les mécanismes de la plupart des émissions non thermiques sont encore obscurs. Un seul est établi avec certitude, celui des sursauts de type IV, dont J. Denisse et ses collègues de l’Observatoire de Paris ont montré l’importance : il s’agit du rayonnement émis par des électrons (et protons) accélérés à de très grandes vitesses dans un champ magnétique. On donne à ce phénomène qui se produit dans les grands accélérateurs de particules de la physique nucléaire le nom «d’effet synchrotron ». Une partie des charges, échappant au champ magnétique, sont éjectées loin du Soleil sous forme de rayons cosmiques. Effectivement, les radioastronomes français ont trouvé une étroite corrélation entre les sursauts de type IV observés durant certaines grandes éruptions solaires et les rayons cosmiques primaires détectés en ballon
- W
- 5
- JANUARY 1959
- Fig:. 5. — Carte récapitulative de l’activité radioélectrique du Soleil pendant un mois, établie à l’aide des observations du grand interféromètre de Nançay.
- En abscisses le temps, en ordonnées la longitude des sources radio-solaires dont une échelle de teintes permet d’apprécier l’intensité. Remarquez que les centres s’étendent fort loin au delà des lignes horizontales marquées E et W, c’est-à-dire au delà des bords du Soleil « optique ».
- (Document. Observatoire de Paris-Meudon).
- 10
- 15
- 20
- 25
- 30
- JANUARY
- p.282 - vue 285/558
-
-
-
- 283
- quelques dizaines de minutes ou quelques heures après ces mêmes phénomènes.
- Cette découverte de la radioastronomie solaire jette un jour nouveau (surtout si on la rapproche des interprétations similaires avancées pour des sources radioélectriques telles que la célèbre Nébuleuse du Crabe (3)) sur le problème, resté mystérieux pendant trente ans, de l’origine des rayons cosmiques.
- Un problème de la physique des centres d’activité
- Pendant une centaine d’années, les astronomes ont étudié l’activité solaire : taches, protubérances, éruptions, etc., d’un point de vue de « naturalistes », se bornant à enregistrer, à classifier, à mesurer les phénomènes sans bien comprendre les mécanismes en jeu. Aujourd’hui cette situation est changée, car il est universellement admis que l’on a affaire essentiellement à des forces électromagnétiques. Pour comprendre les mouvements d’une protubérance qui s’envole malgré la gravitation, ou pour expliquer qu’une tache est plus froide de i ooo° que le reste de l’atmosphère solaire, il faut faire intervenir l’énergie présente sous forme de champ magnétique, et ses interactions avec l’énergie thermique ou mécanique des gaz solaires.
- Les problèmes théoriques posés sont d’autant plus difficiles que la physique « terrestre » des gaz ionisés en est encore à ses débuts. L’électrodynamique classique est surtout celle des corps solides non conducteurs, ou médiocres conducteurs, de l’électricité : le cas astrophysique est différent car il s’agit de gaz presque infiniment conducteurs (à cause de leur très haut degré d’ionisation), très peu denses, avec des dimensions énormes et des champs magnétiques souvent forts. Actuellement les physiciens s’intéressent beaucoup aux gaz ionisés, appelés souvent plasmas, en particulier dans le cadre des efforts entrepris pour domestiquer l’énergie thermonucléaire. Les progi'ès dans ce domaine, qui touche à la fois à la physique et à l’astrophysique, sont très rapides, ce qui a conduit en particulier au développement d’observations solaires nouvelles, celles des champs magnétiques.
- Il y a cinquante ans que Haie a découvert les champs magnétiques des taches solaires et qu’on les mesure systématiquement à l’Observatoire de Mount Wilson. Mais ces données assez sommaires ne pouvaient guère servir qu’à des recherches statistiques; on s’efforce au contraire aujourd’hui de déterminer les champs magnétiques sur toute la surface du Soleil, de mesurer dans tous ses détails leur géométrie à l’intérieur des groupes de taches, d’étudier leurs variations en liaison avec le déclenchement des éruptions.
- Les informations que nous pouvons obtenir sur le champ magnétique en un point de la surface solaire sont tirées de l’analyse spectroscopique de la lumière émise en ce point : on sait que le champ décompose les raies d’absorption (ou d’émission) caractéristiques des différents éléments, phénomène connu sous le nom d'effet Zeeman (4). Dans le cas le plus simple, une raie affectée par l’effet Zeeman comporte 3 composantes dont l’écartement dans l’échelle des longueurs d’onde est proportionnel au champ (fig. 6). L’intensité et la polarisation de la lumière contenue dans chaque composante dépendent de l’orientation du rayon lumineux par rapport au champ.
- Ainsi, la spectroscopie nous permet de mesurer les champs magnétiques en grandeur et en direction, du moins en théorie. En pratique l’information obtenue dépend de l’intensité du
- 3. Voir : La Nébuleuse du Crabe et son rayonnement synchrotron, par J. Leqveux et J.-L. Steinberg, La Nature, mars I960, pp. 89-93.
- 4. Les raies, ou radiations caractéristiques de chaque atome, sont dues aux transitions de cet atome d’un état d’énergie à un autre. En présence du champ, le petit circuit électrique de l’atome peut s’orienter de différentes manières, ce qui correspond à la décomposition de chaque état d’énergie possible en plusieurs états distincts.
- champ : si celui-ci est fort, plus de i ooo gauss, une analyse détaillée des composantes Zeeman est possible; s’il est faible (quelques gauss à quelques centaines) la décomposition du triplet Zeeman est à peine « ébauchée » et l’on ne peut mesurer en fait que la grandeur du champ, ou plus exactement sa projection sur la ligne de visée.
- Sur le plan technique, différentes méthodes d’une grande ingéniosité ont été conçues dans les observatoires pour mesurer les champs solaires. Le magnélographe photoélectrique de Pasa-dena (Californie) fournit de manière quasi automatique une carte des champs magnétiques faibles de la surface solaire : des champs inférieurs à i gauss sont détectés. On a constaté ainsi que le Soleil possède une structure magnétique très complexe : dans les régions équatoriales des champs d’une dizaine de gauss s’étendent autour des taches solaires et prolongent les champs très élevés de ces dernières, obéissant aux mêmes lois précises de polarité. Les calottes polaires sont le siège d’un champ très faible dont la polarité semble changer au cours du cycle de ii ans de l’activité solaire. 1
- A l’Observatoire de Crimée et aussi au Mount Wilson, des magnétographes du même genre ont été adaptés à l’étude détaillée des centres d’activité. Les astronomes soviétiques ont
- Fig. 6. — Décomposition des raies de Fraunhofer par l’effet du champ
- magnétique (effet Zeeman) dans une tache et en son voisinage.
- Les bandes horizontales sont dues à un accessoire optique placé devant la fente du spectrographe (analyseur de polarisation circulaire) ; deux bandes successives transmettent l’une la vibration circulaire droite, l’autre la vibration circulaire gauche du triplet Zeeman, autrement dit, l’une, la composante violette, l’autre, la composante rouge, ce qui donne à la raie en présence du champ un aspect en zigzag caractéristique. Les raies fines non affectées sont dues à l’atmosphère terrestre. Valeur du champ dans la tache : 2 800 gauss.
- (.Document Observatoire de Paris, obtenu à l’Observatoire du Pic du Midi).
- abouti à un résultat de grande importance. Selon eux, les éruptions solaires se produisent en des points bien particuliers de la configuration magnétique des centres d’activité : points où le champ est nul, mais au voisinage desquels il augmente très rapidement. De plus l’occurrence d’une éruption modifie le champ initial, tendant à simplifier sa configuration et à diminuer son énergie potentielle. Il semble donc que l’énergie produite dans une grande éruption, énergie de l’ordre de io16 à io17 kilowatt-heures (environ un million de fois la production annuelle de l’E.D.F.), soit empi'untée au champ magnétique. Ceci a conduit à une théorie élégante des éruptions, basée sur l’instabilité de certaines configurations des champs magnétiques.
- Pour la première fois, l’astrophysique dispose d’une explication plausible du très important phénomène que sont les éruptions. Il est juste de dire que la théorie est encore sommaire et ses bases observationnelles discutées. Les observations
- p.283 - vue 286/558
-
-
-
- 284
- meilleures et plus nombreuses de l’avenir révéleront sans doute des complexités inconnues, bien que suspectées aujourd’hui. Cependant les résultats obtenus en 1957 dans l’étude magnétique des centres d’activité apparaîtront comme un progrès décisif.
- Le Soleil vu par les fusées
- L’atmosphère terrestre fixe à 3 000 Â la longueur d’onde minimale des ondes lumineuses observables au sol. Les ondes ultraviolettes plus courtes sont absorbées, d’abord par l’ozone ’atmosphéi’ique, puis au-dessous de 1 900 A pai l’oxygène moléculaire, relayé aux longueurs d’onde encore plus courtes par l’oxygène atomique et l’azote dans les deux états N et N2.
- Le 10 octobre 1946, les physiciens du Naval Research Laboratory réussissaient à photographier le spectre solaire ultraviolet à l’aide d’un appareil monté sur une fusée Va- qui atteignit une centaine de kilomètres d’altitude (fig. 7). C’était la première d’une série d’expériences qui ont abouti à une connaissance directe du rayonnement solaire dans le domaine ultraviolet et X. On savait d’ailleurs l’existence de ce rayonnement, car c’est lui qui est responsable de la formation des couches de Vionosphère : ces couches étagées de 80 à 3oo km d’altitude contiennent une proportion suffisante d’électrons libres et d’ions 02+, N2+, 0+, N+, etc., pour être électriquement conductrices (5), et cette ionisation est due à l’ultraviolet solaire. L’étude des variations de l’ionosphère avait permis de mettre en évidence la variation du flux ultraviolet au cours du cycle de 11 ans de l’activité solaire et de montrer l’intense émission qui accompagne les éruptions.
- Au cours de l’Année géophysique, des dizaines de lancers de fusées ont eu lieu aux États-Unis et en U.R.S.S. afin d’étudier à la fois la lumière solaire aux courtes longueurs" d’onde et la
- 5. Les couches de l’ionosphère réfléchissent donc vers le sol les ondes radioélectriques de longueurs d’onde convenables, permettant ainsi les télécommunications tout autour du globe.
- manière dont elle est absorbée dans notre atmosphère. Entre 3 000 et 2 000 Â le spectre solaire n’est pas très différent de celui qui nous est familier, composé d’un continuum coupé par une foule de raies d’absorption (raies de Fraunhofer). Au-dessous de 2 000 A les raies d’absorption disparaissent progressivement et sont remplacées par des raies brillantes dont la plus intense est due à l’hydrogène (Lyman a, 1 216 A). Ce spectre extraordinaire a pu être photographié jusqu’à environ 5oo A. Les raies d’émission appartiennent à des atomes ionisés une ou plusieurs fois et sont produites dans les couches de température élevée qui forment la transition entre la chromosphère et la couronne.
- La méthode des photographies monochromatiques, si largement utilisée par les astronomes pour l’étude de la chromosphère, a été adaptée aux fusées, et des images très satisfaisantes du Soleil ont été obtenues avec la raie Lyman a. On constate que l’émission dans cette raie est énormément renforcée dans les centres d’activité. L’image récente reproduite fig. 8 (aimablement communiquée par le professeur Tousey, du Naval Research Laboratory), bien qu’obtenue à 110 km d’altitude, est de qualité presque comparable à celle des clichés pris dans les observatoires avec les raies du spectre visible. Ce serait une merveilleuse performance technique si nous n’étions devenus si blasés !
- Pour des radiations plus courtes que quelques centaines d’angstrôms, la photographie est remplacée par des photomètres dits compteurs de photons sensibles aux radiations d’une bande spectrale bien déterminée; ils sont d’ailleurs précieux aussi aux longueurs d’ondes de Lyman oc ou plus grandes, afin d’obtenir des mesures précises de l’énergie rayonnée, et de ce qui en reste aux diverses altitudes traversées par la fusée au cours de son ascension. Les compteurs de photons ont permis à Friedman et ses collaborateurs du Naval Research Laboratory de mesurer le flux des rayons X émis par le Soleil, ou plus exactement par la couronne.
- Durant l’A.G.I. des vols de fusées ont pu être déclenchés pen-
- —H
- CD
- os
- S
- ^ ' H O ~ O
- LYMAN
- SER|ES m «.g
- K 0 _ÎO
- t=J
- 11 1 h—-1 11 on
- 500 -g- 600 700
- 800
- 900 1000 1100
- 1200 1300 1400
- 1500 1600 1700 1800
- Fig. 7. — Le spectre solaire de l’extrême ultraviolet photographié en fusée par les physiciens du Naval Research Laboratory, Washington. Au-dessous des spectres, l’échelle des longueurs d’ondes en A ; au-dessus, identification des principales raies d’émission. Rappelons que Si IV, par exemple, signifie une raie de l’atome de silicium ayant perdu 3 électrons.
- (.Photo Official U. S.
- Navy).
- p.284 - vue 287/558
-
-
-
- 285
- Fig. 8. — Photographies du Soleil prises le 13 mars 1959.
- En haut à gauche : avec la raie ultraviolette Lvman a de l’hydrogène ; cliché obtenu par une fusée, portant un télescope asservi et un mono-chromateur à réseau. En haut à droite : spectrohéliogramme avec la raie 3 933 A. de Ca+. En bas à gauche : spectrohéliogramme avec la raie 6 563 A de II. En bas à droite : en lumière blanche. Remarquer le grand renforcement de l’émission ultraviolette autour des groupes de taches, même les
- plus petits (Photo’ Official U. S. Navy).
- dant des éruptions solaires : celles-ci sont accompagnées d’émission de rayons X de i Â, plus « durs » que ceux qui sont émis habituellement. L’observation des rayons X rejoint celle des ondes radioélectriques pour montrer la formation dans la couronne, après les éruptions, de condensations passagères dont la température atteindrait io millions de degrés, comparable à celle qui règne au centre du Soleil !
- Ainsi, grâce aux progrès de la technique qui vont des radiotélescopes géants aux fusées extraterrestres en passant par les instruments optiques plus classiques, les astronomes sont en
- mesure d’étudier l’ensemble des messages émis par le Soleil sous forme de rayonnements électromagnétiques et corpusculaires. Des phénomènes nouveaux se sont révélés, des explications théoriques sont nées, qui donnent à notre connaissance de cet astre déifié par tant de civilisations, toujours plus de richesse mais aussi, hélas, toujours plus de complexité.
- R. Miciiard,
- Astronome à l’Observatoire de Paris, Chef du Service Solaire.
- p.285 - vue 288/558
-
-
-
- 280
- Le Vaisseau-satellite et Midas
- préparent-ils l’utilisation militaire dé l’espace ?
- Deux nouveaux satellites de la Terre ont été lancés durant le mois de mai : un « Vaisseau-satellite » russe et Midas II, engin américain. A première vue il n’existe aucun rapport entre ces deux expériences, si ce n’est leur proximité dans le temps (elles se sont respectivement déroulées le i5 et le 24 mai), le fait qu’elles ont été toutes les deux couronnées de succès, du moins dans leur première phase, et enfin la similitude des orbites qui, toutes deux, sont approximativement circulaires : le Vaisseau-satellite a suivi une trajectoire elliptique dont l’apogée se situait à 38o km et le périgée à 012 km, tandis que Midas gravitait sur une orbite dont l’apogée se situait à 617 km et le périgée à 470 km. Mais l’inclinaison sur l’Équateur des deux trajectoires différait assez sensiblement : alors que celle de l’engin américain ne dépassait pas une trentaine de degrés, celle du satellite soviétique était légèrement inférieure à 65°.
- Fig. 1. — La fusée Atlas-Ageha quitte son aire de lancement à Cap Canaveral, Floride, portant le satellite Midas IL
- Midas I, lancé le 25 février, n’avait pu être placé sur son orbite. {Photo aimablement communiquée par le Centre culturel américain).
- Cependant, ces deux expériences méritent d’ètre rapprochées à un triple point de vue : importance des charges utiles « satel-litisées », équipement des engins et exploitation des possibilités offertes, fonctionnement de l’appareillage.
- Les charges utiles et les iusées, — Le Vaisseau-satellite a été lancé, jour pour jour, deux ans après Spoutnik III et le temps qui s’est écoulé entre ces deux expériences a été bien utilisé : alors que Spoutnik III pesait quelque 1 000 kg (à l’époque, le chiffre avait fait sensation), le Vaisseau-satellite atteint le poids de 4 54o kg; à peu de choses près, le quatrième satellite soviétique serait donc trois fois plus lourd que le troisième et, toujours à peu de choses près, soixante fois plus lourd que Spoutnik I. Naturellement des masses aussi différentes n’ont pas été « satellitisées » par des fusées porteuses identiques. Aucun renseignement n’a été communiqué sur ces engins, mais les experts occidentaux s’accordent à penser que deux « générations » seulement d’engins ont cté utilisées. Où faut-il placer la ligne de démarcation ? Les Russes, cette fois, l’ont dit eux-mêmes : entre le troisième et'le quatrième-satellites. En d’autres termes les trois premiers spoutniks ont été lancés à l’aide d’une même fusée porteuse ou du moins à l’aide de fusées dont le premier étage était identique et qui ont bénéficié pour leurs étages supérieurs de perfectionnements successifs. On admet en fait que les trois spoutniks, tout comme les engins « lunaires », ont été propulsés par des fusées composites qui utilisaient toutes comme premier étage l’ICBM soviétique : la fusée T 3 ou son modèle perfectionné, la fusée T 3 A. Au contraire, le Vaisseau-satellite est le premier à utiliser une nouvelle « superfusée », dont on se rappelle que des essais ont été effectués en janvier dans l’Océan Pacifique. Enregistrera-t-on une augmentation régulière des masses satellitisées envoyées par la « superfusée », analogue à la progression que l’on a pu noter pour les masses lancées par la fusée porteuse de la première génération ? Dans 1’affirmative, les charges utiles qui prochainement graviteront dans l’espace promettent d’être considérables.
- Le poids des premiers satellites américains, on le sait, était bien loin d’égaler celui des satellites soviétiques et la faute devait en être imputée aux fusées porteuses : alors que celles utilisées par les Soviétiques reposaient déjà sur un ICBM (Intercontinental Balistic Missile), c’est-à-dire sur un engin capable de lancer une charge supérieure à une tonne à une distance d’au moins 8 000 km, les Américains ne pouvaient utiliser comme premier étage que des IRBM (ïntermediate Range Balistic Missile), Jupiter ou Tlior, c’est-à-dire des engins destinés à atteindre une cible située à 2 75o km seulement. Quelles qu’aient été les qualités des étages supérieurs, la charge utile ne devait pas dépasser quelques centaines de kilogrammes. Aujourd’hui ils viennent tout juste de commencer à utiliser, pour lancer des satellites, leur IOBM Atlas. C’est en effet une combinaison de ce missile avec une fusée Agena (déjà employée, mais en association avec -l’IRBM Thor, pour lancer les satellites Discoverer) qui leur a permis de mettre Midas II sur une orbite autour de la Terre; le second étage est resté solidaire de la charge utile et l’ensemble pesait 2 268 kg. Quant à la charge utile proprement dite, elle était vraisemblablement de 1 6oo kg environ. Ainsi, à peu près deux ans après le lancement de Spoutnik III, les Américains ont pour la première fois réussi à « satellitiser » une charge utile équivalente. Ils avaient donc rattrapé les Russes dans la course à l’importance de la masse satellitisée parce qu’ils ont pu à leur tour utiliser comme premier étage de la fusée porteuse un ICBM. Mais juste à ce moment, les Soviétiques, inaugurant une nouvelle généra-
- p.286 - vue 289/558
-
-
-
- 287
- lion d’engins, faisaient faire à leur charge utile un nouveau bond en avant.
- Le recours à de seconds étages plus « poussés » permettra-t-il aux Américains de combler cette différence qui vient de nouveau de se creuser entre eux et les Soviétiques ? Il ne le semble pas : la fusée Centaure, qui doit reposer sur l’emploi de l’Atlas, autorisera des charges utiles dont le poids n’excédera pas très sensiblement 3 5oo kg. Et. il faudra attendre la mise au point de la fusée Saturne pour voir les États-Unis lancer autour de la Terre des charges équivalentes au Vaisseau-satellite. Or, la fusée Saturne, dont la fabrication n’a pas bénéficié des facilités et des priorités accordées à la construction des engins à destination militaire, ne pourra pas prendre son envol avant 1963.
- L'équipement et les possibilités militaires. — On a voulu donner une signification politique aux dates choisies pour le lancement des deux derniers satellites : le Vaisseau-satellite, en effet, n’a-t-il pas pris son envol la veille du jour où devait se réunir à Paris la Conférence au Sommet ? Midas n’a-t-il pas commencé à graviter autour du globe à un moment où les Américains pouvaient trouver intérêt à démontrer que, de nos jours, l’on n’avait vraiment pas de raisons sérieuses de s’émouvoir pour des prises de vues aériennes puisque les satellites, sous peu, permettront d’opérer des reconnaissances aussi précises ?
- S’il est difficile de ne pas reconnaître aux Soviétiques, coutumiers du fait, le désir d’utiliser à des fins de propagande leurs expériences spatiales, il semble bien que tout rapprochement entre le lancement du Midas et l’affaire de l’avion. U.2 soit dénué de fondement : les Américains avaient déjà tenté de lancer un satellite du même type et l’opération s’était soldée par un échec. Mais il est difficile de dénier à ces deux lancements une signification militaire.
- Midas présente en effet cette particularité d’être le premier des satellites américains à avoir été lancé dans des intentions exclusivement militaires. La mission qui lui a été confiée, en effet, est d’essayer des appareils capables de détecter l’envol des fusées intercontinentales aussitôt qu’elles ont quitté leur rampe de lancement, et de repérer leur direction. Aucune précision n’a été donnée sur les dispositifs qui ont été placés à bord du satellite mais on sait que le repérage doit se faire à l’aide de cellules sensibles aux infrarouges et que, contrairement à ce qui se passait pour les autres satellites d’observation qui tous gardaient durant leur rotation autour du globe une direction fixe par rapport aux étoiles, Midas ne cesse de rester dans une position identique par rapport au sol. C’est de cette mission qu’il tire d’ailleurs son nom : Missile Defence Alarrn System. Bien sûr, un seul satellite ne permettrait pas d’assurer une surveillance efficace; le dispositif comprendra une douzaine d’engins semblables.
- Ce réseau Midas, dont le lancement du -?À\ mai ne constitue qu’une préfiguration, est destiné à jouer un rôle de tout premier plan dans la « stratégie de la dissuasion », et c’est bien la première fois que l’on voit les satellites artificiels promus à une fonction aussi essentielle : permettre de gagner, dans la détection des fusées intercontinentales, suffisamment de temps pour mettre à feu et lancer les engins de représailles avant qu’ils ne soient frappés sur leurs rampes de lancement; donc ôter à un agresseur éventuel la certitude de paralyser par un tir de contre-batterie tous les moyens de riposte adverses. C’est dire que le réseau Midas doit, en coopération avec le dispositif Radar d’alerte avancée qui est actuellement mis en place, permettre aux fusées Atlas de ne pas être inopérantes; dans la conception que se font actuellement les Élats-Unis de leur défense, il commencera seulement à se montrer moins indispensable lorsque seront disponibles les fusées Minuteman à carburants solides, donc capables d’être conservées en état de marche et d’être lancées après un préavis réduit à quelques minutes.
- Fig. 2. — Les techniciens de l’Armée de l’Air américaine mettent au point, à la base de Cap Canaveral, le satellite Midas II.
- Le second étage, une fusée Agena contenant l’équipement infrarouge et les dispositifs électroniques, a été placé sur une orbite circulaire. Agena-A, mesurant 6,70 m de long et 1,5 m de diamètre, avait été mise au point pour les satellites Discoverer. Plus tard, les satellites Midas utiliseront l’Agena-B, version améliorée de cette première fusée.
- (Photo aimablement communiquée par le Centre culturel américain).
- L’intérêt militaire du Vaisseau-satellite est moins évident. En principe cet engin, à bord duquel était placée une capsule de quelque deux tonnes et demie, était destiné à étudier les conditions dans lesquelles un homme pourrait être lancé dans l’espace : la capsule devait être détachée du satellite et faire retour au sol; mais sa récupération ne devait pas, en principe, être tentée. Il s’agissait en somme d’une expérience analogùe à celles auxquelles se livrent les Américains avec leurs satellites Discoverer, mais alors que ces derniers n’opèrent qu’avec des capsules de taille réduite, les Soviétiques d’emblée tentaient l’opération « en vraie grandeur » et, même, utilisaient une capsule sensiblement plus lourde que celle qui était étudiée outre-Atlantique. Ce dernier avantage n’est, pas négligeable : on peut placer à bord de la « cabine » soviétique des dispositifs
- p.287 - vue 290/558
-
-
-
- 288
- plus nombreux, capables notamment d’assurer un meilleur contrôle de la trajectoire dans la descente et peut-être même de lui ôter un caractère exclusivement balistique.
- L’importance de la charge utile, même une fois la capsule larguée, autorisait également les Soviétiques à placer à bord un appareillage très complet : mais on ne sait rien à ce sujet et seul un article de la Pravda a signalé que l’engin pouvait prendre des photographies du Soleil. Était-ce à dire qu’il pouvait en prendre aussi du sol en les transmettant, à l’aide d’une installation de télévision analogue à celle dont était équipée la « station interplanétaire automatique » qui a filmé la face inconnue de la Lune ? Si tel était le cas, les Soviétiques seraient là encore en avance sur les Américains qui eux aussi prévoient de lancer un engin destiné à la surveillance du sol : le satellite Samos, équipé d’un matériel d’observation bien plus puissant que c.elui du satellite « météorologique » Tiros. Le Vaisseau-satellite, dans ces conditions, aurait été, mais sans qu’on le dise, tout aussi « militaire » que pouvait l’être Midas. C’eût été aussi le premier satellite soviétique destiné à des fins qui n’auraient pas été exclusivement scientifiques.
- Mais il n’est pas impossible de trouver, toujours du point de vue militaire, un autre intérêt au Vaisseau-satellite : il pourrait très bien constituer l’amorce d’un « vecteur » qui transporterait autour du globe des charges thermonucléaires et exercerait ainsi une menace permanente : une fois ces charges « satelli-tisées », il suffirait d’un ordre télécommandé, au, moment où l’engin occupe sur sa trajectoire un emplacement propice, pour diriger une bombe, ou des bombes, vers les objectifs choisis. Bien sûr, la précision serait encore plus aléatoire que pour des fusées à très grande distance. N’empêche que celui qui parviendrait ainsi à « stocker » des bombes dans la haute atmosphère disposerait d’une arme offensive et surtout défensive qui serait à l’abri de toute attaque : aucun agresseur ne pourrait penser annihiler un tel moyen de riposte. Celui qui posséderait une telle arme serait donc à même d’exercer un pouvoir d’intimidation à nul autre comparable. Pour que cette puissance de représailles puisse être menacée, il faudrait que l’agresseur se sache certain de pouvoir abattre le satellite... Fiction? Des essais en ce sens ont déjà été tentés aux États-Unis où des engins air-air ont été lancés en direction du satellite Paddlewheel. Rien n’interdît de penser que les spécialistes qui s’efforcent outre-Atlantique de mettre au point les satellites Discoverer ont dans l’esprit des vues semblables. Cela expliquerait tout le secret qui entoure des expériences uniquement destinées, en principe, à des buts scientifiques. Mais un engin équipé du dispositif mis au point pour les Discoverer ne pourrait emporter qu’une charge explosive tandis que le Vaisseau-satellite, en raison de ses dimensions, pourrait tenir lieu de bombardier spatial.
- Il faut en tout cas tenir compted’un fait indiscuté : l’exploration de l’espace n’est qu’un sous-produit, de la fabrication de fusées aux caractéristiques poussées, et un moment devait bien venir où l’on passerait de cette exploration à l’exploitation de l’espace. Le lancement du Midas et peut-être aussi celui du Vaisseau-satellite montrent que l’utilisation de la haute atmo-
- Deux satellites américains
- Les Américains ont réussi le 22 juin à lancer à l’aide d’une seule fusée, une Thor Able Star, deux satellites artificiels de 101 et I9 kg. C’est la première fois qu’une opération de ce genre peut être menée à bien. Les deux satellites étaient solidaires et c’est seulement lorsqu’ils ont commencé à graviter autour du-globe qu’un système de ressorts les a séparés. Depuis, ils gravitent à faible distance l’un de l’autre sur une orbite approximativement circulaire située à 800 km d’altitude et qui fait un angle de 67,6° avec l’équateur. Le
- sphère, comme on pouvait bien s’y attendre, sera « pensée » en fonction d’impératifs de défense nationale.
- Les déiaillances de l'équipement. — Cependant le moment où ces dispositifs révolutionnaires de surveillance et de bombardement seront mis en place ne paraît pas très proche. Car il existe un autre point commun entre les expériences réalisées en mai par les Américains et les Russes : les dispositifs placés à bord des engins n’ont pas fonctionné.
- La cabine placée à bord du Vaisseau-satellite n’a pas fait retour vers le sol comme il avait été prévu : les Soviétiques eux-mêmes ont admis que le mécanisme d’orientation qui devait placer l’engin dans une position favorable au largage a subi une défaillance et la capsule, au lieu d’être freinée, a été sans doute accélérée. C’est pourquoi certaines observations ont montré qu’au lieu et place du Vaisseau-satellite et du dernier étage de la fusée porteuse qui gravitaient séparément, trois objets tournent maintenant autour du globe : le dernier étage dont la trajectoire, évidemment, ne s’était pas modifiée, la capsule, et ce qui restait du satellite. Ces deux derniers, eux, suivaient des orbites nouvelles. Rien d’extraordinaire à cela : une mésaventure identique était arrivée aux Américains qui, cherchant à détacher et à faire revenir au sol la capsule placée à bord du Discoverer V, avaient seulement réussi à en faire un satellite... malgré eux.
- Selon d’autres observations faites aux États-Unis, le Vaisseau-satellite ne se serait pas scindé en deux morceaux mais en huit. Dans l’ignorance où l’on se trouve de l’agencement du satellite, mais en admettant comme véridiques les quelques précisions fournies par les Soviétiques, on se trouve, semble-t-il, dans l’impossibilité d’expliquer un tel phénomène...
- Quant à Midas, il devait faire l’objet d’un test essentiel, destiné à vérifier dans quelle mesure on ne pouvait pas déjà lui opposer une parade et le mettre dans l’incapacité de remplir sa mission. Quelle pouvait être cette parade ? Provoquer, par un artifice quelconque, un dégagement de chaleur comparable à celui auquel donne naissance la mise à feu d’une fusée intercontinentale. Au cas où le satellite l’enregistrerait sans opérer la distinction, il mettrait ceux qui utilisent ses signaux dans l’incapacité de distinguer entre un vrai lancement et un faux. Aussi avait-il été prévu que des fusées seraient lancées et que des feux seraient allumés lorsque le satellite se trouverait en mesure de les enregistrer. Mais toutes ces expériences ont dû être décommandées, le dispositif étant malencontreusement tombé en panne.
- Dans les deux cas, il ne s’agit naturellement que de parties remises mais ces incidents techniques rappellent avec une fâcheuse opportunité combien il pourrait être périlleux de suspendre au-dessus du globe une menace aussi permanente et aussi redoutable que celle que constitueraient des bombes « satellitisées ». C’est d’ailleurs à l’interdiction de la fabrication de telles armes que doivent, dans l’esprit de quelques spécialistes occidentaux, tendre les efforts entrepris en faveur du désarmement.
- Nicolas Vicitney.
- lancés avec la même fusée
- plus gros,- du modèle Transit, est le second de ce genre à être lancé avec succès. Il est muni d’un appareillage électronique qui doit permettre un nouveau système de navigation, destiné surtout à fournir aux sous-marins atomiques la possibilité de faire le point avec une grande précision et de pointer exactement les fusées Polaris. Le petit satellite, surnommé Piggy Back, c’est-à-dire « à califourchon », est destiné à l’étude des radiations solaires.
- N. V.
- p.288 - vue 291/558
-
-
-
- Vers un Droit spatial
- 289
- ui possédera l’espace et les planètes P
- Au-dessus de quelle altitude un satellite cesse-t-il de violer (cent fois par jour) les domaines aériens qui relèvent des nations sous-jacentes ?
- Comment empêcher de façon réaliste l’espace d’être utilisé à des fins militaires ?
- Tous les astronefs ne devront-ils pas battre pavillon de l’O.N.U. ?
- Dans quelle mesure faut-il appliquer dans l’espace des concepts juridiques traditionnels tels que ceux de souveraineté nationale, de liberté de navigation, de droit du premier occupant, d’entraves justifiées, etc. ?
- Ce sont là quelques-unes des questions concrètes qui se posent déjà, qui se poseront bientôt avec acuité, et qui sont du ressort du « droit spatial ».
- L’édification d’un droit spatial n’est nullement prématurée. D’abord, il est convenable de fixer les, règles du jeu avant de commencer la partie. Ensuite, les conditions matérielles du voyage dans l’espace et aux planètes sont connues par avance de façon assez satisfaisante. Nous croyons que ces conditions sont mieux prévues aujourd’hui que ne l’étaient par exemple, en 1900, celles des voyages aériens. Dans le vide dépourvu de frottements, la théorie épouse de plus près la réalité. Newton, au début du xvme siècle, n’aurait pas été embarrassé de donner la vitesse exacte des satellites artificiels d’aujourd’hui. Le juriste a donc déjà beaucoup d’éléments pour codifier dans ses grandes lignes les prochaines activités de l’homme et des machines dans le domaine extra-terrestre. Bien des aspects de l’Astronautique ont déjà été de longue date prévus, commentés, vulgarisés. Mais s’il est un domaine astronautique qui puisse se traiter avant la lettre, utilement et à peu de frais, c’est bien celui du droit.
- Analogies avec le droit aérien et frontières de l’es-
- pace. — Une des questions actuellement étudiées en matière de droit spatial est celle de la limite de souveraineté en altitude de chaque nation et, de façon un peu plus générale, celle des possibilités d’extension au cas de l’espace des règles du droit aérien. En d’autres termes, où commence l’espace, et peut-on édifier le droit spatial à partir d’une simple extension des données du droit aérien ? Considérons d’abord ce que sont ces données.
- L’ancien droit romain stipulait déjà que le propriétaire d’un domaine possède l’espace jusqu’aux cieux !
- La question du droit aérien s’est posée après la traversée de la Manche par Louis Blériot en 1909. Deux écoles se faisaient jour; la première, libérale, tendait à admettre la liberté de la circulation aérienne au-dessus de toute nation, suivant un principe en tous points analogue au principe de la liberté des mers qui prévaut en droit maritime. Mais c’est la seconde école qui l’emporta, à la fin de la guerre de 1914-1918, sans doute parce que les avions et les zeppelins venaient de révéler l’importance de l’arme aérienne. La signature de la Convention de Paris en 1919 fut la première manifestation officielle du droit aérien; l’article 1 de cette convention stipulait que les parties contractantes reconnaissaient à chaque puissance le droit de souveraineté complète et exclusive sur le domaine aérien situé au-dessus de son territoire.
- Vers la fin de la seconde guerre mondiale, la Convention de Chicago (i944) remplaça la Convention de Paris; cette fois, les distances s’étaient raccourcies, et les Etats-Unis d’Amérique adhéraient aux mêmes dispositions que les états d’Europe. Les articles 1 et 2 de cette Convention de Chicago reconnaissent la pleine souveraineté de tout état sur son domaine aérien, que cet état soit ou non partie contractante. L’Union Soviétique
- n’a pas signé cette convention, mais le code soviétique de l’air de 1935 pose néanmoins le même principe d’une telle souveraineté; il précise que le domaine aérien de PU.R.S.S. est défini par une colonne d’air situé au-dessus du territoire de ce pays, y compris la stratosphère, cette définition ne comprenant aucune limitation et s’étendant en altitude au fur et à mesure du progrès des avions.
- On le voit, il n’existe pas de liberté généralisée des airs comme il existe une liberté de la haute mer. Sans doute, les aéronefs sont libres de transiter, et même d’atterrir à des fins non commerciales : mais ces droits, connus sous le nom des deux libertés de l’air, sont limités aux nations signataires de la Convention de Chicago. Même entre pays signataires de la Convention, la liberté de trafic n’existe pas : les liaisons commerciales entre deux pays font l’objet d’accords de réciprocité âprement disputés.
- Il paraît clair que les textes préexistants ne sauraient fournir d’éléments concrets pour définir les frontières de l’espace. Prétendre par exemple qu’une nation possède les astres situés dans le cône d’espace momentanément placé au-dessus d’elle est une absurdité à laquelle nul ne s’est arrêté. D’ailleurs c’est la Terre qui défile « sous » l’Univers, et non le contraire; cette considération s’étend aux satellites artificiels proches; les satellites artificiels « ignorent » la rotation de la Terre et si celle-ci, par magie, s’arrêtait de tourner, leurs orbites demeurei'aient inchangées pour un observateur situé sur la Lune ; ce sont donc bien les nations qui défilent sous les satellites, et non le contraire.
- L’interprétation casuistique des textes actuels n’est donc pas fructueuse, et il faut éviter de vouloir extraire de ces textes plus d’informations que leurs auteurs ne voulaient ni ne pouvaient y en inclure. Le Droit s’honore au contraire d’être une construction vivante attachée au fond des réalités du moment, et non à la forme des sources écrites.
- Il n’en reste pas moins qu’il faut situer cette frontière de l’espace après laquelle cesse l’empire du droit aérien. Faut-il de plus définir les droits et les devoirs d’un engin non seulement par sa position, mais aussi par sa vitesse à un instant donné ? Convient-il de distinguer entre les aéronefs et les astronefs, et de soumettre chacun à leur régime propre ? Ces questions sont très controversées.
- Si l’on se contente de vouloir définir une altitude limite, une frontière entre l’air et l’espace, la nature des choses vient à l’aide du juriste, car il existe une zone interdite à la fois aux satellites et aux avions. On sait en effet qu’un satellite est très éphémère au-dessous d’une altitude d’environ i5o km. D’autre part, lorsqu’un aéronef (qui ne saurait être qu’un avion-fusée au-dessus de 25 km, étant donné les exigences des propulseurs aérobies) prétend voler très haut en état de sustentation aérodynamique continue, il ne peut aller ni trop lentement car il tomberait, ni trop vite car réchauffement serait alors exagéré (c’est ce qu’on appelle le mur de la chaleur); Comme le montre la figure 1, plus il s’élève, plus il doit d’une part, et peut d’autre part, voler vite en raison de la raréfaction de l’air. Le célèbre aérodynamicien von Karman a proposé de fixer à 85 km l’altitude de la frontière recherchée..
- Les satellites auraient donc droit de « passage innocent » (comme dit le droit maritime) au-dessus de cette altitude. Mais cette solution simple n’est pas très satisfaisante; pour des raisons de sécurité, et aussi probablement d’amour-propre, les nations ne supporteraient pas aisément d’être survolées à basse altitude par des obus ou des fusées d’essai. Aussi, pour les fusées non satellitisées, M. Jean Rivoire propose-t-il que le domaine de souveraineté de chaque nation soit porté à une altitude plus élevée que pour les satellites, de l’ordre de 1 5oo km
- p.289 - vue 292/558
-
-
-
- 290
- ZONE DES VITESSES TROP FAIBLES POUR LA SATELLITISATION
- ZONE DES VITESSES ELLIPTIQUES (SATELLITES)
- ^ ZONE DES
- i VITESSES
- . HYPERBOLIQUES \ (ASTRONEFS)
- Altitude
- (km)
- l.C.B.M.
- Fusées-sondes
- 110 *
- 100 *
- ESPACE ~ AIR
- Limite juridique de Von Karman
- ici, refroidissement par rayonnement
- R J V
- 1 I Retour auî\sol d'un ; \
- 1 ' astronef par ricochets; \
- ZONE DES VITESSES TROP FAIBLES POUR \j LE VOL CONTINU: PORTANCE INSUFFISANCE
- / —*000*\
- ZONE DES VITESSES TROP GRANDES POUR UN VOL PROLONGÉ:REVÊTEMENT TROP CHAUD (>1200°C)
- Vitesse (km/s)
- Schéma des frontières de l’espace.
- Un objet volant ne saurait avoir rrim|>orle quelle vitesse à une altitude donnée. La zone A est limitée par ce qu’on appelle le mur de chaleur; elle est interdite à tout engin, sauf pour un temps réduit (cas des grandes fusées dites Intermediate Range Balistic Missiles et Intercontinental Balistic Missiles qui la traversent avec difficulté). La zone B correspond au domaine des avions actuels (partie hachurée) et futurs (tels que le X-15). Il est à noter que vers 7,9 km/s l’avion est complètement « satellitisé » par la force centrifuge de sa rotation autour de la Terre ; pour aller plus vite, il devrait mettre en jeu une portance négative. La vitesse dite « circulaire » de satellitisation diminue avec l’altitude, d’où l’angle a. Dans la zone G, l'atmosphère est trop raréfiée pour porter l’avion ; il n’y peut faire que des incursions semi-balistiques ; un aéro-astronef, en ricochant sur l’atmosphère à plusieurs reprises, peut utiliser de telles incursions pour prolonger la durée de son refroidissement par rayonnement ; en effet, réchauffement reste considérable dans la zone B.
- par exemple. Ainsi une nation tolérerait qu’un satellite la survolât à 200 km d’altitude, mais n’admettrait pas d’être située sous un tir de projectiles, obus ou fusées, culminant à i ooo km d’altitude, même si-les points de départ et d’arrivée sont en territoires consentants ou en haute mer libre. La grande vitesse qui s’attache à la satellitisation se présenterait donc comme une garantie d’innocuité; les fusées d’essai ou de transport intercontinental se trouveraient dissociées des astronefs et ramenées au cas d’une catégorie particulière d’aéronefs.
- On le voit, contrairement au cas du navire, la position d’un engin dans l’espace ne suffit pas à définir sa légitimité ; il faut faire intervenir sa vitesse, donc finalement sa trajectoire et son point de chute. Ce n’est pas en effet au-dessus d’un pays qu’un engin peut être décrété inoffensif ou menaçant pour ce pays; c’est bien avant, au-dessus de l’Océan, en espace neutre. Cela achève de montrer que les règles classiques de souveraineté du droit aérien ne peuvent pas être étendues à l’espace.
- Des définitions plus ou moins mathématiques ont été proposées pour introduire le paramètre « vitesse » dans la réglementation. On les juge souvent incompatibles avec la simplicité désirable pour un texte juridique. Pourtant, les définitions « scientifiques » sont souvent indispensables. Par exemple dans le domaine de la réglementation des émissions radio-électriques, on parle de fréquences, bien que ce soit compliqué, puisqu’il faut compter des millions de vibrations par seconde à l’aide de
- récepteurs étalonnés convenables. De même, on pourrait édicter à propos de l’espace des règles dans ce genre : « Sera en situation irrégulière tout engin balistique dont le point de chute, tel qu’il est prévu à chaque instant par les systèmes bien connus de radars associés à des calculatrices électroniques de trajectoires, est situé à tel ou tel endroit, même si ce point de chute futur est ensuite complètement modifié par les autopropulseurs de l’engin... », etc.
- La notion de point de chute futur est simple, et il existe des instruments de mesure correspondants, qui peuvent être sous scellés. Comme beaucoup d’éléments du trafic aérien, les éléments balistiques de surveillance peuvent être enregistrés sur bande magnétique et conservés quelque temps pour le cas de contestation. Peu importe que ces instruments de mesure soient compliqués.
- Analogie avec le droit maritime. — L’astronaute utilise sans doute surtout les techniques de l’aviateur, mais son métier possède des affinités certaines avec celui du marin. La mer est immense; on s’y embarque pour longtemps, on peut y errer à jamais; le navire emporte à son bord beaucoup de ressources, parfois toutes les ressources nécessaires au voyage et à la mission. C’est la mer, en son temps, qui a conduit à des terres nouvelles. Tout cela s’applique à l’espace.
- En droit spatial comme en droit maritime, le juriste préfé-
- p.290 - vue 293/558
-
-
-
- 291
- rera légiférer plutôt à partir de la notion de milieu (eaux territoriales, vieille règle du « boulet de canon » de Grotius, xvne siècle) que de celle de navire. La notion de navire est en effet controversable : il existe ou pourrait exister des hydravions, des îles flottantes, des îles artificielles, des docks flottants sans moteur, des bateaux météorologiques ancrés à poste fixe, des chars sous-marins à chenilles, des bouées et stations automatiques sans équipage, des mines, des fusées partant du fond de la mer, des épaves, et tout un arsenal d’objets actuels ou futurs prêtant à discussion. La situation n’est pas différente dans l’espace et il vaudra mieux parler, quand ce sera possible, de présence ou de mouvement d’un engin dans un milieu (altitude, vitesses, trajectoires, durée, engin satellitisé ou engin interplanétaire, etc.) que de tenter de distinguer entre les engins eux-mêmes : avion-fusée, astronef avec ou sans ailes, engin automatique ou monté, etc.
- Cependant cette tendance a des limites, et il faudra bien trouver le moyen de distinguer entre les machines de guerre et les autres : machines de science, d’exploration, de transport, . de télécommunication, etc.
- Comme la haute mer, l’espace interplanétaire sera libre, ce qui ne signifie pas qu’il doive être sans loi; ainsi tout navire de l’espace devra, au moins symboliquement, battre pavillon d’une nation déterminée ou de l’O.N.U. ; faute de quoi il s’agirait d’un astronef-pirate ! Cela revient à dire que tout engin spatial devra être déclaré avant son lancement.
- Si actuellement les essais de fusées militaires ne sont pas nécessairement annoncés à l’avance, il est à noter que les lancements des premiers satellites l’ont été, tant par les Russes que par les Américains. Ces lancements avaient d’ailleurs lieu dans le cadre de l’Année géophysique internationale. C’était là une position prudente du point de vue juridique et, de fait, aucune des quatre-vingts et quelques nations du globe n’a songé, soxis l’effet de la surprise, à protester contre le survol de son territoire par des satellites.
- Certains projets proposent d’édicter que les astronefs ne pourront battre d’autre pavillon que celui de l’O.N.U.; l’espace serait ainsi complètement internationalisé, plus exactement « extra-nationalisé » comme le souligne M. Jean Rivoire, voulant ainsi montrer que dans le domaine de l’espace l’idée même de nation devrait perdre sa raison d’être. L’accord de tous les états sur un tel point n’irait évidemment pas sans difficultés.
- Un contrôle étroit de l’O.N.U. sur la nature du chargement des astronefs est pourtant nécessaire pour aboutir à une non-militarisation réaliste de l’espace. Le principe de cette non-militarisation est acquis, si l’on en croit certaines déclarations officielles des deux grandes puissances astronautiques, mais la mise en œuvre est encore à définir. Si ces intentions deviennent réalité, on le voit, le statut de l’espace différera de celui de la mer dont l’accès est libre aux navires de guerre. C’est que « dans le cas de l’espace, la menace serait plus grande, plus universelle, plus rapide. Les engins et installations extra-terrestres devront donc être tels que leur éventuelle transformation militaire ne soit pas évidente; et ils seront dépourvus d’armement.
- Utilisations militaires de Vespace. — Pour tenter de prévenir cette menace guerrière de l’espace, il faut la connaître. En quoi consiste-telle ? Les états-majors doivent avoir là-des-sus un avis plus qualifié. Nous devrons nous contenter des spéculations suivantes.
- Miroir ardent. — On a imaginé qu’un miroir satellitisé pourrait concentrer les rayons du soleil et griller à loisir les villes et les moissons ennemies. Il serait constitué de feuilles minces métallisées fixées à un filet tendu par la force centrifuge d’une légère rotation. Vu la distance, ses dimensions devraient être énormes (des dizaines de kilomètres), pour obtenir une cha-
- leur ponctuelle suffisante. Ce projet n’a donc pas à être pris au sérieux, semble-t-il.
- Satellites de guerre. — Est-il possible de stocker dans l’espace à bord de satellites des armes nucléaires ? Sans doute. Mais il faut, pour précipiter avec précision ces armes au point choisi, les ralentir par une fusée à poudre et dépenser une énergie non négligeable. L’épée de Damoclès est attachée ici par un fil fort résistant, et la possibilité de bombardement par simple lâcher n’est naturellement qu’une apparence, La sûreté de fonctionnement de la télécommande et les problèmes de son entretien au cours des années feront apparaître cette solution comme déraisonnable aux yeux de beaucoup de techniciens. D’ailleurs les objets-satellites, peu discrets, doivent être essentiellement vulnérables. On peut les détruire, en prenant son temps, par des fusées chercheuses « anti-missiles », ou satelli-tiser sur leur orbite, connue avec précision, des essaims d’éclats (shrapnells) discrets, lancés par exemple en sens inverse, qui finiront par marquer un coup au but à un tour ou à l’autre. Il suffit de quelques grammes. Le lancement classique de fusées à partir de bases terrestres doit être plus efficace, malgré la plus grande énergie nécessaire au moment de la mise en œuvre.
- Il ne semble donc pas, sous toutes réserves, que la menace de satellites armés soit imminente et que se pose dès maintenant le problème de leur contrôle.
- Espionnage à partir de Vespace. — Les satellites fourniront un moyen idéal d’observation du sol pour la cartographie, les statistiques agricoles, la météorologie, etc., et il paraît évident qu’ils seront également employés pour photographier les routes, voies de communications, travaux, grandes installations, même et surtout dans les régions actuellement interdites au survol. Chercher à s’opposer à cela ne serait pas raisonnable : le contrôle n’est guère possible. Il faut en prendre son parti : les nations peuvent avoir des murs, mais elles n’ont pas de toit. Cet état de choses n’est-il pas à tout prendre préférable ?
- Bases militaires sur la Lune. — La Lune au contraire possède probablement un grand intérêt stratégique. Elle offre certaines ressources qui n’existent pas à bord d’une station spatiale habitée. On y fabriquera sans doute de l’oxygène et de l’eau à partir des éléments chimiques liés aux minéraux. On peut s’y protéger dans des abris situés sous le sol. Une modeste fusée à poudre qui en partirait serait capable d’atteindre la Terre, avec une tête nucléaire. Mieux, une catapulte électrique de quelques kilomètres de long peut suffire, en l’absence de toute résistance aérodynamique, à projeter des têtes de guerre à la vitesse nécessaire (2,4 km/s), et ceci avec une cadence de tir considérable. L’engin lancé de la Lune vers la Terre peut être observé optiquement (ce qui est plus discret que le radar) et télécommandé pendant tout le temps de la traversée. Notons qu’il n’en est pas de même de l’engin Terre-Lune en raison de la rotation de la Terre.
- En ce qui concerne la défensive de la base lunaire, une attaque provenant de la Terre déclenche l’alerte un ou deux jours à l’avance, en raison du temps nécessaire à la traversée. En l’absence d’atmosphère, il n’y a pas d’effet de souffle. Les retombées radioactives sont immédiates. Tout le personnel respire sous casemate ou sous scaphandre autonome. En raison de la faible gravitation lunaire, les fusées assaillantes tombent plus lentement que sur Terre, et l’action anti-missile est facilitée. La base lunaire peut être dissimulée sur la face éloignée, les postes d’observation et de télécommande restant sur la face visible à partir de la Terre.
- La considération principale touchant l’intérêt stratégique de la Lune, pour la nation qui seule la posséderait, est probablement la suivante : l’attaque-surprise de cette nation par une autre est rendue plus difficile. En effet, la distance de la Lune est telle que les fusées de représailles (venant de bases lunai-
- p.291 - vue 294/558
-
-
-
- 292
- res ou terrestres) sont lancées avant que ne parviennent au but les fusées assaillantes, si celles-ci attaquent d’abord la Lune. Les représailles sont également possibles à partir de la Lune, 3i les fusées assaillantes attaquent d’abord les bases terrestres. Au contraire, en l’absence de bases lunaires, les représailles peuvent être impossibles si les bases terrestres de lancement ont été détruites par l’agresseur. Mais tout ceci ne vaut, répé-tons-le, que si une seule nation prenait définitivement possession de la Lune.
- Occupation pacifique de la Lune. — Comme la prétention d’une telle exclusivité est illusoire, sauf avance technique considérable et sauf « fortification » générale de la Lune par le premier arrivé, et comme l’avantage stratégique de la Lune n’est peut-être pas aussi clair que le suggèrent les précédents arguments, les nations spatiales auront intérêt, intérêt financier en particulier, à renoncer à leurs bases militaires lunaires, et en conséquence à autoriser l’accès pour le contrôle de leurs bases scientifiques lunaires. Un tel plan est moins abstrait que les plans de désarmement concernant les armes classiques, parce que l’existence d’une base sur la Lune est impossible à cacher, et parce que le terrain est neuf : personne ne s’y est encore engagé financièrement ou matériellement; il ne s’agit donc pas de désarmement, mais d’abstention d’armement.
- Même en l’absence du mobile militaire, des bases lunaires seront pourtant établies, dans un avenir que nous imaginons être de i5 à 5o ans. Les moyens technologiques pour transporter sur la Lune une masse suffisante de matériel (3 à io t au moins par astronef), avec une sécurité et à un prix acceptables, ne sont pas encore en vue. Il est même probable que des découvertes de base restent nécessaires pour y parvenir; de sorte que personne n’est en mesure de fixer une date probable pour l’invasion permanente de la Lune par des. équipes scientifiques. L’absence d’atmosphère, la précision de l’arrêt à réaliser (immobilité suivant trois axes liés à la Lune : altitude, longitude, latitude) au point final d’arrivée au sol, la cascade exponentielle des rapports de masse nécessaires à chacune des quatre phases motrices (essor hors de la Terre, freinage contre la Lune, essor hors de la Lune, freinage contre la Terre), tout cela rend le problème très difficile, sans commune mesure avec celui de l’envoi de simples projectiles sur la Lune. Le voyage à proximité de Mars (sans applanétissage) est même plus aisé que l’allunissage, car l’espace est remarquablement propre aux courses à grande distance.
- Les deux découvertes de base nécessaires à la réalisation d’astronefs-cargos peuvent sans doute être désignées ainsi :
- i° Réalisation d’un générateur de puissance électrique fournissant au moins quelques dizaines de mégawatts directement à partir d’énergie nucléaire; ce générateur devra être léger, sûr, peu nocif; la puissance électrique obtenue assurera l’éjection à très grande vitesse (au moins 20 à 5o km/s) de plasma neutre conducteur ou de matière ionisée, permettant à l’astronef de quitter, même sous très faible accélération, une orbite autour de la Terre, et de se freiner pareillement, même sous très faible décélération, jusqu’à une orbite autour de la Lune;
- 20 La deuxième découverte serait un perfectionnement des fusées chimiques, perfectionnement que l’on peut concevoir sous la forme de la mise au point d’un monergol à radical libre, et plus particulièrement de l’hydrogène atomique; pratiquement, il s’agit de trouver le moyen de conserver, sans trop de danger, l’hydrogène atomique, puis de l’utiliser à la propulsion sans faire exploser le réservoir; on sait que l’hydrogène atomiqpe H peut s’obtenir (mais actuellement de façon fugitive seulement) à partir de l’hydrogène moléculaire H,. Cet hydrogène atomique n’a, notons-le bien, aucun rapport avec la bombe dite à hydrogène; son stockage est théoriquement concevable à quelques degrés du zéro absolu. ] Un pro-
- pulseur à radical libre permet d’espérer des performances meilleures que celles des fusées classiques, et par conséquent d’effectuer avec un rapport de masse acceptable les courtes et énergiques évolutions entre l’orbite lunaire et le sol lunaire, et vice versa.
- Qu’il revête ou non les aspects suggérés, le propulseur idéal qui reste à découvrir devrait satisfaire aux conditions suivantes : pousser avec une force supérieure à son poids terrestre pendant une demi-heure au moins, être arrêtable à volonté (propriété qui n’est pas évidente dans le cas des propulseurs nucléaires), avoir une poussée réglable avec rapidité (même remarque), ne pas être trop nocif pour l’atmosphère ni pour l’équipage, être sûr, durable, rechargeable, d’un prix acceptable.
- Malgré cés difficultés, il est probable que les progrès des propulseurs d’astronautique suivront une courbe aussi allègrement croissante que ceux de leurs homologues d’aéronautique : nos pères n’eurent pas besoin de réclamer longtemps, pour . leurs avions, « le cheval-vapeur dans un boîtier de montre ».
- Quand ils auront les moyens nécessaires, et si ce n’est dans un but militaire, pourquoi les hommes investiront-ils la Lune P Parce que l’intérêt scientifique d’une telle entreprise est exceptionnel. Les activités sur la Lune pourront concerner l’étude du sol, de la physique lunaire et de la cosmogonie du système solaire; l’étude astronomique des planètes sans le trouble dû à l’agitation atmosphérique; l’étude astrophysique du Soleil et des étoiles sans l’absorption par l’atmosphère terrestre de certaines bandes de longueurs d’onde; cette remarque s’étend à la radio-astronomie; l’étude de la Terre, de sa météorologie, de son rayonnement; probablement des expériences conduisant à une meilleure compréhension de la nature de la gravitation, et d’autres vérifiant certaines conséquences de la relativité; des expériences sur le vide, qui est sur la Lune disponible sans frais sur d’énormes longueurs: la possibilité de certaines expériences nucléaires nocives ou dangereuses, en des lieux lunaires réservés à cet effet et d’où les poussières radioactives ne partiront jamais puisqu’il n’y a ni vent, ni courant pour les emporter, etc.
- Des locaux pourront être creusés dans le sol, et rendus étanches à l’oxygène sous pression par projection intérieure d’une couche de matériau plastique; un réseau de voies de communications (sujétion éternelle !) sera nécessaire pour relier entre eux les différents lieux lunaires : aires d’arrivée des fusées, bases diverses, installations scientifiques, exploitations chimiques de minerais permettant d’obtenir de l’oxygène et de l’eau, cultures hydroponiques sous serres. De même que les actuelles installations arctiques n’ont pas suivi immédiatement la conquête des pôles, de même les installations lunaires seront sans doute l’œuvre de plus d’un siècle; elles seront éternelles, malgré certaines détériorations provoquées par les météorites ; aucune pluie, aucun vent n’érodera par exemple les routes, même si elles sont laissées sans revêtement; les automobiles ne soulèveront pas de poussière durable ; notons à propos de ces véhicules spéciaux dont on a déjà imaginé plusieurs types (Hermann Oberth, Arthur G. Clarke) que la faible pesanteur favorisera le dérapage, et que les collisions seront aussi violentes que sur Terre, à vitesse égale : il ne faut pas confondre en effet le poids, qui varie d’un lieu à l’autre, et la masse, qui est universelle; la crevaison de l’habitacle étanche représentera un risque supplémentaire.
- Ainsi donc, entre membres voisins de missions rivales devront s’établir des visites : visites de contrôle de non-militarisation, de courtoisie, de coopération scientifique, de secours réciproque (l’assistance traditionnelle entre gens de mer se présente ici à l’esprit). Mais de tels rapports supposent impérativement un effort considérable de normalisation (on dit aussi « standardisation ») ; prenons quelques exemples : les raccords d’oxygène entre scaphandres, chars étanches, habitacles d’astronef devront
- p.292 - vue 295/558
-
-
-
- 293
- Fig. 2. — Comment pourrait se présenter une base lunaire.
- Le matériel est débarqué de l’astronef et placé sous un abri de terre hors d’atteinte des météorites (à gauche). L’antenne est faite d’un fuseau gonflable en caoutchouc, sous rigidité pneumatique (au centre). La faible pesanteur autorise l’emploi d’un traîneau. Les membres de la mission s’abritent dans des igloos en caoutchouc gonflé (à droite). Des miroirs paraboliques serviront à faire de l’électricité à partir de l’énergie solaire. (Dessin extrait de The Exploration o/ the Moon, par R. A. Smitii et A. C. Clarke, Frederick Muller Ltd., Londres, avec l'aimable autorisation de
- l’éditeur).
- pouvoir s’adapter les uns aux autres; les pressions des bouteilles d’oxygène devront être les mêmes; les sas étanches d’intercommunication entre les chars étanches, les habitacles d’astronef et les casemates devront également faire partie de la même normalisation et satisfaire aux mêmes spécifications ; les mêmes colles devraient être aptes à réparer les parties caoutchoutées des tubes des scaphandres, ou des igloos d’habitation gonflables tels que ceux de la figure 2 ; les prises de raccordement des appareils électriques, leurs tensions de fonctionnement, le choix des longueurs d’onde, les systèmes de guidage, les codes divers, la répartition du travail astronomique et séléno-phy-sique, lout cela devra être étudié sous l’angle de la normalisation en vue de l’interchangeabilité ou préparé dans un bon esprit de collaboration. L’investissement de la Lune sera si coûteux qu’il ne, sera pas de nation sans doute qui ne soit bien aise de pouvoir opérer ainsi. Un bureau technique de normalisation devra donc être adjoint au comité spatial de l’O.N.U., sans doute sous l’égide de l’O.A.C.I.
- Agissements nuisibles dans Vespace. — Dans le cadre des activités pacifiques, la loi devra intervenir pour tenter d’empêcher certains agissements abusifs et certains dommages parfois irréparables que pourraient subir la science et l’humanité du fait de l’expansion spatiale. Malgré leur apparence peut-être aventurée ou au moins prématurée, un certain nombre de cas concrets vont être cités en exemple du genre de problèmes dont aura à connaître le droit spatial dans un avenir plus ou moins lointain.
- Des dommages involontaires au sol terrestre pourront être causés par des satellites en fin de carrière ou par des astronefs accidentés; les plus gros fragments de ces engins pourront en effet parvenir jusqu’au sol sans être volatilisés, tout comme
- il advient des météorites à partir d’un certain calibre. Il ne semble pas qu’il y ait là matière à difficulté particulière : ces dommages seront réglés comme le sont par exemple ceux de deux navires de nationalité différente qui s’abordent.
- L’encombrement des longueurs d’onde devra naturellement être contrôlé par les organisations internationales de télécommunications. C’est ainsi que certains satellites, comportant des piles solaires et pouvant en principe émettre indéfiniment, sont déjà dotés d’un « étouffoir » ou chrono-rupteur qui arrête l’émission au bout d’un certain temps, un an par exemple.
- Des inscriptions géantes pourraient être tracées sur la Lune. Une sorte de canon-pulvérisateur de poudre colorée peut être utilisé à cet effet, car un obus va sur la Lune bien plus loin que sur Terre en raison de la faible gravité, et un grain de poussière y va aussi loin qu’un obus en raison du vide (à vitesse initiale égale). De telles inscriptions, infiniment plus difficiles à nettoyer qu’à placer, seraient d’un goût discutable, qu’il s’agisse d’emblèmes nationaux ou bien publicitaires. Cette question relève de la protection des sites.
- L’espace proche pourrait être progressivement encombré d’objets, de nuages de particules, d’essaims de bandes de papier d’aluminium satellitisés à des fins diverses telles que l’éclairage nocturne. Essentiellement irréversible et non nettoyable, probablement gênante pour l’observation astronomique et pour les communications interplanétaires, toute pollution exagérée de l’espace devra être interdite.
- La pollution radioactive pose un problème grave et déjà connu sur Terre avec les expériences nucléaires. Le départ d’éventuelles fusées à propulsion nucléaire pourra augmenter la contamination radioactive de l’atmosphère, et créer des écrans aux télécommunications. La chute accidentelle de tels engins, tout comme le naufrage de navires à propulsion
- p.293 - vue 296/558
-
-
-
- 29-i '
- nucléaire, risquera de contaminer la mer et les produits de la pêche.
- La contamination radioactive de la Lune par ces mêmes astronefs à propulsion nucléaire gênera la détermination de l’âge de la Lune au moyen de sa radioactivité naturelle. On peut envisager de sacrifier aux retombées radioactives une bande équatoriale, qui serait réservée aux manoeuvres, et d’interdire toute évolution des engins au-dessus des régions polaires de la Lune.
- La contamination microbienne de la Lune et des planètes pose des problèmes du même genre; il est en effet du plus haut intérêt, au cas où l’on recueillerait des micro-organismes, dë savoir s’ils préexistaient ou s’ils sont la conséquence de l’arrivée des hommes. Dans cette intention, les projectiles russes ou américains destinés à la Lune sont actuellement stérilisés; au stade final, les monteurs opèrent comme des chirurgiens, avec des masques et des gants; même si cette précaution n’était que symbolique, elle est louable et reflète un respect raisonnable du patrimoine scientifique spatial.
- La Terre ne saurait naturellement être l’objet de moins de précautions ; des micro-organismes ou virus dangereux pouvant exister sur Mars ou ailleurs, il faudra prévoir des mesures telles que. des. quarantaines au retour des expéditions. Les plantes martiennes seront peut-être, de leur côté, trop heureuses de troquer leurs sévères conditions climatiques contre celles de la Terre ët d’envahir celle-ci de façon catastrophique; sans doute l’histoire de la semence dangereuse conservée in vitro à des fins scientifiques et lâchée à l’extérieur à la suite de quelque folie ressortit plus à la science-fiction qu’à la science tout court : mais si la fiction devenait réalité, il n’y aurait là aucun motif à consolation. Quand il s’agit de phénomènes irréversibles, il vaut mieux encourir le ridicule par excès de craintes imaginaires que jouer les apprentis-sorciers.
- Partage du système solaire.— D’ores et déjà,-la vente de terrains sur la Lune ou de tickets de voyages interplanétaires (nous n’inventons rien) est interdite aux U.S.A.; mais ces pratiques étaient le fait de chevaliers d’industrie, et non celui d’industriels de l’espace. En fait, le partage des planètes constitue un des problèmes types du droit spatial. Il semble acquis que, dans l’esprit actuel des nations, découverte ne vaut pas propriété. L’occupation confère de meilleurs droits, mais dans quel rayon d’action ? Les planètes, la Lune en particulier, représentent d’abord pour nous des bases d’études scientifiques, géologiques, biologiques, astronomiques ; elles sont vastes sans doute, mais certains sites peuvent être plus favorables que d’autres. Q’autre part, si l’énergie devient sans
- cesse moins chère, si les astronefs-cargos deviennent des machines de transport rentables, si des minerais rares doivent se découvrir en gisements concentrés, des activités industrielles extra-terrestres deviennent possibles. Il conviendra alors de définir un système de partage de concessions propre à éviter les ambitions territoriales exagérées, mais aussi à ne pas décourager les initiatives.
- Préoccupations immédiates. — Les préoccupations immédiates concernent principalement les problèmes qui ont trait au statut de l’espace, à ses frontières, à sa démilitarisalion, et au partage de la Lune.
- Il n’est pas actuellement possible de dégager quelles seront finalement les positions officielles des gouvernants; on peut seulement rappeler les déclarations encourageantes faites à plusieurs reprises par les chefs d’états intéressés, et témoignant de leur désir d’arriver à un accord sur la neutralité de l’espace et de la Lune.
- La Fédération astronautique internationale, organisme privé qui groupe les sociétés d’Astronautique des différentes nations, collabore cependant à titre consultatif sur les questions juridiques avec l’O.N.U., l’Unesco, l’Organisation internationale de l’aviation civile et les télécommunications. Cette Fédération comporte une participation soviétique en ce qui concerne les questions techniques; mais les délégués soviétiques n’ont accepté de faire partie de l’académie de techniciens (qui groupe les savants, à l’exclusion des simples membres sympathisants) qu’à condition qu’il n’y soit pas traité de questions juridiques; ces questions leur paraissent en effet d’ordre politique, du ressort des diplomates. La Fédération comprend aussi un Institut de Droit de l’Espace, qui ne possède par conséquent pas de participation soviétique.
- Du côté officiel, l’O.N.U. comporte deux commissions spatiales, l’une technique, l’autre juridique, où sont représentées une dizaine de nations; ces commissions ont présenté leur rapport, et les questions spatiales seront discutées au cours de la session 1959-1960. Il semble cependant que l’U.R.S.S. désire lier tout accord sur les questions spatiales à un accord plus général concernant les questions en suspens, celles des bases de lancement de fusées en Europe, en particulier...
- Lionel Mowbhay.
- Nous tenons à remercier M. Jean Rivoire pour les renseignements qu’il nous a aimablement communiqués sur l’élaboration du droit spatial. Dans un autre domaine du droit international, on pourra relire avec intérêt son article sur le problème des frontières maritimes, La Nature, mars 1956,
- p. 81.
- Les variations des températures hivernales à Moscou
- Dans un de ses récents numéros, la revue soviétique Priroda parle de la température moyenne relevée, à Moscou, en janvier, au cours des trois derniers hivers, et la compare à la température moyenne normale. Les hivers de 1956-1957 à 1958-1959 ont, en effet, été particulièrement doux à Moscou, surtout celui de 1958-1959. La température moyenne, en janvier, y a été de — 4,2° C, alors que la moyenne normale est de —10,4° C. Les 23 et 24 janvier 1959, par exemple, la température n’est jamais descendue au-dessous de 0° C, et une forte pluie est tombée le soir du 24 janvier. La température moyenne de janvier 1957 a été de — 7° C, et celle de janvier 1958 de — 6,8° C. La température moyenne minimale, en janvier (—21,5° C) fut enregistrée, à Moscou, en 1893, et la température moyenne maximale (— 2,9° C) en 1882. Il est intéressant de noter, en parlant de cette succession d’hivers particulièrement doux, que cinq hivers particulièrement rigoureux s’étaient succédé, en U.R.S.S., de 1939 à 1943. La température moyenne, à Moscou, des mois de janvier depuis 1939 jusqu’à 1943 a été de —15,8° G.
- C. M.
- Autocar ultra-rapide sur l'autoroute Londres-Birmingham
- En novembre 1959 a été ouvert au trafic le tronçon Londres-Birmingham de l’autoroute Londres-Yorkshire. Long de 150 km, comprenant deux chaussées séparées, le tronçon en question a été construit au bout de iS mois de travaux qui ont coûté plus de 260 000 000 NF. 180 ponts ont été édifiés et 20 000 000 t de terre ont dû être remuées. Les travaux concernent maintenant la section située plus au Nord, en direction de Leicester et de Nottingham. Plus tard viendra le tour de la section reliant Birmingham et Lancaster. Londres sera alors rattachée directement à l’Ecosse par une autoroute.
- Dès à présent une firme de transports a été autorisée à exploiter un service d’autocars sans arrêt Londres-Birmingham (trois fois par jour). La durée du parcours est ramenée de 5 h 20 à 3 h 25 ; un nouveau type d’autocar est en construction, capable d’atteindre 115 km/h en une minute, et dont la vitesse maximale dépasserait 135 ! Cet original véhicule, qui tiendra la dragée haute à la plupart des voitures de tourisme, sera naturellement équipé de freins ultra-puissants (freins à disques).
- p.294 - vue 297/558
-
-
-
- Le Parc national de Yellowstone
- doyen d’âge des grandes réserves naturelles
- D’après la tradition c’est au cours d’un bivouac tenu le 19 septembre 1870 qu’est née la grande idée de la préservation de la Nature. Une quinzaine d’hommes y participaient; ils venaient de parcourir dans l’Ouest américain des paysages de forêts, de lacs et de gorges d’une grande beauté et ils imaginèrent d’ériger ces régions en réserve naturelle, afin d’en sauvegarder les richesses contre les méfaits du déboisement et de la chasse. Le Congrès des États-Unis ratifiait ce projet moins de deux ans plus tard, en créant le Parc national de Yellowstone.
- Placé au cœur des Montagnes Rocheuses, le Yellowstone n’est séparé des grandes plaines à l’Est que par quelques chaînons montagneux qui traversent l’État du Wyoming, mais son altitude, presque partout supérieure à 2 000 m, accentue un climat déjà très continental. La réserve n’englobe pas moins de 10 0000 km2 de hauts plateaux accidentés et sauvages, de lacs dont le plus grand est, à 2 3oo m d’altitude, aussi vaste que le lac suisse de Neuchâtel. Située à l’emplacement d’une ancienne dépression s’ouvrant sur le versant pacifique de la chaîne, cette région a vu se dresser au Tertiaire d’imposants volcans, dont les coulées de lave ont atteint d’énormes épaisseurs avant d’être profondément entaillées par l’érosion glaciaire. Le volcanisme est aujourd’hui tombé en sommeil; il n’en subsiste que des phases tardives, quelques séismes (dont l’un d’eux fut violemment ressenti l’année dernière dans des régions voisines et le Parc lui-même) et d’innombrables geysers et sources chaudes qui contribuent à donner au paysage son caractère insolite.
- *
- # #
- L’existence de 45o km de routes goudronnées permet d’accéder facilement aux principales curiosités, mais bien des sites ne peuvent être atteints qu’au prix de longues marches pendant lesquelles l’éloignement des axes routiers rend la solitude à peu près complète.
- Limite du parc ===== Route carrossable Limite d'état • Principale installation hôtelière Ligne de partage des eaux entre les deux océans
- Electric A Peaklf MamrnotWPB Hot Sprinqs^
- noms qeyser basin 1
- rnlls (Chutes)
- A 3 300
- /ower Vyr''"? geyser/JJupper ' basin 11/ geyser, sÿbbasin
- Old Taithfur^=s?T\
- [YELLOWSTONE
- MParc Natiohafê =)de Yellowstone|
- Fig. 1. — Carte du Parc national de Yellowstone.
- Fig. 2. — Le geyser « Vieux Fidèle ».
- La périodicité des éruptions n’est pas absolument constante mais elle suit des variations prévisibles.
- CPhoto National Park Service, Yellowstone Park, Wyoming).
- Les manifestations thermales constituent un élément caractéristique de la région. Dans certaines parties du Parc le voyageur peut apercevoir les vapeurs légères qui s’élèvent de tous côtés au milieu des arbres, entendre le halètement des mares en ébullition et le sifflement des gaz dans les fissures du sol. Ailleurs il ne subsiste que quelques plaques de « geysérite », croûte blanchâtre et siliceuse abandonnée par les eaux chaudes. Dans les Geyser Basins ce dépôt occupe de vastes étendues où il n’y a plus ni forêt ni végétation aucune, mais des centaines de sources chaudes et jaillissantes auxquelles le soufi’e et les minéraux d’altération donnent parfois des teintes de pastel. C’est au milieu de l’un de ces bassins que se manifeste le « Vieux Fidèle » : d’heure en heure s’élève pendant quelques minutes une colonne d’eau et de vapeur d’une trentaine de mètres; quant au « Géant », aux manifestations malheureusement très rares, il n’a pas moins de 200 m ! Beaucoup de petits geysers forment des systèmes à plusieurs ouvertures et suivent des cycles compliqués, où certaines mares lentement remplies se vident précipitamment avant qu’un entonnoir voisin entre en éruption. L’exploration des sources ne va d’ailleurs pas sans exiger certaines précautions, leu revêtement de geysérite pou-
- p.295 - vue 298/558
-
-
-
- Fig. 3 (ci-dessus). —
- Les chutes inférieures, hautes de 100 m, dans le canyon de la rivière Yellowstone.
- Fig. 4 (ci-contre). — Groupes de grizzlys ( Ursus horribilis ).
- (Photos National Paris Service, Yellowstone Paris, Wyoming).
- !
- p.296 - vue 299/558
-
-
-
- Fig-. 5 (ci-dessus). —
- Les « Mammoth hot springs » ( sources
- chaudes du Mammouth).
- Les eaux très chaudes retombent en cascade sur un énorme édifice de travertin.
- Fig. 6 (ci-contre). —
- Un geyser en activité.
- (Photos National Park Service, Yellowstone Part, Wyoming).
- p.297 - vue 300/558
-
-
-
- 298
- vant céder sous les pas et précipiter l’imprudent dans quelque chaudron, ou dans une poche de boue mouvante.
- Il n’est pas surprenant que le sol recèle une grande variété de roches et de minéraux et permette d’étudier bien des formes du volcanisme. Il existe même des vestiges d’anciennes forêts, dont quelques troncs silicifiés ont été dégagés par l’érosion.
- La création du Parc de Yellowstone a permis dès le début la sauvegarde d’une foule d’animaux qu’une chasse outrancière semblait vouer à l’extermination complète. L’hôte le plus populaire est sans doute l’Ours noir des Rocheuses ou Baribal, visiteur pacifique et quémandeur des terrains de camping et bords de routes; cëpendant en vue d’éviter certains accidents tant pour le touriste que pour l'animal, le règlement du Parc interdit de le taquiner ou de lui donner de la nourriture. Plus dangereux mais plus rare est le fameux Grizzly. On peut également admirer dans leur milieu naturel des cerfs Wapitis, le « Moose » ou Orignal, animal voisin du grand Élan Scandinave, le « Bighorn » ou Mouflon du Canada, et le Bison que l’on ne trouve plus que dans des réserves disséminées dans l’Ouest des États-Unis. Les rongeurs sont nombreux. Parmi les autres espèces faciles à observer on peut citer les « pron-ghorns », ou antilopes-chèvres, curieux animaux qui représentent avec un pélican une faune plus méridionale, enfin les coyotes dont certains sont aussi familiers que le Baribal. C’est aux premières heures du jour que l’observation est la plus facile, avant que la plupart des animaux aient regagné des parties éloignées de la forêt.
- *
- # *
- Ce parc national n’a cessé depuis sa création de jouir d’une immense popularité. Placé dès l’origine sous contrôle fédéral il est depuis 1916 sous la juridiction du « National Park Service », un département de l’intérieur qui administre à l’heure actuelle 29 parcs nationaux et 79 national monuments, tous destinés à protéger les sites et objets qui ont une valeur historique, scientifique ou purement esthétique.
- A la différence d’une réserve intégrale où l’accès est strictement réglementé, un parc national est conçu sous deux aspects fondamentaux : préservation et tourisme. On a donc renoncé à isoler complètement la Nature de l’LIomme ou de son activité; au contraire on a cherché à maintenir un équilibre où toute construction ou exploitation n’est pas exclue, pourvu que le gouvernement en exerce totalement le contrôle. Des objectifs nouveaux, tels que délassement et éducation, peuvent être atteints. Pour mener à bien cette tâche il a fallu disposer de fonds d’équipement abondants et d’un personnel nombreux de surveillants et de spécialistes.
- L’entrée d’une automobile à Yellowstone donne lieu à l’achat
- d’un permis de quinze jours d’une valeur de trois dollars. Les visiteurs ont alors à leur disposition une infrastructure perfectionnée comprenant des terrains de camping, des hôtels ou des « motels », des magasins d’alimentation ou de souvenirs; les routes sont munies de postes de ravitaillement et de dépannage; le Parc possède également un important service postal, un équipement moderne de lutte contre l’incendie et un service médical. Aussi certains lieux, comme 1 ’Uppergeyser basin ou les Mammoth hot springs, sont-ils entourés de véritables villages, dont les nombreuses constructions, plus ou moins cernées par d’imposants parkings de voitures, ne sont pas sans poser des problèmes d’ordre esthétique. Si l’on excepte quelques réalisations d’un style fâcheux on ne peut que se féliciter du contrôle très strict exercé par les autorités contre toute publicité ou signalisation à caractère voyant. On peut s’étonner d’un tel modernisme au cœur d’une réserve naturelle. Il ne faut pas oublier que Yellowstone est un territoire aussi vaste que la Savoie, et qu’en dehors des routes l’afflux des visiteurs, souvent peu enclins à l’aventure, est rapidement dilué dans les espaces montagneux inhabités. L’amateur des lacs isolés ou des courses lointaines peut écarter, avant de se mettre en route, certains soucis matériels tels que ravitaillement, expédition de courrier ou soins médicaux.
- Plus remarquables sans doute sont les facilités offertes au visiteur pour comprendre et observer la Nature. Une abondante documentation et des locaux d’exposition font comprendre la géologie volcanique du Parc ainsi que sa faune et sa flore. Une telle opération ne possède pas seulement un rôle éducatif mais permet d’inculquer aux foules le respect des choses qui les entourent. Aussi les rangers de Yellowstone, gardes spécialisés qui ont à leur charge la préservation de la nature, se muent-ils souvent en naturalistes avertis. Formés dans une école de Californie, à Yosemite, les rangers sont des guides précieux dont le savoir n’a souvent d’égal que la courtoisie; mais ils doivent assurer une surveillance de tous les instants contre les déprédations. L’incendie est une menace perpétuelle et n’a cessé d’effectuer des ravages dans l’Ouest américain; quand la forêt a été dévastée, il se reconstitue un équilibre biologique différent de l’ancien où les espèces végétales notamment ne sont pas les mêmes. C’est ainsi que le lodge pôle pine (Pinus contorta) a supplanté diverses espèces sur d’immenses régions des Rocheuses et entre pour 80 pour 100 dans la flore forestière de Yellowstone, où on observe également le Pin de Douglas, le Pin Weymouth, le Pin blanc (P. strobus), le sapin d’Engelman et le tremble. La forêt est ici l’élément essentiel et conditionne toutes les autre formes biologiques.
- Telle est aujourd’hui la première des grandes réserves mondiales. Elle montre comment on peut préserver bien des trésors naturels irremplaçables contre les convoitises de l’économie moderne en instituant un système de protection élégant et rentable. J. P.
- Hydrogène sulfuré dans
- Le golfe de Krasnovodsk se trouve au sud-est de la mer Caspienne entre 39° 30' et 40° 02' de latitude nord. Sa longueur maximale est de 45 km, sa largeur maximale de 45 km aussi. Sa profondeur moyenne est de 5 m, tandis que sa profondeur maximale atteint 10 m. Le golfe est presque entièrement séparé de la mer Caspienne par la presqu’île de Tchekelen et par une étroite langue de terre. L’une des principales particularités du golfe de Krasnovodsk, nous dit la revue soviétique Priroda, est la présence d’une très forte quantité d’hydrogène sulfuré sur le fond, notamment dans la vase grise qui y est très abondante. La cause principale en est certainement la richesse de l’eau en sulfates. Dans la mer Caspienne déjà, on relève plus de 2,5 g de SO, pour un litre d’eau, c’est-à-dire 1,5 fois plus'que dans l’eau des océans ; et, dans l’eau du golfe de Krasnovodsk, les sulfates sont
- le golfe de Krasnovodsk
- encore plus abondants (jusqu’à 2,73 g par litre d’eau). En outre, le fond du golfe contient du gypse. Ces sulfates fournissent aux diverses bactéries (Beggiatoa et autres) le matériel nécessaire à la production de l’hydrogène sulfuré. Cet hydrogène sulfuré reste cependant au fond, puisque l’eau du golfe n’en contient presque pas. La vase grise qui recouvre le fond du golfe se compose presque exclusivement de coquilles microscopiques et de détritus de diatomées. Le fait que l’âge des coquilles prélevées ne dépasse généralement pas un an et la présence d’une très grande quantité d’organismes divers à la surface de la vase semblent indiquer que des conditions s’y reproduisent périodiquement où tout développement de la vie s’arrête, pour une période assez brève, par suite de la contamination par l’hydrogène sulfuré.
- C. M.
- p.298 - vue 301/558
-
-
-
- La chaîne Lomonossov empêche le mélange des eaux atlantiques et pacifiques dans l’Arctique
- 209
- Depuis longtemps déjà, on avait soupçonné l’existence d’une chaîne de montagnes au fond de l’Océan Arctique. Cette hypothèse semblait cependant contredite par les premières mesures systématiques qui furent effectuées à la fin du xixe siècle. Ces mesures, au cours desquelles des profondeurs supérieures à 3 ooo m furent relevées, firent penser, en effet, que le fond de l’Océan Arctique était assez régulier et que le bassin arctique tout entier n’était qu’une grande fosse océanique. Ce ne fut que le 17 avril 1948, rappelle la revue soviétique Priroda, que la première expédition aérienne envoyée par l’U.R.S.S. pour explorer la partie centrale de l’Océan Arctique releva, avec précision, à 86°26' (latitude nord) et à i54°53' (longitude est), une profondeur de 1 290 m seulement. Cette mesure, jointe à d’autres, permit de prouver l’existence de la chaîne montagneuse sous-marine appelée chaîne Lomonossov et d’établir, dès ig48, le tracé approximatif de cette chaîne, qui part des Iles de la Nouvelle Sibérie, traverse tout le bassin arctique et aboutit à la Terre Ellesmere. Ce tracé fut précisé en 1949, et, déjà alors, on put constater qu’aux grandes profondeurs, au-dessous de 1 5oo m, la température et la composition de l’eau ne sont pas les mêmes des deux côtés de la chaîne Lomonossov, cette chaîne empêchant les eaux de l’Océan Atlantique et de l’Océan Pacifique de se mélanger.
- L’exploration du fond de l’Océan Arctique fut poursuivie et, au début de 1969, une expédition soviétique releva, entre le Pôle Nord et la Terre François-Joseph, une profondeur de 73o m seulement, correspondant à un sommet sous-marin isolé. Toutes ces mesures permettent d’aboutir à la conclusion que le relief du fond de l’Océan Arctique est très irrégulier et accidenté. Il n’est même pas exclu qu’au voisinage de la chaîne Lomonossov, certains pics atteignent presque le niveau de la mer. Rappelons aussi qu’il y a quelques mois la revue Priroda nous a appris qu’une activité volcanique avait été décelée
- dans celle chaîne sous-marine (La Nature, novembre 1958, p. 448).
- La température de l’eau aux diverses profondeurs a été mesurée par les expéditions soviétiques. Voici la répartition des températures relevées suivant une ligne allant de la mer de Beaufort à la mer du Groenland : au voisinage de la surface, c’est-à-dire dans une couche d’eau comprise entre les profondeurs de o et 25 m et par endroits entre o et 5o m, la température de l’eau est basse et voisine de o° C; à partir de 5o m, la température croît et dépasse o° C à une profondeur d’environ 200 à 25o m. Cette couche entre o et 200 m peut être considérée comme la couche des eaux arctiques froides. La couche des eaux atlantiques à température positive se trouve environ entre les profondeurs de 200 et 1 000 m. A des profondeurs encore plus grandes, la température de l’eau baisse progressivement jusqu’à
- — o,8° G dans la région atlantique du bassin et jusqu’à
- — o,4° C dans sa partie pacifique. Ce n’est que tout près du fond que l’on constate une nouvelle et très légère élévation de la température.
- Aux profondeurs relativement faibles, les eaux atlantiques et pacifiques se mélangent, les eaux atlantiques pénètrent, par des courants à tracé compliqué, dans la région pacifique et de faibles courants atteignent même parfois la région limitrophe du Pacifique lui-même. Mais la chaîne Lomonossov s’oppose à toute pénétration des eaux atlantiques dans la région pacifique aux grandes profondeurs. Des mesures océanographiques ont révélé qu’à ces profondeurs la température de l’eau atteint
- — o,8° C et sa salinité 34,94 à 35 pour 1 000 sur le versant
- atlantique de la chaîne, alors que sur le versant pacifique les valeurs correspondantes sont —o,4° C et 34,9 à 3-4,94 pour 1 000. La teneur de l’eau en oxygène n’est pas la même non plus : elle est de 72 à 78 pour 100 du côté atlantique, et de 79 à 82 pour 100 du côté pacifique. C. M.
- GALETS ÉOLISÉS
- Un article de A. Rudel dans la Revue de Géomorphologie dynamique attire l’attention sur des galets fossiles découverts dans une sablière de Pont-du-Château, à quelques kilomètres de Clermont-Ferrand. Ces galets d’origine volcanique (l’un serait du trachyte, deux autres du basalte scoriacé) ont une forme très particulière qui rappelle un peu celle d’un bolet à gros pied.
- Cette forme n’avait été observée jusqu’ici que dans l’île subarctique de Heard et avait été attribuée à une intense érosion éolienne s’exerçant au ras du sol. Le climat actuel du Puy-de-Dôme ne laisserait pas place à un semblable phénomène. Par contre, la faune et la flore que l’on retrouve dans l’étage du Quaternaire où les galets ont été découverts (le Wurmien) semblent indiquer que la région a été soumise, à cette époque, à un climat froid. La flore assez pauvre prouverait en outre qu’on se trouvait en présence d’une steppe balayée par le vent. L’érosion aurait été favorisée par la nature des sables, riches en éléments abrasifs tels que quartz, olivine et magnétite. Les galets éolisés devraient cette particularité au fait qu’une de leurs extrémités était solidement maintenue par une couche de sable, rendue compacte par l’humidité.
- G. C.
- Fig. 1. — Un galet éoîisé de Pont-du-Château (Puy-de-Dôme).
- CPhoto R.-H. Noaillks).
- p.299 - vue 302/558
-
-
-
- 300
- Le difficile problème de l'aérodynamique phonatoire LE LARYNX EST UNE SIRÈNE
- Dans la suite d’exposés consacrés au renouvellement de nos connaissances concernant la phonation (La Nature, nos 3264, 3262, 3267, 3271, 3275, 3284, 3285, 3289, 329k et 3298) M. Raoul Husson n’avait fait qu’esquisser le difficile problème du fonctionnement aérodynamique du larynx. Il le traite ici avec plus de précision et le lecteur voudra bien excuser les quelques formules mathématiques qu’implique cet exposé. On verra que le fonctionnement du larynx est assez analogue à celui d'une « sirène », mais le contexte physiologique du phénomène aérodynamique n’est pas sans y apporter de notables complications. On est bien loin désormais des conceptions simplistes et sans base expérimentale qui, il y a dix ans à peine, masquaient tant bien, que mal l’absence d’une acoustique phonatoire.
- De nombreuses expériences ont montré, depuis quelques années, que, dans la phonation, les cordes vocales ne « vibraient » nullement sous l’influence du courant d’air trachéal, mais présentaient des contractions rythmées rapides ouvrant et fermant successivement la glotte. De sorte que, si une pression sous-glottique existé, l’écoulement d’air se trouve haché en cadence, ce qui élève périodiquement la pression dans le pharynx et produit la voix. Ce mécanisme de génération du son est évidemment du type de celui des sirènes, et il est caractérisé par le fait que le mécanisme qui fixe la fréquence est entièrement indépendant de celui qui fixe l’intensité.
- A première vue, on pourrait croire que la simplicité de ce mécanisme doive faciliter l’établissement d’une théorie aérodynamique (1) du fonctionnement phonatoire du larynx. Mais il n’en est rien. Si le lecteur prend la peine de parcourir les ouvrages qui traitent de la mécanique des fluides, il constate avec étonnement que la théorie de la sirène ne figure nulle part. Citons notamment, en langue française, les ouvrages de : Adrien Foch (collection Armand Colin, n° i48); A. Brun, A. Martinot-Lagarde et J. Mathieu (Mécanique des Fluides, Tome i, Dunod, i960); R. Ouziaux et J. Perrier (Mécanique Appliquée, Tome 1 : Mécanique des Fluides, Dunod, 19&8); et, en langue anglaise, les ouvrages de : H. Lamb (Hydrodyna-mies, 6e éd., ig45, Dover, New York); L. D. Landau et E. M. Lifschitz (Fluid Mechanics, traduit du russe, 1959, Per-gamon, Londres). Une théorie de la sirène n’est esquissée que dans VAcoustique Générale de H. Bouasse (p. ii6-i46). Mais elle ne reproduit que les calculs anciens de Koenig relatifs à sa « sirène à ondes », et H. Bouasse prévient le lecteur qu’ils sont sans rapport avec la nature du phénomène et les résultats de l’expérience.
- La nature des difficultés s’aperçoit tout de suite : la théorie des écoulements (que le fluide soit incompressible ou non) n’est sûre que pour les écoulements en régime permanent. Moyennant un échafaudage d’hypothèses, on l’étend aux écoulements
- 1. La plupart des ouvrages de Mécanique des Fluides français rangent dans l’Hydrodynamique toutes les études relatives à l’écoulement des fluides au sein de conduites à une dimension (tubes, tuyaux,, tuyères, pavillons, etc.), que ces fluides soient incompressibles (liquides) ou compressibles (gaz, vapeurs). La raison en est que ces problèmes dépendent d’équations de même forme, dites de l’Hydrodynamique depuis Euler. Le terme d’Àérodynamique, réservé en France aux mouvements des gaz à partir de problèmes à deux dimensions au moins, est cependant employé dans nombre de pays étrangers dans son sens étymologique, emploi auquel nous avons cru devoir nous rallier dans un article de culture générale (R. H.).
- en régimes variés et même turbulents. Mais elle n’a jamais été étendue aux régimes discontinus, dont le fonctionnement de la sirène offre un exemple typique.
- Dans le présent article, je montrerai d’abord comment certains auteurs des États-Unis, tels que W. W. Fletcher et J. L. Flanagan, ont cru pouvoir extrapoler la théorie des écoulements en régime permanent à l’étude du fonctionnement phonatoire de la glotte, en multipliant d’ailleurs les justes réserves. Je montrerai ensuite dans quelles limites leurs conclusions peuvent être admises, et comment les résultats expérimentaux s’en différencient dans le cas général. Il conviendra en outre de montrer comment et dans quelle mesure le cadre biologique offert par nos organes vocaux vient compliquer les phénomènes mécaniques et aérodynamiques dont ils sont le siège. Ces complications, de nature bien particulière, achèvent de particulariser le fonctionnement de la « sirène glottique », et redonnent un lustre nouveau à la vieille boutade de Richerand et Béraud qui écrivaient, en i884 : « En définitive, le larynx ressemble encore bien plus à un larynx. »
- Le débit aérien à travers la glotte pendant la phonation. — Sa mesure expérimentale. — La mesure expérimentale directe du débit aérien à travers la glotte, pendant la phonation, est très facile, et faite depuis longtemps, si l’on se contente d’évaluations approchées (à 20 pour 100 près par exemple). Elle ne devient délicate que si une plus grande précision est exigée.
- On peut par exemple émettre un son tenu dans une sorte-d’entonnoir aboutissant à une cloche spirométrique, en notant la hauteur et la durée de l’émission. On peut aussi mesurer à vide la « capacité pulmonaire » du sujet en air disponible,, puis lui faire tenir un son jusqu’à extinction. Toutes les méthodes analogues, si grossières qu’elles soient, conduisent à des résultats du même ordre de grandeur. Chaque bouffée d’air qui sort de la glotte par période, dans la voix de conversation banale, est de l’ordre de un dixième de centimètre cube. Cette valeur croît un peu avec la fréquence du son, et un peu plus avec son intensité. Elle ne dépasse cependant pas 2 cm3 dans les puissants rugissements des chanteurs d’opéra (i3o décibels à 1 m de la bouche).
- Ce résultat est déjà fort intéressant : il montre que le débit aérien ne joue qu’un rôle très secondaire dans l’élévation colossale possible de l’intensité des sons laryngiens.
- Le calcul approché de J. L. Flanagan (1958). — J. L. Flanagan assimile la sortie de l’air trachéal à travers la glotte, lorsqu’elle est ouA^erte, à un écoulement permanent au travers d’un orifice percé en paroi mince. On sait que, dans ces conditions très particulières, la vitesse de sortie ne dépend que de la différence des pressions, et nullement de la grandeur du trou (dans certaines limites bien entendu). La figure 1 a, b, c définissant les notations, J. L. Flanagan désigne par A la surface de l’ouverture glottique, par U la vitesse de fuite de l’air à travers la glotte, par Q le débit, et par p la densité de l’air, ce qui lui permet d’écrire les relations approchées :
- p.300 - vue 303/558
-
-
-
- 301
- 120mm
- 20 mm
- 16mm
- Ui
- Glotte
- rectangulaire
- théorique
- c
- Fig. 1. — Schéma du fonctionnement phonatoire de la glotte assimilé à un écoulement permanent dans un orifice percé en paroi mince.
- a : Arbre trachéal avec son rétrécissement glottique. b : Écoulement schématique à travers un orifice glottique supposé invariable, et veine contractée (vena contracta) à la sortie de la glotte, c : Orifice glottique, théoriquement supposé rectangulaire.
- (D’après J.-L. Flanagan, légèrement modifié).
- J. L. Flanagan énumère les six conditions qui limitent les conditions d’application de ces formules :
- i° la surface A de la glotte est beaucoup plus petite que la section de la trachée, et Px et P2 sont sensiblement constantes;
- a0 la vitesse dans la trachée est beaucoup plus petite que la vitesse U à travers la glotte, ce qui permet de négliger l’énergie cinétique de l’air intratrachéal ;
- 3° les dimensions de la glotte restent petites vis-à-vis des longueurs d’onde des sons produits.
- Ces trois premières conditions sont assez généralement réalisées dans la phonation. Mais les trois suivantes le seront moins;
- 4° la vitesse de fuite intraglottique U reste petite vis-à-vis de la vitesse du son (désignée par c), ce qui permet de poser que l’air se conduit comme un fluide incompressible;
- 5° la distribution des vitesses U est uniforme en toute section horizontale de la glotte (qui, dès lors, fonctionne comme une tuyère) ;
- 6° il n’y a pas de viscosité.
- Ces trois dernières conditions ne sont généralement pas réalisées dans la phonation. Les tomographies frontales de larynx pendant la phonation (voir La Nature, novembre 1957, p. 434, clichés obtenus par' le Dr A. Djian) montrent que la fente verticale glottique dessine une tuyère convergente. La vitesse U, aux grandes pressions sous-glottiques, y obéit aux lois d’Hugo-niot, et approche ou même atteint la vitesse du son. Quant à la viscosité, elle ne saurait être négligeable au travers d’une tuyère dont l’une des dimensions descend parfois au-dessous du quart de millimètre lors de son écartement maximal.
- J’ajoute enfin deux remarques personnelles.
- a) La formule (1) elle-même suppose que la différence de pression Pl — P2 est petite, ce qui n’est nullement le cas dans le chant théâtral. Elle doit être remplacée par une relation beaucoup plus compliquée (voir Y. Rocard, Thermodynamique, Masson, 1952, pp. i63-i66).
- b) La formule (1), et même celle plus générale qui peut lui être substituée, ne sont valables que pour des écoulements permanents, et leur application à un écoulement rapidement discontinu soulève les plus vives réserves. Je montrerai plus loin comment J. L. Flanagan, qui a senti l’importance de ce fait, a tenté de s’en affranchir dans une certaine mesure.
- Corrections dues à la viscosité et à la contraction du jet glottique. — Le jet d’air qui sort de la glotte présente une section contractée (vena contracta) dont la surface Ac est un
- peu plus petite que celle A de la glotte. J. L. Flanagan pose : Ac = 8CA, où 8C est un coefficient un peu inférieur à l’unité. La vitesse Uc y est un peu supérieure à U.
- Enfin il tient compte de la viscosité en introduisant un nouveau coefficient 8„, un peu inférieur à l’unité, dans l’équation (2), qui devient :
- (2 bis)
- U =
- 8,
- FJ.
- Le débit Q s’écrit alors :
- (3 bis)
- 8 A
- V
- sf/'i-PJ
- où 8 est un coefficient (égal au produit 8C8J inférieur à l’unité qui peut servir à caractériser l’écoulement à travers la glotte supposée immobilisée en phase d’ouverture phonatoire.
- La surpression sous=g!ottique. — La différence P1 — P2 rencontrée plus haut, différence entre les pressions qui régnent sous et sur la glotte pendant la phonation, est communément appelée la pression sous-glottique. Elle est en réalité une surpression, égale à l’excès de la pression dans la trachée sur la pression intrapharyngée (égale en gros à la pression atmosphérique pré-labiale). Disons quelques mots de la mesure et des ordres de grandeur qu’elle atteint dans différentes conduites phonatoires.
- Dès 1837, Cagniard-Latour eut l’idée de brancher un « tube en U », jouant le l’ôle de manomètre, sur la canule de trachéotomie d’un sujet qui en était porteur depuis longtemps. La dénivellation des deux niveaux mesurait la surpression sous-glottique (fig. 2 a), et les différents ordres de grandeur en furent connus dès cette époque : une dizaine de centimètres d’eau dans la conversation ordinaire, 5o cm d’eau dans la toux, 100 cm d’eau dans le cri d’appel.
- La même méthode fut employée par la suite par différents expérimentateurs dans divers pays ; ils ne firent que confirmer les ordres de grandeur précédents.
- J. Yan den Berg, jeune électricien hollandais, employa en ig56, sur lui-même, une méthode plus audacieuse. Elle consistait à introduire dans sa propre glotte, par la bouche, un fin cathéter recourbé (fig. 2 b), branché à un manomètre à l’autre
- Fig. 2. — Principes de diverses méthodes expérimentales permettant de mesurer « in vivo » la pression sous-glottique (surpression) pendant la phonation.
- a : Méthode de Cagniard-Latour (1837). b : Méthode de Van den Berg (1956). c : Méthode du professeur Oreskovic (1958). Explications dans le
- texte.
- p.301 - vue 304/558
-
-
-
- 302
- extrémité. Si héroïque que soit la méthode, elle n’en est pas moins mauvaise : l’anesthésie laryngée nécessaire diminue fortement le tonus des accotements glottiques, et les dimensions du cathéter altèrent la fermeture de la glotte. De ces faits, les surpressions mesurées sont trop faibles, et le sujet ne peut accroître l’intensité de sa voix comme à l’ordinaire.
- La méthode de choix a été inaugurée à Zagreb en ig58 par le professeur M. Oreskovic, savant élève du maître Ante Sercer : sur des sujets normaux, il enfonce un fin trocart dans la trachée un peu au-dessous de l’anneau cricoïdien (fig. 2 c), son autre extrémité étant reliée à un manomètre. Il trouve ainsi des valeurs sensiblement plus fortes : jusqu’à 200 cm d’eau dans le cri d’appel, chez une femme non dressée au chant.
- Ce dernier chiffre conduit à penser que, dans le chant théâtral, et chez certains sujets qui réalisent des intensités de i3o décibels « en pointe » à 1 m de la bouche, les surpressions sous-glottiques peuvent atteindre jusqu’à 45o ou 5oo cm d’eau. Le calcul confirme ces ordres de grandeur : l’intensité de la voix, en watts, est proportionnelle à U2, et U croît en réalité plus vite que la surpression sous-glottique. On vérifie immédiatement la compatibilité des ordres de grandeur extrêmes des deux facteurs, sans qu’il soit utile d’insister.
- La « résistance » du passage de Pair à travers la glotte et 1* « appui » des chanteurs. — La « résistance » de la glotte et son évaluation approchée par J. L. Flanagan. — Lorsqu’un fluide en écoulement permanent franchit un rétrécissement du conduit où il circule, ce rétrécissement oppose une certaine résistance au courant : la pression y diminue et la vitesse y augmente. Les hydrodynamistes ont été conduits, depuis longtemps, à chiffrer cette résistance par le quotient :
- (A)
- P_ A IJ
- P
- Q’
- où P (— Px — P2) est la baisse de la pression dans le rétrécissement, A la surface de la section, U la vitesse dans le rétrécissement et Q -son débit. On lui a donné le nom à'impédance (on vérifiera sans peine que si le rétrécissement se ferme complètement, A s’annule et R devient infini).
- Appliquant ces données générales au larynx, J. L. Flanagan se sert des formules établies par lui, et données plus haut, pour écrire la relation (4) ci-dessus, et obtient tout de suite pour la résistance du larynx pendant la phonation l’expression :
- 15)
- R =
- ?Q
- 2(A4)*'
- Toutefois, J. L. Flanagan observe que, si la surface de la glotte A est très petite et si la surpression sous-glottiqute est elle-même petite, les effets de la viscosité ne peuvent plus être négligés, ce qui le conduit à introduire un terme de résistance visqueuse Rv dans la formule précédente, qui devient :
- (5 bis)
- P = Rv + K
- MU
- U SA)2J’
- où K est une constante d’effet laminaire un peu inférieure à l’unité.
- Si l’on admet que Rv peut s’évaluer par un calcul du type de Poiseuille, ou mieux de Couette (voir Brun, Martinot-Lagarde et Mathieu, t. I, p. 494), on trouve pour la résistance glot-tique :
- (5 tei'i
- 12 y.L
- 1ÏJ
- + K
- p Q
- 282/W ’
- où p. est le coefficient de viscosité de l’air intra-glottique (voir la fig. 1 pour la signification des lettres).
- Mais ces relations, comme je l’ai dit plus haut, ne valent que pour un écoulement permanent et des surpressions sous-
- glottiques faibles. On ne peut donc songer à les appliquer que lorsque la glotte ne se ferme jamais, c’est-à-dire en second registre (« voix de tête ») et en voix émise pianissimo. Dans ces conditions très restrictives, on peut ajouter que le terme dû à la viscosité est prépondérant lorsque la fente glottique s’ouvre peu, donc dans l'aigu, tandis que le second terme prend la prépondérance lorsque la glotte s’ouvre largement, c’est-à-dire dans le grave.
- L' « appui » des chanteurs. — Chaque chanteur apprécie, par le truchement de ses sensibilités internes laryngées et abdominales, la curieuse sensation de « résistance à l’écoulement du souffle » qu’il éprouve pendant la phonation, et surtout dans le chant à grande intensité (voir La Nature, mars iq58, p. 90-97). En fait, les sensibilités internes diffuses de nature kinesthésique qui se développent au niveau de la sangle abdominale lui apportent plutôt la sensation d’un soutien, et il les désigne par « soutien du souffle ». Celles qui sont perçues par lui, de même nature mais moins intenses, au niveau du larynx sont appréciées plutôt comme un appui, et ce sont elles qu’il désigne en général sous le nom d’ « appui de la voix ».
- L’appui de la voix, désigné comme tel par le chanteur, ne fait que traduire en termes de sensibilité interne la « résistance glottique » dont nous venons d’esquisser une évaluation approchée.
- Lorsqu’on dit que la voix d’un sujet manque d'appui, c’est que son sphincter glottique est insuffisamment contracté et que, corrélativement, sa pression sous-glottique est trop faible.
- Lorsque le même sujet accroît l'appui de sa voix, l’analyse physiologique révèle que : a) sa pression sous-glottique Px 'croît; b) le tonus d’accolement de son sphincter glottique augmente, c’est-à-dire que la largeur w de la glotte diminue (tandis que l’épaisseur L des cordes vocales tend à croître). Dans ces conditions, la résistance jR donnée par la formule (5 ter) ci-dessus augmente très rapidement.
- II paraît donc assez raisonnable de dire que la résistance glottique définie plus haut peut servir à mesurer, per definitio-nem, l’appui de la voix pendant le chant.
- Cas de la voix émise avec phase d'occlusion à chaque période. — J’ai fait observer plus haut que les formules données par J. L. Flanagan pour évaluer la résistance de la glotte n’étaient applicables en toute rigueur que lorsque la fente glottique ne se fermait jamais, c’est-à-dire en second registre émis à faible intensité. Qu’arrive-t-il lorsque la glotte se ferme durant une partie de chaque période, comme c’est le cas général en premier registre (voix de poitrine), et même en second registre (voix de tête) émis avec une intensité suffisante par la femme ?
- Dans ces conditions, les formules des types (5), (5 bis) et (5 ter) cessent de s’appliquer, puisqu’elles donnent des valeurs infinies en raison de l’annulation du débit durant les phases d’occlusion glottique.
- Durant ces phases d’occlusion, la résistance de la glotte change de nature. Elle est provoquée par un acte neuro-musculaire pur, qui est le maintien d’un tonus d’accolement des cordes vocales. Comme en général ce tonus d’accolement croît parallèlement à l’élévation de la surpression sous-glottique, on peut prendre cette dernière (soit Px — P2) comme mesure de l’appui de la voix dans de telles conditions, ou, mieux, sa
- racine carrée VP1 — p2> avec un coefficient multiplicatif convenable. Le raccordement d’une telle valeur avec celle que donne la relation (5 ter), par exemple, demeure assez illusoire, et il est d’ailleurs d’observation banale que, chez la femme comme chez l’homme, le passage d’une note émise en voix de poitrine à la même note émise en second registre s’accompagne toujours d’une forte sensation laryngée de diminution de
- p.302 - vue 305/558
-
-
-
- 303
- l'appui. Ce qui prouve que le raccordement des deux évaluations de la résistance glottique n’est pas à rechercher, car les deux correspondent à des phénomènes de natures très différentes.
- Étude de la validité des formules précédentes pour un écoulement intermittent. — J. L. Flanagan a senti combien l’application des relations établies par lui, valables pour un écoulement permanent, était critiquable lorsqu’on tentait de les utiliser à un écoulement discontinu comme celui du larynx dans le cas général. Il a cherché à voir dans quelle mesure cette application était cependant possible en se posant, le problème suivant : jusqu’à quelle limite de vitesse (ou de fréquence) des mouvements glottiques peut-on admettre que les écoulements à travers la glotte peuvent être décomposés raisonnablement en une suite discrète d’écoulements permanents, chacun à travers un orifice supposé constant pendant un court instant ? C’est peut-être là la partie la plus originale de son étude, et je la résumerai comme suit.
- Il cherche le temps mis pour la « force » sous-glottique Px — P2 pour évacuer le « tampon d’air » intra-glottique quand la glotte s’ouvre. Ce tampon d’air à mouvoir a pour masse celle de l’air intra-glottique augmentée d’un petit morceau de l’air sus-glottique qui suit, soit :
- pA(L + o,8 -y/A) ~ ç>ALt,
- où Le est en quelque sorte la profondeur glottique « corrigée ».
- L’équation (banale) du mouvement du tampon d’air : f = mq, donne1 tout de suite le temps T mis pour que la
- vitesse U atteigne sa valeur normale
- un calcul que nous omettons de reproduire) :
- ov
- , soit (après
- a Le
- » (Pi-PT)’
- P
- que J. L. Flanagan considère comme une approximation raisonnable du temps mis pour franchir la glotte par la bouffée d’air sous-glottique. Il admet qui si la période du son (ou
- Pression
- Fig. 3. — Types schématiques de profils d’ondes (de pression) dont le front devient de plus en plus « raide ».
- En passant du profil 1 au profil 4, le sharpening effect devient de plus en plus important. L’onde 4 pousse devant elle une petite discontinuité de pression (tueak shock wave).
- période du mouvement glottique) est supérieure à io T, l’écoulement glottique modulé peut être considéré comme une succession d’écoulements permanents. i
- Une application numérique facile lui montre que, pour des cordes vocales de 3 mm d’épaisseur, une fente glottique de 6 mm2, et une pression sous-glottique de 8 cm d’eau, la durée T est de l’ordre de o,3 millième de seconde, et l’hypothèse d’un écoulement pseudo-permanent peut être maintenue jusqu’à la fréquence de 33o cycles par seconde environ (Mi 3).
- Nous ferons observer que la valeur io T admise paraît bien faible lorsque la glotte se ferme (parfois durant une demi-période) ; la valeur 20 T serait alors meilleure. Quant à l’épaisseur des cordes vocales, elle atteint souvent x5 mm chez les chanteurs de profession. Enfin une surface glottique de 6 mm2
- est souvent largement dépassée, et peut atteindre 100 mm2 sur des notes très graves. Toutefois, la surpression sous-glottique peut atteindre des valeurs 5o fois plus fortes que celle qui est supposée. Ce qu’il y a de certain, c’est que l’hypothèse d’un écoulement pseudo-permanent ne saurait être retenue que pour des mouvements glottiques lents, c’est-à-dire des fréquences très graves.
- C’est d’ailleurs ce que met en évidence l’analyse de J. L. Flanagan, qui demeure, malgré sa fragilité, ingénieuse et élégante.
- La fourniture glottique initiale et son spectre acoustique. — Le travail de W. W. Fletcher (1950). —
- Dans sa thèse (ig5o), W. W. Fletcher s’est proposé d’étudier expérimentalement les rapports qui existent entre la fonction périodique A{t) représentant la surface de l’ouverture glottique en fonction du temps, d’une part, et d’autre part la fonction périodique Q(t) représentant le débit d’air à travers la glotte dans le même temps.
- Le décours de la première fonction (surface de l’ouverture glottique) fut tiré par lui de films laryngoscopiques pris à 4 ooo images par seconde, sur trois sujets émettant la voyelle è ouvert à des fréquences et des intensités relativement faibles.
- Quant au décours corrélatif de la seconde fonction (débit glottique), il fut déduit d’un calcul approché de mesures de pression acoustique faites à des instants « concomitant with the photography ».
- Sans insister sur les hypothèses 'impliquées dans ce dernier calcul, je relaterai simplement le résultat essentiel de W. W. Fletcher : il trouve que, dans les conditions physiologiques des émissions vocales effectuées, et compte tenu des hypothèses impliquées dans ses évaluations, les courbes qui représentent ces deux éléments périodiques, surface de la glotte et débit glottique, sont remarquablement parallèles.
- Le « sharpening effect ». — Le parallélisme des courbes qui représentent en fonction du temps la surface de la glotte et le débit glottique est quelque peu étonnant. On sait que c’est l’hypothèse faite autrefois par Koenig pour élucider le fonctionnement de sa « sirène à ondes » et qu’elle est grossièrement contredite par l’expérience.
- En fait, J. L. Fletcher paraît admettre, avec J. Van den Berg, que, au moins quand l’intensité du son croît, le front de l’onde de débit devient plus raide que le front de l’onde qui représente le décours de l’ouverture glottique (voir fîg. 3, schématique). C’est ce qu’il appelle le sharpening effect, ou « effet d’escarpement », terminologie imagée qui n’est point déplaisante.
- Effectivement, je montrerai dans un instant qu’aux grandes intensités vocales, le sharpening effect est colossal, et traduit un fonctionnement glottique hautement particulier qu’il n’est plus possible d’assimiler à un écoulement continu, même varié.
- Quoi qu’il en soit, l’existence d’un « sharpening effect » montre que, dans la relation (3) qui définit le débit :
- (3) Q = AU,
- la vitesse de fuite U doit nécessairement varier avec le temps, alors que, dans la théorie stricte d’un écoulement permanent au travers d’un orifice percé en paroi mince, elle ne dépend que de la différence des pressions,
- Conséquence obligatoire : la fuite d’air intermittente à travers la glotte pendant la phonation ne saurait être assimilée à un écoulement permanent en paroi mince, sauf peut-être aux très faibles surpressions sous-glotliques. On retrouve ainsi, de façon très sévère, la condition essentielle qui limite étroitement le domaine d’application des formules (i), (2) et (3) écrites par J. L. Flanagan.
- p.303 - vue 306/558
-
-
-
- 304
- Pression
- A
- a
- Temps
- Amplitudes k des
- harmoniques
- Numéros d'ordre des harmoniques successifs
- Intensités a des
- harmoniques
- Numéros d’ordre des
- harmoniques successifs
- Fig. 4. — Structure acoustique théorique d’un « son de sirène ».
- a : Forme des ondes de pression, du type' « carré « (théorique), b : Spectre d’amplitude du son ; les sommets des amplitudes des harmoniques successifs sont sur une hyperbole équilatère, symétrique par rapport à la bissectrice OZ. c : Spectre d’intensité du son : les sommets des intensités des harmoniques successifs sont sur une parallèle à l’axe des abscisses ; c’est le résultat expérimental trouvé par G. Beckmann en 1956.
- Fournitures glottiques initiales offertes par l'expérience ; travaux de G. Beckmann (1956). — La structure réelle d’une fourniture glottique initiale (je veux dire par là tirée de Vexpérience) n’est connue que depuis ig56 par les travaux de G. Beckmann (alors à Kiel, actuellement à Marburg-Lahn). J’én ai déjà parlé ici même (La Nature, juillet 1967, p. 253). Bien que le sujet étudié n’émît que des sons de faible intensité (le pharynx ouvert par une plaie chirurgicale béante), ceux-ci, analysés au spectromètre de fréquences, se montrèrent constitués d’harmoniques tous égaux en intensité (fig. 4 c). Les sons émis étaient donc analogues à des ondes carrées (fig. 4 a) auxquelles l’analyse de Fourrier confère des coefficients inversement proportionnels à la fréquence (fig. 4 b). C’étaient donc typiquement des sons de sirène, rigoureusement impossibles à assimiler à des sons d’anches, même battantes.
- Ces données expérimentales, d’une grande importance, font comprendre l’existence nécessaire d’un sharpening effect dans le fonctionnement du larynx humain : quelle que soit la forme de l’onde périodique de l’ouverture glottique, les ondes de pression qui en résultent à la sortie du larynx sont des ondes carrées (ou quasi carrées), c’est-à-dire caractérisées par un front vertical (ou quasi vertical). C’est déjà ce qu’autrefois Koenig avait observé dans le fonctionnement de sa « sirène à ondes » ; le son produit était criard, dit-il, c’est-à-dire chargé d’harmoniques, alors même que le décours en fonction du temps de l’orifice variable de sa sirène était sinusoïdal pur.
- Intensités possibles de la fourniture glottique initiale. —
- J’ajouterai une dernière remarque expérimentale, relative aux
- intensités susceptibles d’être atteintes par le son laryngien initial, et qui va achever de caractériser le fonctionnement aérodynamique du larynx humain.
- Chez certains sujets sélectionnés et entraînés (chanteurs dits de Grand-Opéra), les intensités vocales, mesurées à 1 m de la bouche et de face sur des voyelles ouvertes (vers le Ré 3), embrassent parfois l’intervalle incroyable de 3o décibels (dans le pianissimo) jusqu’à i30 décibels (dans le fortissimo); soit donc une pression acoustique variant de 1 à io10 (en watts). Compte tenu des énormes absorptions pharyngo-buccales, les intensités à la sortie du larynx évoluent donc de 4o à i5o (ou 160) décibels.
- Le physicien français Guéritôt a montré, dès 1920, que des systèmes d’anches étaient incapables de produire de telles intensités sonores : avant même d’arriver à des intensités beaucoup moindres, de l’ordre de 100 à no dB, toutes les anches « claquent », ou bien s’écartent et cessent de vibrer. On peut même dire que de telles intensités sonores sont impossibles à produire dans tout système où la fréquence serait réglée par des facteurs d’élasticité, car de tels facteurs seraient détruits bien avant d’atteindre de tels niveaux d’énergie.
- Bien entendu, un fonctionnement de sirène échappe totalement à cette impossibilité : la fréquence y est fixée par un mécanisme externe (vitesse de rotation d’un disque perforé, fréquence de salves récurrentielles), tandis que l’intensité ne dépend que de la pression aérienne réalisée (théoriquement illimitée).
- Complications mécaniques et biologiques diverses au niveau du larynx. — Dans les lignes qui précèdent, le fonctionnement aérodynamique du larynx est étudié en quelque sorte in abstracto, c’est-à-dire indépendamment de son cadre biologique et des rapports, mécaniques ou neurologiques, qu’il contracte nécessairement avec ce cadre. Il est impossible de passer sous silence les modifications de son fonctionnement qui résultent de ces rapports. Je vais donc passer en revue les plus importants d’entre eux, ce qui permettra de mieux caractériser le fonctionnement in vivo de cet effecteur aérodynamico-musculaire si hautement particulier.
- Les réactions myotatiques du sphincter laryngien au courant d'air et à la pression sous-glottique. — Dans la théorie esquissée plus haut d’un écoulement en paroi mince, il est sous-entendu que la surface A de l’orifice (voir fig. 1 b et 1 c) ne varie pas avec la pression sous-glottique réalisée, de sorte que le débit à travers la glotte ne dépend que de la vitesse de fuite U, laquelle est précisément fixée par la pression sous-glottique P2.
- Dans la réalité, il en est tout autrement. La fuite d’air intra-glottique exerce une stimulation myotatique intense sur le sphincter laryngien qui, dès lors, accroît son tonus d’occlusion et modifie son fonctionnement neuro-musculaire. Cette action myotatique produit trois effets sur le comportement glottique :
- ier effet : L’excursion latérale des cordes vocales diminue quand la pression sous-glottique augmente (les cordes deviennent plus raides). Donc la surface de la glotte A diminue lorsque PL croît, ce qui conduit à retoucher la formule (3). Ceci s’observe bien facilement au laryngostroboscope sur un sujet qui émet un « son filé », c’est-à-dire progressivement croissant en intensité sur une hauteur invariable : on voit (fig. 5) que l’amplitude des mouvements glottiques diminue en passant du piano au forté.
- 2e effet : Les clichés tomographiques de larynx en phonation révèlent que, du piano au forté sur une même hauteur tonale, les cordes vocales s’épaississent : c’est dire que, dans la formule (5 ter), la longueur L du « canal glottique » augmente avec Pj (voir également fig. 5).
- 3e effet : L’allure d’une période d’ouverture glottique se
- p.304 - vue 307/558
-
-
-
- 305
- Fig. 5. — Aspects
- laryngoscopiques de la glotte et profils tomographiques de l’affrontement des cordes vocales dans l’exécution d’un « son filé ». Voyelle È ouvert émise sur 259 c/s (Ut 3) par un baryton, en premier registre. En haut : aspect strobosoopique de la glotte en phase d'écartement maximal. En bas : clichés tomographiques frontaux du larynx en phonation, le plan vertical de coupe passant en CC'. A gauche : voyelle émise « piano » (30 dB). A. droite : voyelle émise « forte » (80 dB).
- modifie elle-même fortement à mesure que la pression sous-glottique Pj augmente. Aux faibles pressions, la phase d’écartement est courte et la phase de rappel est longue (fig. 6 a). Aux fortes pressions, c’est la phase de rappel qui devient très brève, tandis que la durée de la phase de fermeture complète s’allonge : nous avons donné à ce phénomène le nom d’ « effet Timcke », du nom du jeune physicien de Hambourg qui l’a signalé le premier (fig. 6 b). Aux pressions énormes du chant à grande puissance, l’ouverture glottique s’aplatit à l’extrême et devient légèrement bimodale (fig. 6 c). Ces faits ont été révélés par la gloltographie électrique du professeur Phi-
- Lcartement des cordes vocales i
- Fig. G. — Modifications, selon l’intensité du son émis, du décours des ouvertures glottiques en fonction du temps enregistré au glotto-graphe électrique du professeur Philippe Fabre.
- Laboratoire de Physiologie de la Sorbonne, janvier 1960. Sujet : Georges Vaillant, puissante basse chantante de l’Opéra de Paris. Voyelle émise A clair, sur 290 c/s (Ré 3), d’abord à 40 décibels, puis à 80 dB, enfin à 120 dB, mesurés à 1 m de la bouche et de face. A 80 dB, on voit que les phases d’écartement et de rapprochement des cordes vocales sont inversées en durée : c’est ce que nous avons appelé l’effet Timcke! A 120 dB, les cordes vocales ne se décollent que faiblement, et le glottogramme devient légèrement bimodal. La phase de contact devient de plus en plus longue quand l’intensité croît.
- lippe Fabre, qui est la méthode de choix pour l’étude des comportements glottiques (voir La Nature, octobre 1959, p. 206).
- La discussion de ces faits, que je ne puis songer à donner ici, montre que, du piano au forté, la modification de forme de la période de l’ouverture glottique tend encore à accroître la raideur du front de l’onde de débit qui en résulte, c’est-à-dire à accroître le taux des harmoniques aigus de la fourniture laryngée.
- Particularités de l'onde de pression déterminée par chaque bouffée d'air issue du larynx. — Dès que l’on ne suppose plus petite la surpression sous-glottique Px — P2, de nouvelles complications apparaissent dans le fonctionnement de la sirène glottique. Dès que la glotte s’ouvre (à chaque période), l’air sus-glottique est attaqué par un tampon d’air à forte pression qui y détermine une compression que rien ne permet plus de supposer infiniment petite. C’est donc une discontinuité de pression, en toute rigueur, qui va se propager au-dessus de la glotte, et Hugoniot a établi, depuis longtemps, qu’elle se propage avec une vitesse C' supérieure à la vitesse normale du son C dans le milieu :
- C' — C \ /1 + Y + 1 . ,
- V 2Y Pt
- où y est, le rapport des chaleurs spécifiques, A.P la surpression sous-glottique et P2 la pression dans le pharynx (atmosphérique, à très peu près).
- Ainsi donc, dans de telles conditions de fonctionnement, le son laryngien initial se trouve constitué, au sortir de la glotte, par une succession périodique de petites « ondes explosives », chacune progressant comme une « onde solitaire » à vitesse supérieure à celle du son en poussant devant elle une petite discontinuité de pression.
- Ces circonstances favorisent la création d’harmoniques aigus nombreux et intenses, et se traduisent par l’existence d’un sharpening effect extrêmement marqué, tout à fait caractéristique du fonctionnement d’un larynx humain.
- Il est à peine besoin d’ajouter qu’en raison des forLes absorptions qui ont leur siège au sein du pavillon pharyngo-buccal, le front de ces ondes va perdre rapidement sa raideur, leur vitesse va rapidement diminuer pour tendre vers la vitesse ordinaire du son, tandis que les harmoniques aigus de l’onde sonore subiront une atténuation rapide.
- Ce mécanisme dissipatif est cependant loin d’être instantané. De la glotte aux lèvres, la distance n’est que d’une vingtaine de centimètres dans le chant, soit le cinquième de la longueur d’onde d’un fondamental du haut-médium de l’homme (Mi 3 par exemple), et cette distance est franchie par la perturbation de pression en moins d’un millième de seconde. A la sortie des lèvres, le front de l’onde est encore très raide, ce qui explique les effets tympaniques sévères provoqués par la voix humaine à forte intensité et à faible distance, encore renforcés lors des maximums du « vibrato ». (Rappelons ici que, sur la scène de l’Opéra, les artistes à voix ultra-puissantes s'incommodent l’un Vautre à plusieurs mètres de distance).
- La stimulation tonique laryngée issue des sensibilités pharyngo-buccales. — Nous savons, de nos jours, que le tonus d’accolement du sphincter glottique est très sensible à un grand nombre différences stimulatrices qui lui parviennent de sensibilités très variées en natures et en points de départ. Certaines, et non des moins importantes, sont issues de plages intérocep-tives pharyngo-buccales, et sont déterminées par les pressions acoustiques qui ont leur siège au sein même du pavillon pharyngo-buccal. Le lecteur en trouvera l’étude détaillée dans La Nature, mars 1958, p. g3 et 94. Ces stimulations provoquent une élévation du tonus glottique, qui a pour effet de diminuer la surface A de l’ouverture glottique à chaque période.
- p.305 - vue 308/558
-
-
-
- - 306
- P PA P
- Fig. 7. — Arc réflexe (schématique) parcouru par l’activation palato-laryngée.
- Partie de la plage palatale aclivatrice principale PPAP, la stimulation gagne les noyaux sensitifs du trijumeau NST, se diffuse au sein de la substance réticulée facilitatrice SRF avoisinante, et vient activer les noyaux moteurs voisins : du X (qui provoquent l’activation laryngée), du IX (pharyngien), du XI (spinal), du XII (grand hypoglosse), du VII (facial), du V (masticateurs), ainsi que les noyaux végétatifs salivaires supérieur et inférieur (NSS et XSI) et cardio-pneumo-entérique IN CPE.
- Elles suivent un circuit réilectif pour une grande part trigé-mello-bulbo-réticulo-bulbo-récurrentiel, que l’on trouvera schématisé sur la ligure 7.
- Sous cet aspect, on voit que le débit aérien glottique, qui varie avec la surface de l’ouverture glottique, est susceptible
- d’être modifié (diminué) par les états résonantieis développés au sein des cavités susglotliques, ce qui le rend dépendant, en toute rigueur, de la technique vocale adoptée par le sujet.
- La quatrième et dernière complication, qui va suivre, de nature tout à fait différente, va également prendre sa source dans le fonctionnement même du pavillon pharyngo-bucco-nasal.
- Modification du fonctionnement aérodynamique glottique sous l'influence de l'impédance ramenée par le pavillon et par le rayonnement extérieur. — Les ouvrages d’Yves Rocard (notamment sa Dynamique générale des vibrations, 3e édit., Masson, Paris, 1,960) ont familiarisé les lecteurs français avec la notion d'impédance et celle, corrélative, d'impédance ramenée. On sait par exemple que tout pavillon ramène sur la source sonore qui est à sa petite embouchure toutes les impédances qu’il oppose à la propagation des ondes sonores en son sein.
- Disons en deux mots qu’une impédance est ici une variété de résistance mécanique, laquelle diminue l’amplitude des ondes qui se propagent sans altérer (en général) leur vitesse. Elle est dite « ramenée sur la source » parce que c’est cette source qui, en définitive, doit fournir en totalité l’énergie exigée pour la vaincre.
- Dans toute une série de recherches expérimentales échelonnées dans le temps depuis iq&i, et ayant fait appel à des méthodes diverses (stroboscopie, tomographie, gloltographie électrique), j’ai montré que le pavillon pharyngo-bucco-nasal exerçait, pendant la phonation, une impédance ramenée permanente susceptible de varier dans d’énormes limites selon la configuration instantanée dudit pavillon. On jugera de ces limites en sachant que, quand l’orifice buccal se ferme en même temps que le conduit nasal, l’impédance ramenée devient infinie et l’émission du son cesse.
- Cette impédance ramenée sur le larynx modifie considérablement le comportement phonatoire de la glotte. En raison de l’importance de cette réaction, j’ai déjà eu l’occasion d’en entretenir les lecteurs de La Nature à plusieurs reprises, et je renverrai pour plus de détails aux précédentes études : juillet 1957, p. 254, pour les effets de l’impédance ramenée par le pavillon pharyngo-buccal; septembre 1968, p. 342, pour les effets de l’impédance ramenée par le pavillon nasal; janvier 19&7. p. 3 à 7 pour les effets de l’impédance ramenée par le rayonnement de l’onde vocale extérieure. Enfin, dans le numéro de mai 1969, j’ai même montré que la notion d’impédance
- Fig. 8. — Effets, sur les accotements glottiques, d’une impédance ramenée accrue provoquée par un rapetissement de l’ouverture buccale u (tubage » labial).
- Le sujet a émis, à gauche, la voyelle X clair sur 290 c/s (Ré 3) en premier registre avec une intensité (réduite) de 110 décibels à 1 m lie la bouche. A droite : même voyelle, môme hauteur tonale, même registre, et même intensité. Mais la voyelle a été fortement sombrée par la projection en avant du conduit labial (manœuvre appelée « tubage »). On notera, en passant du cliché de gauche au cliché de droite : 1° un accolement glottique moins ferme ; 2° une amplitude vibratoire accrue; 3° un épaississement (très léger) des cordes vocales.
- (C.lichés tomographiques pris le 18 septembre 1958 par le docteur A. Djian, dans le Service de Radiologie de l’Hôpital franco-musulman de la Seine, sur Paul Finel, puissant premier ténor de l’Opéra de Paris. Collection R. Husson).
- p.306 - vue 309/558
-
-
-
- 307
- ramenée était si fructueuse qu’elle constituait un critère privilégié permettant de classer valablement toutes les « conduites phonatoires », c’est-à-dire tous les modes possibles d’utilisation de nos organes vocaux. (Pour plus de détails sur cette impor-
- Ouverture Glottique
- A
- Z'
- Fig. 9. — Différenciation des comportements glottiques selon la voyelle émise, en fonction de l’impédance ramenée sur le larynx, appréciés par les glottogrammes électriques rapprochés des tomo-grammes corrrespondants.
- Voyelles émises par le même sujet, baryton, sur 250 c/s (Ut 3) à 95 dB, et ramenant des impédances croissantes sur le larynx de haut en bas, c’est-à-dire dans l'ordre : A (clair), A0 (sombre), O (ouvert), o (fermé), ou. (Laboratoire de Psychophysiologie de la. Sorbonne et Service de Radiologie de l’Hôpital franco-musulman de la Seine).
- tante question, on se reportera à notre ouvrage La Voix chantée,, Gauthier-Villars, Paris, i960).
- Je me contenterai donc de rappeler ici que toute impédance ramenée sur le larynx, quelle que soit son origine, modilie comme suit le comportement phonatoire de la glotte : i° elle diminue la durée de la phase d’écartement, accroît celle du rappel, diminue celle du contact et arrondit les glottogrammes ; 20 elle augmente l’amplitude des excursions des cordes vocales, et parfois accroît leur épaisseur; 3° elle provoque donc une chute légère du tonus des accolements glottiques, contemporaine d’une élévation de la pression intra-glollique et d’un accroissement du débit.
- La figure 8 montre, sur deux clichés tomographiques pris sur le larynx de M. Paul Finel, puissant ténor de l’Opéra de Paris, les effets visibles d’une impédance ramenée provoquée par un simple rapetissement de l’ouverture buccale (appelé tubage). Sur la ligure 9, nous avons rapproché les glottogrammes et les lomogrammes offerts par un même sujet émettant successivement, sur 270 c/s et avec une intensité invariable de 80 dB, cinq voyelles tenues à impédances ramenées croissantes : A (clair), A (sombre), O (ouvert), o (fermé) et ou. La schématisation des dessins fait ressortir les résultats.
- Conclusions. — Le fonctionnement aérodynamique du larynx pendant la phonation pose incontestablement des problèmes difficiles et d’une nature qui ne fut même pas soupçonnée dans les temps préhistoriques des études phonatoires, avant ig5o. C’est le mérite de W. W. Fletcher et de J. L. Flanagan d’avoir entrevu la véritable nature de ces problèmes et d’en avoir dégrossi une ébauche raisonnable.
- Si l’assimilation du débit aérien discontinu, qui sort du larynx, à un écoulement au travers d’un orifice en paroi mince, est manifestement inappropriée, il n’en reste pas moins qu’elle constituait une première approximation assez naturelle, et que la comparaison des résultats expérimentaux avec les conséquences auxquelles elle conduit contribue à éclairer le problème.
- Les travaux de l’école française de la Sorbonne ont surabondamment mis en évidence un fonctionnement laryngien du type de « sirène », et les analyses acoustiques de G. Beckmann ont fait connaître les fournitures qui en étaient issues. Les travaux de AV. AA7. Fletcher et de J. L. Flanagan ont ouvert le chapitre relatif à l’élude aérodynamique de cette sirène particulière. L’étude approfondie de ce problème n’est certes pas de tout repos; au moins il est maintenant correctement posé.
- Raoul IIusson,
- Ancien élève de l’École Normale Supérieure, Docteur ès sciences, Lauréat de l’Institut et de l’Académie de Médecine.
- Un saumon grand voyageur
- On sait que le saumon (Salmo salar) s’engraisse dans la mer et se reproduit en eau douce. En règle générale, chaque animal retourne dans la rivière qui l’a vu naître, quoiqu’il soit capable de s’écarter beaucoup de l’embouchure lors de son séjour en mer. Le marquage des saumons a permis d’établir qu’ils pouvaient faire en mer des voyages assez étendus; mais des parcours dépassant beaucoup 1 000 km sont toutefois considérés comme exceptionnels. Or voici des faits signalés récemmènt par la revue soviétique Priroda. La présence de saumons marqués dans les eaux norvégiennes a été souvent constatée dans les mers qui baignent les côtes septentrionales de l’U.R.S.S. Le saumon en provenance des rivières septentrionales soviétiques pénètre donc lors de ses migrations, non seulement dans la
- Mer de Barents, mais aussi dans la Mer de Norvège. En octobre 1968, par exemple, un pêcheur de la région de Mourmansk captura un saumon portant la marque norvégienne (ND C22). Renseignements pris, cette marque datait du 16 juin 1958, et le saumon en question avait été marqué non loin de la ville de Trondhiem. La distance parcourue par le poisson en 125 jours était donc de l’ordre de 2 4oo km, sans tenir compte du fait qu’il n’avait vraisemblablement pas parcouru cette distance en ligne droite. On a pu établir, en outre, que le saumon dont il . s’agit provenait de la rivière Oumba (ou d’une rivière voisine) débouchant dans la Mer Blanche. Le chemin qu’il avait parcouru à l’aller était donc encore plus long.
- C. M.
- p.307 - vue 310/558
-
-
-
- Mollusques extraordinaires au Japon et en Australie : DES GASTÉROPODES A COQUILLE BIVALVE
- Dans une note préliminaire parue au Biological Journal de l’Université d’Okayama (1), les zoologistes japonais Siro Kawaguti et Kikularo Baba ont décrit, sous le nom de Tamano-valva Umax, un mollusque à coquille bivalve présentant des caractères si extraordinaires qu’ils estiment devoir en faire le type d’un sous-ordre nouveau des Opisthobranches Sacoglos-ses. Cette espèce a été découverte par S. Kawaguti au cours de l’été 1959, dans la mer intérieure, au voisinage du Laboratoire marin de Tamano. Elle se trouve sur l’algue verte Cau-lerpa okamurai qui croît sur les rochers submergés du rivage. Sa couleur générale est d’un vert foncé, de sorte qu’elle est très homoclirome et difficile à voir sur les algues.
- La forme de ce mollusque lorsqu’il rampe est celle d’une limace allongée, de 10 mm de longueur environ. La tête, petite, porte deux rhinophores épais, auriculés et deux petits tentacules buccaux lobiformes; les yeux sont très rapprochés, placés sur une petite saillie dans la partie médiane du cou; il n’y a pas de trompe. Le pied est étroit, à angles arrondis, sole plate, se pliant longitudinalement sur la ligne médiane; queue très courte, ne dépassant pas la- coquille. Orifice génital sur la partie droite du cou; pénis court, flagelliforme, sans armature. Manteau divisé ventralement en deux moitiés qui s’appliquent sur les valves de la coquille. Il n’y a ni siphon, ni lobes parapo-diaux. Une branchie simple, formée d’un rang de minces lamelles, sous le lobe droit du manteau; le type de cette branchie rappelle les genres Oxynoe et Lobiger. Radula formée d’un rang de dents du type sacoglosse, dont cinq dans la série ascendante et une trentaine dans la série descendante; chaque dent est finement denticulée sur les bords. Le système nerveux n’a malheureusement pas été décrit.
- La couleur du corps est vert foncé avec des taches blanches opaques sur la tête et les rhinophores; les bords du manteau sont tachetés de blanc et de brun foncé.
- La coquille, qui constitue le caractère le plus remarquable de cet étrange Gastéropode, a 7 mm de longueur et est formée de deux valves semblables, de forme ovale, un peu rétrécies vers l’arrière, l’ombilic après le milieu. Ces valves sont faiblement calcifiées, translucides et de couleur jaunâtre; leur surface est lisse avec des lignes de croissance fines, coupées par
- 1. A preliminary note on a two-valved Sacoglossan Gastropod, Tamano-valva Umax, n. gen., 11. sp., from Tamano, Japan. Xous devons la communication de cette note à l’obligeance du docteur AV. J. Rees, qui en a publié récemment une analyse dans la revue Nature (12 mars 1960).
- ‘ ' V
- J:
- Fig. 1. — Tamanovalva Umax, l’animal vivant, vu de profil (A) et du dessus (B).
- x 6,5 environ (D’après S. Kawaguti et K. Baba).
- de nombreux fils radiants peu marqués. Les deux valves sont unies par un ligament dorsal invisible et il n’y a pas de charnière. Enfin, l’apex de la valve gauche a gardé la petite coquille hélicoïde, blanchâtre, de la larve veliger. L’union des valves est assurée par un seul muscle adducteur.
- En état de reptation, la partie antérieure du corps et le pied sortent de la coquille; mais si l’animal est inquiété, il se retire entièrement dans celle-ci, dont les deux valves se referment étroitement. L’aspect de la coquille est alors absolument celui d’une coquille de Lamellibranche.
- Le Tamanovalva Umax'ne semble pas être un animal rare car plus de 200 exemplaires en ont été récoltés en différents points autour du Laboratoire de Tamano et un individu a été également trouvé dans la mer du Japon, près de la base de Toyama. Sa nourriture semble être uniquement l’algue Caulerpa okamurai. La reproduction a lieu en juillet-août; les œufs sont gros, incolores, déposés en une masse de 10 mm de long environ, en forme de boudin un peu incurvé. Les auteurs japonais ont observé les larves trochophore et veliger. Le veliger est du type des Gastéropodes avec vélum bilobé, pied saillant, coquille hélicoïde et opercule.
- Les docteurs L. R. Cox et W. J. Rees, du British Muséum, ont^publié dans la revue britannique Nature, sur les affinités de ce curieux Mollusque, une étude très documentée à laquelle nous empruntons les détails suivants. C’est la coquille larvaire qui est conservée comme protoconque à l’apex de la vahre gauche de l’adulte; bien que l’animal ait une organisation dextre, elle semble enroulée à gauche, caractère de protoconque typique d’Opisthobranche. Les Opisthobranches sont considérés comme les Gastéropodes les plus évolués et beaucoup ont réussi à effacer le désavantage que constituent la torsion et la dissymétrie des ancêtres Proso-branches par l’acquisition d’une symétrie secondaire, dont Tamanovalva montre un nouvel et remarquable exemple.
- La constatation de la possibilité de développement d’une coquille bivalve et presque symétrique dans un groupe normalement univalve apporte un élément favorable à la théorie qui fait dériver les Lamellibranches de
- Fig. 2. — Aspect ventral de Tamanovalva Umax, à demi retiré dans sa coquille.
- A, anus ; B, glande hypobranchiale ; D, muscle adducteur ; E, oeil ; F, pied ; G, branchie ; H, cœur ; M, manteau ; P, pore du pénis ; R, rhi-nophore.; S, valve droite de la coquille'; S,, valve gauche; Y, pore vaginal ; X, muscle rétracteur de la tête (D’après S. Kawaguti et K. Baba ; documents aimablement communiqués par le docteur AV. J. Rees).
- p.308 - vue 311/558
-
-
-
- 309
- Mollusques primitifs univalves. Cependant, cette évolution suppose la courbure, le long de la ligne médiane, d’une coquille en forme de bonnet, symétrique, la formation d’une charnière et la fusion des muscles pall-éaux pour former les deux muscles adducteurs. L’origine de la seconde valve et du muscle adducteur de Tamanovalva ne pourra être déterminée de façon satisfaisante que lorsque tous les détails du développement postembryonnaire seront connus. Il semble que la valve gauche, qui porte la proloconque, représente la valve unique originelle et que la seconde valve est une néoformation produite probablement par division du manteau à un stade assez précoce, sans doute à la métamorphose, ayant ensuite acquis une charnière. Étant indépendante du pied, elle ne peut provenir de l’opercule qui s’atrophie probablement de bonne heure, comme chez les autres Opisthobranches.
- On connaissait déjà, provenant de la côte australienne, et par des coquilles seulement, deux espèces de Mollusques bivalves dont un caractère très particulier rappelait Tamanovalva. En effet, l’une des valves de ces coquilles a gardé à son sommet une petite coquille larvaire spiralée qui a été comparée à la coquille interne d’un Gastéropode Tectibranche. Malgré cette singularité, ces Mollusques avaient été rapportés aux Lamellibranches et décrits sous le nom d'Edenttellina typica. La persistance de la coquille larvaire spiralée laissait néanmoins subsister un doute sur la place exacte à assigner aux Edenttdlina et son interprétation posait une énigme qui vient d’être résolue. Dans une très intéressante note préliminaire, parue dans le numéro du 9 avril i960 de Nature, M. Robert Burn fait savoir qu’il a recueilli, au cours d’une excursion à Torquay (État de
- Victoria), non plus seulement la coquille bivalve, mais un individu vivant d'Edenttellina typica. A sa grande surprise, il a constaté alors que ce Mollusque n’est pas un Lamellibranche mais un Gastéropode très voisin de Tamanovalva Umax. Il a récolté en même temps un autre Gastéropode du même groupe, mais appartenant à un genre nouveau. Les deux espèces ont été recueillies, comme les Tamanovalva, sur des algues du genre Gaulerpa. La description et l’étude anatomique des nouvelles espèces paraîtront prochainement.
- On peut ajouter que l’on connaît un rare fossile de l’Eocène du bassin parisien qui semble pouvoir être rapproché de ces Edenttellina. C’est un petit bivalve, à coquille mince, de forme trapézoïde, rappelant Edenttellina et Tamanovalva, dont les jeunes individus ont, au sommet de la valve gauche, une petite coquille larvaire qui disparaît par la suite. Découverte par Deshayes, elle a été décrite en 1888 par Cossmann, sous le nom de Ludovicia squamula, dans la famille des Galéommidés, voisine des Érycinidés, à charnière obsolète, dont le ligament a, par suite, une position souvent mal définie. Cossmann écrit à son sujet (2) : « A l’intérieur, les impressions des muscles et du manteau sont tout à fait indécises; si je n’avais étudié les deux valves de cette singulière coquille, j’aurais pu croire qu’il s’agissait d’un Gastropode. » Si cette coquille peut vraiment être rapprochée des Edenttellina, cela indiquerait que les Sacoglosses existaient dès l’Éocène.
- L. Ciiopaud.
- 2. Catalogue illustré des Coquilles fossiles de l’Éocène des environs de Paris (Ami. Soc. R. malacol. Belgique, XXII, 1887 (1888), p. 1-214).
- Cycle du C02 terrestre et variations du climat
- Sous ce même titre, un article du numéro de novembre 1959 de La Nature (p. 483) résumait une étude de la revue américaine Scientific American concernant les cycles de l'anhydride carbonique et leur interaction avec le climat de notre planète, l'augmentation du C02 dans l’atmosphère ayant pour effet de réchauffer la Terre en « piégeant » les infrarouges. A ce sujet, M. L. Genevois, professeur à la Faculté des Sciences de Bordeaux, nous a envoyé des observations que nous publions ci-après.
- Cycle du C02 et volcanisme
- Vous publiez une note fort intéressante sur les cycles de l’anhydride carbonique et les variations de climat; cette note reprend la théorie du physicien suédois Arrhenius (1897), .théorie que je crois exacte. Votre note expose d’une façon pertinente la raison pour laquelle le gaz carbonique disparaît de l’atmosphère, pour être stocké sous forme de produits végétaux; il ne faut pas oublier la précipitation de C02 sous forme de carbonate, précipitation importante par le développement des organismes à test calcaire, développement d’autant plus rapide que le climat est plus chaud; la masse de carbone immobilisée dans les roches calcaires est bien supérieure à la masse de carbone immobilisée sous forme de sédiments organiques. Il est donc très facile d’expliquer l’apparition d’une période glaciaire; le retour d’une période tempérée ne peut s’expliquer que par le dégagement par les volcans d’une grande quantité de gaz carbonique. A ce sujet, on peut faire deux remarques : i° il existe une activité volcanique dans les régions tropicales, qui débitent constamment du gaz carbonique; si l’on suppose les
- régions circumpolaires fortement refroidies, l’activité des organismes, tant végétaux que marins, sécrétant des tests calcaires est très ralentie ; il arrivera donc un moment où le gaz carbonique produit excédera le gaz carbonique consommé et l’atmosphère se réchauffera; 20 votre correspondant n’a pas noté que les périodes glaciaires coïncident avec une recrudescence de l’activité volcanique; ce fait est parfaitement bien mis en évidence pour la dernière glaciation würmienne, dans la chaîne des Puys, dans l’Eifel à l’ouest de Bonn, etc. Les glaciers ont en effet enfoncé les compartiments terrestres sur lesquels ils se sont développés, par effet isostasique, ce qui a été vérifié au Groenland par Paul-Émile Victor et son équipe, et ce qui a été vérifié également au Pôle Sud. Ces enfoncements de compartiments terrestres ont eu pour conséquence des surélévations à la périphérie des glaciers, phénomène décrit par Ramsay en 1922; ces surélévations locales ont atteint en Europe des valeurs de 5oo à 600 m dans le Massif des Ardennes, le Plateau de Thuringe, etc. La recrudescence du volcanisme est localement liée à ces surélévations.
- L. Genevois.
- Cycle du C02 et pédogenèse
- Ces observations de M. Genevois sont du plus haut intérêt et apportent' un utile complément à la théorie exposée dans Scientific American par G. N. Plass, théorie que nous nous étions efforcé de résumer. Il est indéniable que cette théorie n’accordait pas une place suffisante à la fixation de C02 sous forme de carbonates, si bien que les échanges entre atmosphère-océans d’une part et lithosphère d’autre part se trouvaient incontestablement sous-estimés. On peut supposer que
- p.309 - vue 312/558
-
-
-
- 310
- l’objectif principal du savant américain était de mettre en relief deux paroxysmes opposés de l’histoire chimique du Globe. Le premier, situé à l’époque carbonifère, a réalisé un intense stockage carboné dans les sédiments organiques. Le second, dont l’époque actuelle est le théâtre, se traduit par la reprise, due à l’homme, de ce stock fossile, conduisant à un enrichissement de l’atmosphère et de l’hydrosphère en C02 et à un réchauffement consécutif du climat.
- Il est évident que, si l’on « extrait » ces deux paroxysmes, on se trouve devant une quasi-constante de production et de consommation alternées de C02. La permanence de ce phénomène cyclique est d’ailleurs attestée par l’existence de sédiments calcaires, datant aussi bien du Primaire que du Secondaire et du Tertiaire, alors que des phases plus accentuées du volcanisme accusent des pointes de la production de C02.
- La corrélation, signalée par M. Genevois, entre ces phases et les périodes glaciaires, fait jouer un élément supplémentaire, d’ordre tectonique, dans le cycle, ce qui tend à enrichir la théorie, tout en la confirmant.
- Mais puisque l’occasion nous est donnée de revenir sur cet important sujet, il nous semble opportun d’ « élargir le débat » en ajoutant aux paramètres chimiques, biologiques, tectoniques et climatiques le paramètre pédogénétique qui ressort de la théorie de H. Erhart. Cette théorie bouleverse en effet les conceptions acceptées jusqu’alors de roches spécifiquement organogè-nes, dans lesquelles se retrouvent les calcaires et les dolomies, toutes deux carbonées, à côté de certaines roches siliceuses. Les sédiments de ces différentes catégories, même ne contenant aucun organisme fossile, étaient considérés comme l’accumulation de tests d’animaux ou de végétaux morts.
- H. Erhart oppose à cette hypothèse traditionnelle celle d’une précipitation purement chimique « sans fixation biologique », celle également d’un milieu générateur, créant des conditions de vie exceptionnellement favorables au pullulement de certaines catégories d’organismes.
- On pourrait être tenté, dans le cas des calcaires et dolomies, d’attribuer un rôle prédominant à l’abondance du CO, pour créer le milieu générateur. Il y aurait ainsi relation directe et exclusive entre les disponibilités en gaz et le développement des organismes à test calcaire. Mais, selon Erhart, l’apport en cal-
- cium est d’une importance au moins égale à celui du C02. La fixation de ce gaz par les organismes marins ne peut en effet avoir lieu que si le milieu leur livre l’ensemble des matériaux nécessaires à la formation de leurs coquilles ou carapaces.
- Or l’origine de ces matériaux doit être trouvée dans la « dénudation chimique » qui s’exerce particulièrement sur les sols calcaires des forêts vierges, pendant les périodes de biostasie, c’est-à-dire lorsque végétaux et animaux sylvestres ont atteint et conservent « un équilibre biologique apparemment immuable ». La puissante couverture forestière préserve alors les sols des effets du ruissellement, mais favorise en même temps les lentes infiltrations chimiques, reprises par les cours d’eaux et véhiculées par eux jusqu’aux océans.
- Les milieux générateurs marins se trouvent ainsi complétés et la sédimentation s’opère à la fois par la voie biologique et par la voie chimique. En d’autres périodes, plus ou moins cataclysmiques (refroidissement, sécheresse, orogenèse, volcanisme), les apports continentaux changent de nature et l’on assiste à des dépôts de roches détritiques, favorisés par la destruction des forêts.
- Ce cycle pédogénétique interfère avec celui du C02 et l’histoire biochimique du globe n’apparaît plus aussi simple que précédemment. Il est en particulier une notion que l’on sera sans doute appelé à réformer : celle des organismes marins prêts à absorber le C02, dès lors qu’il existe en abondance et que la température permet à ces organismes de proliférer. La théorie d’Erhart laisse entrevoir qu’au cours de longues périodes les deux conditions, chimique et thermique, ont pu être réalisées, sans toutefois entraîner automatiquement le pullulement des organismes et la formation consécutive de puissants sédiments calcaires et dolomitiques.
- Une doctrine totale a des chances de pouvoir s’édifier, en fonction de ce facteur essentiel. Elle devra très vraisemblablement tenir compte, pour les stockages et déstockages de C02, de l’action complémentaire des milieux marins d’une part, des milieux continentaux d’autre part : le rôle en effet des puissantes forêts vierges de type tropical ne saurait être sous-estimé, à la fois comme émettrices de substances carbonées et comme fixatrices de l’anhydride carbonique de l’atmosphère.
- Gaston Cohen.
- Projet Hydra : l’eau en guise de rampe de lancement
- La Marine américaine étudie en ce moment une nouvelle méthode de lancement des fusées balistiques ou spatiales, intitulée projet Hydra. On sait que rien n’est plus coûteux que les rampes de lancement des fusées modernes. D’énormes plates-formes sur rails, des tours métalliques, des grues et des déflecteurs de flamme en sont les éléments de base, et ces installations coûteuses risquent d’être endommagées ou détruites si la fusée explose au départ. Le fait s’est déjà produit. Or on prévoit que la rampe de lancement de la fusée spatiale Saturne ne coûtera pas moins de trente millions de dollars. Ne serait-il pas possible d’économiser de telles sommes P
- Le commandant Draim, de la Marine américaine, s’inspirant peut-être de la fusée Polaris lancée par sous-marin, a proposé de faire partir toutes les fusées dans l’élément liquide. Il suffirait de les faire flotter la pointe en l’air, dans une eau suffisamment calme. Une telle rampe de lancement aurait l’avantage de ne rien coûter, d’être indestructible et de parer à tout risque d’explosion. Draim, qui est un des techniciens du centre de fusées de la Marine, à Point-Mugu (Californie), s’est empressé d’expérimenter dans un lagon peu profond. Il a utilisé un modèle de fusée en bois de 2 m de longueur, muni d’un petit réacteur à carburant solide. Après avoir lesté conve-
- nablement son modèle pour qu’il flotte verticalement, Draim alluma le carburant à distance par l’entremise d’un fil électrique préalablement déroulé par des « hommes-grenouilles ». La fusée prit un départ normal, jaillissant de l’eau et montant à une vingtaine de mètres avant de retomber. Draim pense qu’une fusée contenant 5oo t de carburant fonctionnerait tout aussi bien. Mais il semble qu’un système de correction gyrosco-pique, se surajoutant au mécanisme de guidage, devrait être prévu. Même en eau calme et peu profonde un certain balancement serait à craindre. D’autre part, il faudrait sans doute prévoir des compartiments vides ou accroître le diamètre des fusées pour assurer leur flottabilité, ce qui nuirait à leur portée. A moins de les munir de flotteurs détachables...
- Quoi qu’il en soit, la Marine américaine paraît très intéressée, au point de vue militaire, par cette méthode de lancement des fusées. Celles-ci resteraient ancrées sous la surface, prêtes à fonctionner. Elles seraient faciles à déplacer pour tromper l’adversaire. Il suffirait enfin de régler leur système de guidage à chaque déplacement pour les maintenir pointées sur tel ou tel objectif. On saura sans doute bientôt si ce projet est réalisable pratiquement.
- p.310 - vue 313/558
-
-
-
- L'Actualité instrumentale LA PYROMÉTRIE
- Le repérage des températures, depuis l’invention du thermomètre à mercure, a suivi dans son évolution le développement des techniques de laboratoire et des techniques industrielles. Le besoin de connaître une température avec précision s’est superposé progressivement au besoin de la connaître dans une échelle de température de plus en plus étendue puisque les limites actuelles courantes sont en gros, du côté froid — 260° C, et du côté chaud + i 8oo° C. Aussi les méthodes de repérage se sont-elles multipliées afin de permettre de résoudre les problèmes variés et nombreux qui se posent au laboratoire et dans l’industrie (métallurgie, Arerrerie, céramique, produits chimiques, éclairage...).
- Dans le domaine qui constitue à proprement parler celui de la pyrométrie, les principales méthodes de repérage (on dira d’une façon plus pratique mais inexacte, de mesure) de la température peuvent se classer en trois catégories principales distinctes : les mesures dilatomélriques, les mesures électriques, les mesures optiques.
- En fait, la première catégorie ne fait appel qu’à des appareils pratiques peu coûteux, réservés à un contrôle assez grossier de températures relativement basses; les autres permettent d’atteindre une précision bien supérieure et présentent de nombreux autres avantages.
- Les mesures électriques sont effectuées à l’aide de pyromètres à résistance et à thermocouple, les mesures optiques à l’aide des pyromètres à disparition de filament et à radiation totale, le dernier type nécessitant néanmoins l’utilisation d’un thermo-couple.
- Leur fonction même permet aussi de classer les pyromètres en appareils indicateurs, enregistreurs et régulateurs, cette dernière fonction pouvant s’allier aux deux autres.
- Principes de construction
- Thermomètres à dilatation. — a) Dilatation de solides. •— La dilatation des solides est en général faible, le coefficient de dilatation linéaire étant de l’ordre de io~5 à io~6.
- Pour des températures élevées, il est bien préférable d’utiliser un bilame dont la sensibilité dépend des coefficients de dilatation respectifs des deux métaux constitutifs. Le bilame se présente généralement sous forme de spirale ou d’hélice dont la concavité est tournée du côté du métal le moins dilatable. La liaison d’une extrémité de l’aiguille indicatrice à l’extrémité du bilame permet, après étalonnage, la lecture de la température.-
- b) Dilatation de liquides. — Les liquides sont beaucoup plus dilatables que les solides, le coefficient de dilatation cubique étant de l’ordre de grandeur de io~4 à io-3 à la température ordinaire. Leur utilisation, principalement celle du mercure, permet la réalisation de dispositifs de sensibilité supérieure à celle des types précédents.
- Thermomètre à résistance. — La résistance d’un métal varie avec la température suivant une loi approximativement linéaire dans un intervalle étroit de température, ou parabolique du type Rt — R0 (i -f at + ht2)..., formules auxquelles fait appel la définition de l’échelle internationale de température à l’aide d’une résistance de platine, pour des intervalles de température bien délimités (La constante a, pour les unétaux usuels comme le platine, le nickel, le cuivre est de l’ordre de 5.io~3).
- Cette propriété est appliquée à la mesuré des températures : une sonde contient un bobinage qui constitue l’une des branches d’un pont de Wheatstone, et les trois autres branches
- comportent des résistances, généralement en manganine, à faible coefficient de température. Le pont étant en équilibre pour la température de i’égime de l’appareil, le galvanomètre ne dévie pas, aucun courant ne passant dans la diagonale. Si la température varie, le pont se déséquilibre et le galvanomètre dévie. Un étalonnage préalable permet la lecture directe en température.
- Un galvanomètre souvent utilisé est le galvanomètre à cadres croisés. L’alimentation du pont se fait en courant continu ou alternatif redressé.
- Thermomètre à couple thermoélectrique. — Considérons un circuit constitué par deux fils de métal de nature différente et portons les soudures à des températures différentes. On sait qu’il apparaît entre elles une force électromotrice fonction de la différence de température. Une soudure étant à o° C, la loi de cette variation peut être approximativement linéaire, ou du type e — a + ht + et2 si l’on se réfère encore à la définition de l’échelle internationale à l’aide d’un couple Pt-Pt rhodié à io pour 100 entre 6oo° et i o63° C : les coefficients dépendent, là encore, de la nature du couple et de l’intervalle de température envisagé.
- Peu importe la place choisie dans le circuit pour faire la coupure destinée à y introduire l’appareil de mesure de la force électromotrice, du moins la température des deux bornes doit-
- A2A
- "H
- 5,
- (U)
- (t2)
- m
- Fig-. 1. — Schémas de thermomètre à couple thermoélectrique.
- Le circuit électrique, constitué par les deux fils de métal M, et M,, comporte deux soudures : l’une S, dite « soudure chaude » est maintenue à la température t, à mesurer ; l’autre S2 dite « soudure froide » est maintenue à la température t3 de référence. Le galvanomètre de bornes B, et B2 est introduit dans une coupure faite en un point du fil M, (schéma I) ou M2 (schéma II) ; l’endroit choisi pour faire la coupure.peut ne pas être quelconque, et coïncider (schéma III déduit de TI) avec la soudure froide Sa : l’ensemble des bornes Bqq, à la température ambiante f2, constitue S2 (mesure de t, faite dans une enceinte à t2). Dans les trois schémas, la force électromotrice mesurée est la même.
- elle être la même. Aussi, pour des raisons pratiques, la coupure du circuit coïncide généralement avec l’une des soudures. L’usage désigne par soudure chaude le contact (métal Mx-métal M2) porté à la température fx à mesurer. La soudure froide est constituée par l’ensemble des bornes de l’appareil de mesure (à la température f2 ambiante) (fig. i).
- La température de référence choisie pour réaliser l’étalonnage des thermocouples est presque toujours celle de la glace fondante. Aussi la température, indiquée par un appareil de mesure gradué en correspondance, coïncidera avec la température mesurée si la soudure froide est en équilibre thermique avec la glace fondante.
- Cette condition est réalisable au laboratoire mais n’est jamais respectée, pour des raisons de commodité, dans le cas des mesures industrielles. D’où la nécessité d’opérer une correction
- p.311 - vue 314/558
-
-
-
- 312
- dite de soudure froide; elle consiste à ajouter à la force électro-motrice actuelle du thermocouple la force électromotrice qu’il aurait pour une température de soudure chaude f2 et une température de soudure froide o° C. Cette correction peut se faire de deux façons :
- i° Des tables fournissent directement cette force électromotrice à ajouter, fonction de la température ambiante f2 mesurée à l’aide d’un thermomètre à mercure.
- 2° Un dispositif dit de « compensation automatique de soudure froide » réalise cette correction.
- A la force électromotrice globale correspond la température réelle, indiquée directement par l’appareil à compensation automatique, ou après décalage d’échelle sur l’appareil plus simple.
- D’autre part, il arrive souvent que la soudure chaude est éloignée desbornes de l’appareil de mesure. Aux fds du couple lui-même sont alors substitués sur la majeure partie du trajet, qui peut atteindre plusieurs dizaines de mètres, des fils moins coûteux, généralement sous forme d’un câble bifilaire appelé « câble de compensation ». Mais c’est seulement dans un domaine assez restreint de températures, voisines, de plus, de la température ambiante, que l’on demande aux fils de compensation de remplacer sans erreur appréciable ceux du couple. Il importe que les températures des connexions entre les fils du câble de compensation et du couple soient égales et que, par un choix convenable des fils de compensation, les forces électromotrices développées par les nouveaux couples introduits soient égales.
- L’appareil indicateur est souvent un millivoltmètre. Mais pour les mesures plus fines qui demandent une précision très supérieure, l’usage d’un dispositif potenliométrique est hautement recommandable.
- Pyromètres optiques. — Ces appareils utilisent le rayonnement d’une source dont on veut mesurer la température; ils se classent en deux catégories distinctes.
- a) Pyromètre à radiation totale. — Le type en est le pyro-mètre Fery, application directe de la loi de Stefan selon laquelle l’énergie totale, pour l’ensemble de toutes les longueurs d’onde, rayonnée par seconde par l’unité de surface du corps noir dans un faisceau de rayons donné, est proportionnelle à la quatrième puissance de la température absolue : W = erT4. On sait que le corps noir peut se définir comme le corps pour lequel le facteur d’absorption aX, rapport de l’énergie absorbée à l’énergie incidente pour l’ensemble des radiations de longueur d’onde comprise entre X et X + AX, est égal à l’unité pour toutes les longueurs d’onde. Il en résulte que la brillance spectrale énergétique eX du corps noir, définie par (fWX = eXdc.dm.dX où dWX est la puissance rayonnée dans l’angle solide doa par la surface apparente da du solide, pour les radiations comprises entre X et A + AX, ne dépend que de.la température absolue; il en
- est de même de la brillance énergétique totale E, pour l’ensemble de toutes les radiations émises :
- (E=/”EXdx).
- Le principe de l’appareil est le suivant : toutes les radiations émises par la source sont envoyées, grâce à un dispositif optique, sur un récepteur noirci réalisant au mieux un corps noir, l’image de la source se faisant exactement sur lui (fig. 2).
- D’après un théorème d’optique géométrique, la brillance de l’image est égale à la brillance de la source. La puissance reçue
- Objectif
- Oculaire
- Fig. 2. — Principe du pyromètre à radiation totale.
- par le récepteur est Edsdca, ds étant la surface du disque noirci inférieure à celle de l’image et d<s> l’angle solide sous lequel est vue, du disque, la surface utile de l’objectif délimitée par un diaphragme. Cette puissance totalement absorbée se traduit par un échauffement. L’élévation de température de ce récepteur est mesurée par un couple sensible, sa soudure chaude étant soudée au disque, la froide étant reliée généralement aux fils de sustentation du récepteur. Un millivoltmètre permet la lecture de la température après étalonnage préalable.
- Le dispositif optique peut être un simple objectif en verre ou un miroir concave.
- b) Pyromètre à disparition de filament. — Rappelons que le principe de l’appareil repose, non plus comme précédemment sur la mesure de la brillance énergétique totale E d’une source pour l’ensemble de toutes les radiations émises, mais sur la mesure de sa brillance spectrale lumineuse BX pour les radiations émises de longueur d’onde comprise entre X et X + AX. Cette brillance BX se relie, pour la même bande spectrale, à la brillance spectrale énergétique de la source par la relation BX = ZcX.eX.AX, le coefficient kX étant par définition le rapport dcpX/dWX du flux lumineux au flux énergétique, rapportés aux mêmes surfaces et angles solides, émis par la source dans la même bande spectrale. Ce coefficient kX, appelé « coefficient de visibilité », dépend de la longueur d’onde : deux sources émettant même énergie mais ayant des couleurs différentes ne produiront pas la même impression sur l’œil.
- Fig. 3 (à gauche). —
- Pyromètre à disparition de filament dit « Pyroptique ».
- (Photo Chauvin Arnoux).
- Fig. 4 (à droite). —
- Pyromètre optique Ri-baud à disparition de filament.
- (Photo Jobin et Yvon, Arcueil).
- p.312 - vue 315/558
-
-
-
- 313
- La relation entre BA et eA, brillances spectrales lumineuse et énergétique, permet de transposer au domaine photométrique les lois relatives au rayonnement, telle celle résumée par la formule de Wien, approximation, utilisée dans la pratique, de la formule de Planck.
- Cette formule de Wien B A = CA~5 exp (— C2/AT) résume le principe du pyromètre : C, constante du pyromètre, dépend de l’étendue du faisceau utilisé et de la largeur AA de la bande spectrale utilisée.
- Mesurer la température de la source revient à mesurer à travers un dispositif optique la brillance de son image, égale à sa propre brillance BA. Les appareils étalons comportent un dispositif spectral qui isole la bande spectrale AA, celle-ci étant délimitée par l’interposition d’ün verre rouge dans les appareils industriels.
- L’appareil est constitué par une lunette comportant, dans le plan de visée de l’oculaire, le fdament en tungstène d’une lampe lare. Le passage d’un courant d’une certaine intensité rend le filament incandescent. On agit sur le tirage de l’objectif pour former l’image de la source sur le filament, l’oculaire permettant la mise au point de l’ensemble image-filament.
- Les procédés de mesure de la brillance de l’image permettent de distinguer deux catégories d’appareils : ils se ramènent tous deux à obtenir l’égalité, à la longueur d’onde considérée, des brillances de l’image et du filament par disparition visuelle du filament sur le fond lumineux que constitue l’image de la source. Mais pour obtenir ce résultat, le premier procédé consiste à régler, grâce à un rhéostat, l’intensité du courant qui traverse le filament. Le second, au contraire, consiste à ajuster la brillance de la source à celle du filament, fixée une fois pour toutes par une intensité d’étalonnage de l’appareil, par l’interposition sur le trajet lumineux d’un coin gris neutre; on peut agir sur son tirage à l’aide d’un boulon sur le pourtour duquel est graduée l’échelle des températures : procédé dit « à courant constant ». Dans le premier procédé dit « à courant variable », un étalonnage photométrique préalable de la lampe a permis de déterminer, en fonction du courant, sa brillance pour la bande spectrale employée, d’où la température du corps noir auquel est assimilée la source, inscrite directement sur l’ampèremètre.
- Principales caractéristiques Avantages et inconvénients respectifs
- Domaines des températures mesurables. — La
- figure 5 les résume grossièrement pour chaque type d’appareil.
- Thermomètre à Dilatationj
- Résistance
- Couple
- 100° Z00° 300”
- bilames
- 500” —i—
- Hg
- NI Cu
- Cu/Constantai!
- crt
- 750” 1000” 1200” 1500“
- _j------------1-----------,----------------(—
- Pt
- Fe/ Constantan
- C T C
- Chromel btt! pt/Pr Alumel bte rhodiê
- Radiation
- i fixe t variable
- Fig. 5. — Schéma des domaines d’utilisation des thermomètres.
- Pour les thermomètres à résistance et à thermocouple, la gamme de températures permise dépend de la nature de la sonde utilisée. En fait, le thermomètre à résistance est souvent abandonné, à partir de 5oo°, au profit du thermocouple.
- pont ont une certaine résistance dont il est possible de tenir compte en introduisant une résistance de réglage dans le circuit de mesure;
- —- Il est nécessaire de corriger les variations de la résistance de ces fils avec la température ambiante;
- — Les forces électromotrices parasites d’origine thermo-électrique doivent être évitées.
- Thermocouples. — Emploi d’un millivollmètre. La force électromotrice est déterminée par la mesure du courant qui passe dans le couple, donc liée à la résistance du circuit qui doit être bien déterminée et constante, ce qui n’est en pratique pas le cas, par suite de ses variations qui viennent de l’usure du couple, de l’état des contacts et principalement des répartitions de température dans le circuit. Il s’agit de rendre négligeable l’importance relative de ces variations; cessera le cas si la résistance propre de l’appareil de mesure est très grande. Il sera alors possible de changer de couple sans que la mesure en soit affectée. En fait, l’utilisation d’un millivoltmètre ne permet pas de prétendre à une grande précision : une erreur de lecture peut entraîner une incertitude de l’ordre de 5° vers i ooo° C. Un dispositif potentiomélrique permet d’atteindre au contraire une précision qui rejoint la sensibilité de l’appareil de zéro.
- Par ailleurs, des causes d’erreur viennent du couple lui-même; elles tiennent aux échanges de chaleur avec l’extérieur, soit par rayonnement, soit par conductibilité calorifique des fils du couple, ou bien à l’utilisation même de la sonde : non-uniformité de la température à mesurer le long du couple.
- Pyromèlres. — Les principes mêmes qui président à la construction des pyromètres impliquent que la source dont on mesure la température est un corps noir. Pour certaines sources dans certaines conditions, cette hypothèse est justifiée : par exemple, il est connu qu’une petite ouverture ménagée dans la porte d’un four se comporte comme un corps noir; de même, une cavité pratiquée dans un corps porté à haute température, longue devant son diamètre. Mais la température mesurée, obtenue par visée directe de la surface d’un corps, n’est pas sa température réelle; néanmoins un calcul simple, faisant intervenir la température mesurée et le facteur d’émission monochromatique du corps, permettrait de l’obtenir si ce facteur pouvait être connu avec une précision acceptable.
- Le pyromètre à radiation totale permet l’enregistrement automatique des températures, mais il comporte des inconvénients certains :
- écliauffement du système optique dont le rayonnement vers le récepteur fausse la mesure;
- absorption partielle des radiations infrarouges par des gaz comme le gaz carbonique et la vapeur d’eau qui existent toujours au voisinage des fours.
- b) Fidélité. — Thermocouples et résistances thermiques. — Leur fidélité peut différer selon leur nature et leurs conditions d’emploi. Il sera toujours nécessaire de procéder à des rééfa-lonnages périodiques et fréquents, surtout si les températures mesurées s’étalent dans une large gamme.
- Pyromètres. — Leurs thermocouples n’étant soumis qu’à une température relativement basse, les pyromètres à radiation sont fidèles; néanmoins, les pyromètres à disparition de filament, d’un emploi plus sûr et plus pratique, peuvent leur être parfois préférés, les mesures photométriques étant plus fidèles que les mesures d’énergie par écliauffement d’un récepteur.
- Précision ; fidélité. — a) Causes d'erreur systématique au cours des mesures. — Thermomètres à résistance. — Certaines précautions doivent être prises pour que les mesures ne soient pas entachées d’erreur :
- — Les fils de jonction entre résistance thermométrique et
- c) Précision. — Thermomètres à résistance. — L’incertitude sur la mesure de la température peut, dans les conditions usuelles, être de moins de x° aux températures les plus élevées (5oo° C) déterminées à Laide de ces appareils.
- Thermocouples. — L’utilisation du millivoltmètre autorise
- p.313 - vue 316/558
-
-
-
- 314
- Fis. 6. — Pyromètre Tricolor selon Naeser (Schmidt et Haensch).
- (Photo O.S.T.).
- une erreur moyenne courante de lecture de o,5 pour ioo, ce qui conduit à une incertitude de 5° à i ooo°.
- Un dispositif potenliométrique peut réduire l’incertitude à moins de i° : c’est le cas d’un couple Pt-Pt rhodié à io pour ioo fournissant une force électromotrice de io puV par degré, associé à un appareil de zéro qui ne dévie d’une façon sensible que pour io p.V. La précision peut être améliorée par le choix d’un couple fournissant par degré une force électromotrice plus importante : c’est le cas du couple chromel BTE/constantan CTE utilisable jusqu’à 75o°, fournissant une force électromotrice qui dépasse 70 p.V par degré à variation presque linéaire.
- Pyromètres à disparition de filament. —- Ce type d’appareil est très précis, à condition d’opérer avec précaution (en particulier, surface de l’objectif entièrement couverte par le rayonnement).
- Avec les appareils à intensité variable, un bon ampèremètre permet d’atteindre une incertitude de moins de 20 à 1 ooo°, o° ou 4° vers 1 6oo°. Un potentiomètre permettra d’atteindre o,5°.
- Ces appareils, en fait, présentent l’inconvénient de laisser la brillance de la plage de mesure varier dans de trop grandes proportions d’une mesure à l’autre. Il est préférable d’opérer à une brillance pour laquelle l’égalisation se fait dans les meilleures conditions pour l’oeil. C’est le cas des appareils à intensité fixe : la précision qui peut couramment être atteinte est de < 20 à 1 ooo°.
- Pyromètres à radiation totale. — La précision sera, à une erreur de lecture donnée, d’autant meilleure que la déviation de l’aiguille du millivollmèlre sera plus grande; il faut pour cela un récepteur de diamètre suffisant (1 à 2 mm) et le diamètre utile de la source doit être élevé (au moins 5 cm pour une distance de visée de 1 m), ce qui est incompatible avec les fours de laboratoire.
- Fonctions diverses. — Les ipyromètres peuvent être sim-plement indicateurs (pyromètres à disparition de filament, thermocouples, résistances), ou enregistreurs-indicateurs (thermocouples-résistance) ou régulateurs-indicateurs ou régulateurs-enregistreurs (pyromètres à radiation totale, thermocouples-résistance).
- Divers principes de régulation peuvent être utilisés :
- — palpage mécanique, électrostatique, thermoélectrique de l’aiguille du galvanomètre;
- — dispositif à cellule photoélectrique.
- L’enregistrement peut se faire, soit par courbe continue, soit par points, à diagramme déroulant ou à diagramme circulaire.
- Les appareils enregistreurs et régulateurs peuvent être conçus pour une ou plusieurs directions. Les régulateurs peuvent comporter plusieurs allures de chauffage.
- Maniabilité. — Les appareils de lecture peuvent être, soit portatifs, soit à boîtier encastré ou en saillie (besoins industriels, tableaux de commande). Les cannes pyromélriques à thermocouple ou à résistance existent en différents types qui correspondent à des intervalles de température différents, sont de tailles variées pour permettre des mesures de natures très diverses et sont interchangeables facilement sans qu’il soit nécessaire de réétalonner les appareils de lecture : les lignes entre sondes et appareils de lecture sont de toutes tailles et peuvent atteindre plusieurs dizaines de mètres.
- Réalisations
- Thermomètres à dilatation. — Trouvay et Cauvin, pour le constructeur J. G. Eckardt, propose des thermomètres à dilatation de mercure qui permettent de mesurer des températures depuis — 35° jusqu’à -h 525°.
- Polymesures, pour la société suisse Ilaenin, présente des thermomètres métalliques « Thermofix » dont l’échelle de température s’étend de — ioo° à + 5oo°.
- Pyromètres optiques. — a) Pyromètres à disparition de filament. — Intensité variable : Chauvin Arnoux construit le Pyroptique, appareil qui se présente sous forme d’un ensemble maniable et pratique (fig. 3). Visée et lecture sont simultanées. Deux échelles permettent d’aller jusqu’à 1 8oo°. Meci présente trois appareils, types P.M, 120, 121, i3o, à deux ou trois échelles, le dernier permettant d’atteindre 2 8oo° C.
- Intensité fixe : Le pyromètre et le micropyromètre Ribaud construits par Jobin et ,Yvon en sont le type (fig. 4). Deux échelles de température permettent de mesurer les températures allant de 1 ooo° à 1 6oo° et de x 5oo° à 3 ooo°; alimentation par accus SAFt (cadmium/nickel).
- Un autre appareil intéressant, parmi les réalisations éti’an-gères, est le Tricolor, pyromètre construit par Schmidt et Ilaensch (O.S.I.) (fig. 6). Cet appareil permet la mesure simultanée de la température de couleur et de la température de luminance monochromatique de la source visée : sa température vraie peut être atteinte alors à l’aide de tables (cas de carburants enflammés, pyrotechnie). Ce constructeur présente aussi un micropyromètre (fig. 7).
- b) Pyromètres à radiation totale. — Meci présente deux types d’appareils à thermopile :
- — lunette à lentille RTL (10, 20, 3o, 5o) dont les temps de réponse sont de 8 à 2 s (mesure de la température de pièces en mouvement) ;
- — lunette à double miroir RTM (11, 5i, 61); temps de réponse respectivement de 8, 1, 20 s; température maximum mesurable : de x 4oo° à 1 900°.
- Pyromètres à couple et résistance. — a) Cannes pyrométriques. — Les principaux réalisateurs de cannes à thermocouples et à résistance sont Chauvin Arnoux, La Pyrométrie industrielle, Meci, et un constructeur étranger : Degussa-IIanau (Établissements Schoenholzer, Neuilly). Ce dernier présente une gamme très complète de sondes de toutes tailles pour les besoins les plus variés.
- Les thermocouples usuels sont les couples : Cu/constantart (o°, 3oo° C), fer/constantan (o°, 700°), Ni/Ni-Cr (chromel-alumel) (o°, 1 i5o°), Pt/Pt rhodié 10 pour 100 (o°, r 5oo°).
- p.314 - vue 317/558
-
-
-
- Les principales résistances utilisées sont les résistances en cuivre (t < i5o°), nickel (o°-i5o°), platine (jusqu’à 700° C).
- Les tubes de protection sont soit en matière réfractaire, soit métalliques. Quartz et Silice fabrique des tubes en silice pure fondue, utilisés-dans les opérations de contrôle thermique, et des tubes de visée pour pyromètres optiques.
- b) Appareils indicateurs. —- Il existe deux types de ces appareils :
- — Le pyromètre, simple millivoltmètre-galvanomètre se présente sous forme d’appareil portatif ou d’appareil industriel à boîtier en saillie ou encastré (Pyrométrie industrielle, Chauvin Arnoux) ;
- — Le pyromètrc-potentiomètre.
- Chauvin Arnoux construit le Pyrocompact qui comporte trois cadrans de mesure (o à 21 mV, ao-4i, 4o à Gi mV par 1/10 mV) ; précision : 0,2 pour 100 de chaque graduation, ce qui correspond à 20 avec le couple chromel-alumel, 3° avec le couple de platine à une température de 1 ooo° C.
- Meci en propose plusieurs modèles; l’opération de mesure consiste à équilibrer le potentiomètre (ou le pont) soit manuellement (deux appareils), soit à l’aide d’un servo-mécanisme : le déplacement relatif du fil calibré et du curseur aboutit à annuler le courant qui passe dans l’organe sensible; il est commandé par un servo-mécanisme, soit du type mécanique dit Micromax type 1 A, soit du type électrique dit Speedomax type D. Exactitude garantie : o,3 pour 100 de l’étendue totale de l’échelle.
- A.O.I.P. présente également un potentiomètre pyrométrique (type P.4i).
- c) Appareils enregistreurs. — Pas de dispositif potentiomé-trique : Chauvin Arnoux construit l’enregistreur R.P. mono-et multicourbes (fig. 8) ; la Pyrométrie industrielle construit les appareils du type EDC et EDR (pointés en couleurs différentes toute les 20 s pour les multicourbes).
- Dispositif potenliométrique automatique : les potentiomètres automatiques types E.P. sont construits par la Pyrométrie industrielle (précision o,3 pour 100 de l’étendue de l’échelle,
- Fig. 7. — Micro-macropyromètre de Henning (Schmidt et Haensch).
- (Photo O.S.I.).
- cadence de pointé multicolore : 9 à 3 s, déroulement du papier : 3o-6o-i2o ou 90-180 mm/h).
- Un des appareils les plus récents est le « potentiomètre enregistreur miniature » type E.P.M. (encombrement en façade : i85 x i85 mm, largeur utile du diagramme : 120 mm, monocourbe à tracé continu, multicourbes : 2, 3 et 6 courbes à pointés multicolores) (fig. 9).
- Meci propose des pyromèlres-potentiomètres à diagramme déroulant (à thermocouple : 1 à 16 directions; à radiation totale : 1 à 2 directions; à pont de Wheatstone : 6 directions) et à diagramme circulaire monodireclionnel.
- A.O.I.P. construit un enregistreur à servo-moteur et circuit imprimé précis (o,5 à 1 pour 100), très maniable (encombrement en façade : 144 x i44 mm).
- d) Appareils régulateurs. — Il est possible de classer ces appareils en deux catégories : les régulateurs-indicateurs, les régula teurs-enregistreurs.
- Ces régulateurs peuvent être :
- — « à action discontinue » avec réglage « tout ou peu » ou « tout ou rien » suivant qu’ils comportent une ou deux allures de chauffage différentes (action intermittente);
- — « à action continue » (action permanente), plus spécialement destinés à la régulation en température d’une enceinte à capacité thermique très faible.
- Des régulateurs « transmetteurs de programme » permettent de réguler suivant une loi de chauffe donnée.
- Meci construit des pyromètres-potentiomètres-indicateurs-régulateurs du type Micromax (à 1 et 2 directions, 2 et 3 allures),
- p.315 - vue 318/558
-
-
-
- CONTROLE ET MESURE QUANTITATIVE DU
- DANGER BIOLOGIQUE
- DES RADIATIONS IONISANTE_S "X" ET "X PAR LES NOUVEAUX
- DOSIMETRES
- INDIVIDUELS "P HY
- BREVETS FRANÇAIS
- (S-G D.G i
- Défense Nationale Huzar
- Physioiectime
- ET BREVETS ÉTRANGERS
- MICROSCOPES « COOKE »
- Agents exclusifs pour la France et les T.O.M.
- Éts F. C. DANNATT 'VarisT"
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l’État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d’Étaî Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- LE CALCUL INTÉGRAL ET DIFFÉRENTIEL
- A LA PORTÉE DE TOUS
- PAR Silvanus P. THOMPSON +
- TRADUIT DE L’ANGLAIS I'AR
- A. ERIC GÉRARD
- Ingénieur A. I. I,g.
- 232 p, 14 x 22, avec 67 fig. 4• édition revue et corrigée C26• mille). 1959. Broché sous couverture illustrée.. 9,60 N F
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue lîonaï^^Cj :<Paris-6*. DA.N 99-15.
- VIENT DE PARAITRE
- LA SPECTROSCOPIE HERTZIENNE
- APPLIQUÉE A LA CHIMIE
- Absorption dipolaire — Rotation moléculaire Résonances magnétiques
- PAR
- R. FREYMANN
- Professeur à la Faculté des Sciences de Paris
- M. SOUTIF
- Professeur à la Faculté des Sciences de Grenoble
- xn-263 pages 14 x 22, avec 151 figures. Broché ............................................... 23 NF
- I, Éditeur, 92, rue Bonaparte. PARIS-6*. DAN. 99-15. C.C.P. PARIS 75-45
- p.316 - vue 319/558
-
-
-
- 317
- Fig. 10. — Régulateur galvanométrique à détection photoélectrique continue et à action proportionnelle.
- (Photo La Pyrométrie industrielle).
- et des pyromètres-polentioinèlres-enregistreurs-régulaleurs du type Micromax et Specdomax (i à 3 directions pour a à 3 allures), pour thermocouples, résistances thermiques et lunette à radiation totale.
- La cadence de commutation entre les directions dépend de la différence qui existe entre les températures de réglage (3o s pour a directions).
- Le dispositif de régulation est un dispositif à cames permettant l’ouverture ou la fermeture de contacts suivant que la température dépasse ou non la valeur de réglage.
- Une régulation par contrôle photoélectrique continu ou à action proportionnelle est adoptée par plusieurs constructeurs : Chauvin Arnoux, La Pyrométrie industrielle qui présente le Pilotron ainsi qu’un appareil très récent : le régulateur galvanométrique à détection continue et action proportionnelle (fig. 9). La Société d’Équipement industriel électromécanique présente une gamme de pyromètres Kelvin Hughes à multiples possibilités de régimes de régulation; trois types sont livrables ; pour action à deux positions (tout ou peu, ou tout ou rien), pour action proportionnelle, pour régulation à 3 plages; sensibilité de réglage meilleure que 0,1 pour 100 de la
- pleine échelle; sécurité de thermocouple mettant hors circuit la charge commandée en cas de rupture de couple.
- Cette sécurité est utilisée par l’ensemble des constructeurs. Chauvin Arnoux construit le « régulateur RIP automatique >v à palpage mécanique de l’aiguille du galvanomètre (toutes les 3o s); sensibilité annoncée 0,2 pour 100 de l’échelle totale, soit ± 20 pour l’échelle allant de o° à 1 ooo°.
- Les régulateurs à programme utilisent souvent une came qui fixe la loi de chauffage désirée. Citons le régulateur RIP de Chauvin Arnoux. La Pyrométrie industrielle construit aussi un régulateur du même type. De même Meci qui propose aussi des régulateurs type P.U. de principe différent : la courbe programme-température-temps est décomposée en éléments de droite; on adjoint à un régulateur ordinaire un dispositif comprenant, en nombre égal à celui des éléments de droite, de montée et de descente, des générateurs de force électromotrice variant linéairement avec le temps. Le régulateur règle à une valeur constante la somme de la force électromotrice du générateur en service et de celle du thermocouple. Cette dernière varie donc aussi linéairement. Le passage d’un générateur à l’autre s’effectue automatiquement. Ce système comporte des commodités appréciables quand la courbe programme est susceptible d’être souvent modifiée.
- *
- * *
- Celte revue rapide des principaux types d’appareils qui existent sur le marché permet de constater la facilité avec laquelle sont solubles tous les problèmes courants de mesure, de contrôle permanent et de régulation de température dans tous domaines, depuis le stade du laboratoire jusqu’à l’échelon industrie], et ce avec une précision qui permet de contrôler la plupart du temps le demi-degré pour les mesures, le degré en ce qui concerne la régulation.
- Ce souci de la précision cherche à s’allier de plus en plus à la miniaturisation des appareils : en effet, la technique moderne exige des enregistrements de plus en plus nombreux et il est indispensable que les tableaux de commande n’atteignent pas des dimensions gigantesques. Aussi l’utilisation des circuits imprimés et des transistors va-t-elle prendre, dans les dispositifs d’amplification et d’asservissement, une importance grandissante.
- Gilbert Guiroy.
- La dent du phoque dit son âge
- L’âge de nombre d’animaux peut être déterminé avec plus ou moins de précision par l’examen des dents. Une méthode précise d’évaluation, en ce qui concerne les phoques, a pu être confirmée par À. W. Mansfield et II. D. Fischer, du Bureau de recherche des pêches du Canada (Nature, Londres, 2 avril 1960). Le cément des canines, vu en section transversale, est formé d’une série de couches de 125 microns, d’épaisseur, dont chacune présente une bande opaque plus large, déposée en période normale, et une
- bande étroite translucide, déposée pendant la période de la reproduction quand le phoque cesse pratiquement de s’alimenter. La détermination de l’âge peut ainsi être opérée comme sur le tronc des arbres ou sur les écailles et otolithes des poissons. L’âge d’un phoque né en captivité a été évalué par les auteurs, précités entre 18 et 20 ans. Sa date de naissance, connue après coup, lui donnait exactement 19,5 ans.
- R. A.
- Pas de toundra à Sakhaline
- Dans le premier quart de notre siècle encore, on croyait, parfois à l’existence de toundras dans l’He de Sakhaline. L’absence de toundras dans les plaines de l’île a été prouvée dès 1935-1940. Mais ce n’est que tout récemment (1956-1958) qu’une expédition soviétique put explorer à fond les régions montagneuses de l’île, ce qui lui permit d’affirmer catégoriquement que, dans ces régions
- aussi, les toundras sont inexistantes. Nulle part, en effet, l’expédition ne parvint à trouver des zones de congélation éternelle. Ce fut au cours de cette expédition que fut escaladée, pour la première fois, la montagne la plus élevée de l’île de Sakhaline, le Mont Lopatine, haut de 1 609 m.
- C. M.
- p.317 - vue 320/558
-
-
-
- 318
- LE CIEL EN AOUT I960
- SOLEIL : du i« août au 1er septembre (à 0h) sa déclinaison décroît de 4- 18°5' à + 8°22' et la durée du jour de lib'S1*1 à 13h27m ; diamètre app. le 1er (à 0h) = 304.", 1. le 31 (à 24h) = 31'45",1. — LUNE : Phases : P. L. le 7 à 2h41m, D. Q. le 14 à 5h37m, N. L. le 22 à 9h16m, P. Q. le 29 à 19h23m, périgée le 5 à 20h, diamètre app. 33'1A" ; apogée le 48 à lh, diamètre app. 29'28". Principales conjonctions : avec Jupiter le 3 à 18h, à 4°57' iN. ; avec Saturne le 5 à l11, à 4°17 N. ; avec Mars le 15 à 14h, à 4°27' S. ; avec
- Mercure le 21 à 1611, à 3056' S. ; avec Uranus le 21 à 21h, à
- 2°52' S. ; avec Vénus le 23 à 22h, à 1°12' S. ; avec Neptune le 27 à 14h, à 2°2S' N. ; avec Jupiter le 31 à lh, à 5°6' N. Principales occultations : le 1er, de M Balance (mag. 5,6), immersion à
- 20h14m,6 ; le 8, de 73 Verseau (mag. 3,8), émersion à 2£Mm,ù ; le
- 15, de 179 B. Taureau (mag. 6,0), émersion à 2M4m,6 ; le 17, de 130 Taureau (mag. 5,5), émersion à 2}l49m,4. — PLANETES : Mercure, brille le matin jusqu’aux environs du 21, lever le 8 à 2h56m, soit lh39m avant le Soleil ; Vénus, un peu visible dans le crépuscule tout à la fin du mois : Mars, dans le Taureau apparaît de plus en plus tôt, le 16 à 22h52m (mag. 0,7) ; Cérès, dans le Poisson Austral peut se voir aux positions suivantes, le 4 : 22h6m et — 26°20', le 14 : 21h5Sm et — 27°25', le 24 : 21m50m et
- — 28°17' (mag. 7,9) ; Vestà, dans le Sagittaire visible encore la majeure partie de la nuit (mag. 6.5), position, lé 1er : IS^l1» et
- — 24<>41', le 11 : 18M9m et — 25° 15', le 21 : 18M9™ et — 25A43', le 31 : 18h23m et — 26°4' ; Jupiter, dans Ophiuchus brille jusqu’à minuit, le 15 : diamètre pol. app. 39"6 ; Saturne, dans le Sagit-
- taire se couche plus d’une heure après Jupiter, le 15 : diamètre pol. app. 16",2 et axes de l’anneau : 40",6 et + 17",3 ; Uranus, invisible en conj. avec le Soleil le 14 à 6h ; Neptune, dans la Balance devient peu visible le soir. — ÉTOILES VARIABLES : minima observables d'Algol (2m,2-3m,5) le 22 à lh,7, le 24 à 22^,3 ; minima de (3 -Lyre (S^i-A”1^} le 9 à Oh,2, le 21 à 22h,6 ; maxima de S Céphée (3m,7-4m,6) le 2 à 6h,0, le 7 à 14h,8, le 12 à 23h,6, le 18 à S11^1, le 23 à 17h,2, le 29 à lh,9 ; maxima de t\ Aigle (3p>,7-4“,4) le 7, à 7h,0, le 14 à llh,2, le 21 à 1S*»,4, le 28 à 19h,7 ; maximum de R Grande Ourse (Gro^-lS^.ô) le 12. — TEMPS SIDÉRAL : au méridien de Paris à Oh (T. U.) : le 1er : 20M7m46*S le 11 : le 21 : 22h6“37«, le 31 : 22M6“2.s.
- Phénomènes intéressants. — Surveiller la surface tachée du Soleil. — Du 16 au 21, lumière cendrée de la Lune, le matin. — On né manquera pas de rechercher les 2 petites planètes Cérès et Vesta aux positions indiquées ci-dessus. — Jupiter et Saturne sont commodément observables, le soir. — Du 1er au 17, étoiles filantes : Perséides (radiant : r, Persée), maximum le 12, très bel essaim, le plus riche de l’année. — Par les soirées sans lune, observer la Voie lactée dans la région où elle est la plus intense : Scorpion, Ophiuchus, Sagittaire, Écu, Flèche, Renard, Cygne, Cassiopée.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Une fusée française atteint 8 000 km/h
- Dans le cadre des expériences entrepi'ises en France dans le domaine des fusées, d’intéressants résultats ont été enregistrés au cours d’un lancement effectué le 5 mai à l’île du Levant. Il s’agissait d’une fusée à quatre étages dont le premier étage a été réalisé par la S.E.P.R., le second par la Marine, le troisième par la S.E.P.R. et le dernier par l’O.N.E.R.A.
- Selon le programme prévu, le premier étage a été largué à i 5oo m, le second à 25 ooo m, et le troisième a permis d’atteindre une altitude de i5o km. C’est seulement à la descente à
- 45 ooo m d’altitude que s’est séparé le dernier étage dont la mise à feu a permis d’atteindre une vitesse de 8 ooo km/h à une altitude voisine de a5 ooo m.
- Celte expérience, fruit d’une étroite collaboration entre l’O.N.E.R.A., la S.E.P.R., la Marine nationale et le Service des Poudres, qui a fourni les poudres utilisées par les propulseurs, a répondu point par point au programme établi et des performances encore plus élevées sont attendues au cours d’un prochain lancement. J. S.
- LES LIVRES NOUVEAUX
- Problèmes plaisants et délectables qui se font par les nombres, par Claude-Gaspar Bachet, sieur de Hériziac. 5“ édition revue, simplifiée et augmentée, par A. Labosne. 1 vol. 13,5 x 18,5, vm-243 p. Librairie scientifique et technique Albert Blanchard, Paris, 1959. Prix : 9 INF.
- La première édition de ces problèmes parut en 1612 ! Il s’agit ici d’une 5e édition revue, simplifiée et augmentée d’un avant-propos de J. Itard. Cet ouvrage très bien présenté intéressera tous ceux qui sont attirés par les problèmes mathématiques amusants et par les 1ours de cartes, basés sur des raisonnements mathématiques.
- Statistique mathématique, par R. Deltheu. et R. Huron. 1 vol. 11,5 x 16,5, 208 p. Collection Armand Colin, Paris, 1959. Prix : 4,50 NF.
- La statistique est une des branches les plus importantes des mathématiques appliquées. Les physiciens, les ingénieurs, les économistes, les naturalistes utilisent couramment ses méthodes pour analyser les faits qu’ils étudient. Devant l’importance du sujet, les auteurs ont dû choisir. Les premiers chapitres sont consacrés aux définitions et aux lois de répartition les plus importantes (répartition normale.et loi du x2)-Les chapitres suivants traitent de l’çstimation , des paramètres et de l’analyse des résultats d’expériences planifiées. La lecture de l’ouvrage nécessite la connaissance de l’analyse linéaire.
- The spécial theory of Relativity, par J. Aha-noNi. 1 vol. 16 x 24, vih-285 p., 30 fig. Oxford University Press, Londres, 1959. Prix, relié : 45 sh.
- En se limitant au cadre de la relativité restreinte, l’auteur s’est surtout attaché aux mathématiques de la relativité. A côté des questions désormais classiques, cinématique, électromagnétisme et dynamique relativistes, on trouve des exposés sur les tenseurs, la théorie des champs et les spincurs. L’aspect mathématique risque de rebuter le lecteur ; toutefois l’importance de certaines questions (les spineurs par exemple)
- A NOS LECTEURS
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition. d6S lecteurs de LA NATURE pour leur procurer dans lés meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- . il-' ' '
- fait de cc livre un bon outil de travail, pour les théoriciens et les chercheurs.
- Dictionnaire atomique, par Yictorin CnAm.ES, professeur honoraire à l’École nationale d’Arts et Métiers d’Aix-en-Provence. Préface de Henri Raïssas, directeur au C. E. A. 1 vol. 11 x 21, 318 p., 34 fig. Hachette, Paris, 1960. Prix : 12 NF.
- Ce petit dictionnaire semble le plus complet de ceux qui ont été publiés jusqu’ici en la matière. Il est destiné surtout à ceux qui, lisant des exposés de chimie nucléaire, sont arrêtés par des termes techniques que les dictionnaires généraux n’ont pas encore accueillis. Un tel ouvrage est très difficile à réaliser, car sans se substituer à un exposé didactique, il doit pourtant en comporter à peu près tout le contenu. Celui-ci pouvait, semble-t-il, être allégé de beaucoup de données historiques et expliciter un peu plus des notions courantes, comme celle de section efficace... On trouvera en appendice la labié des éléments, mais sans indication des isotopes, les familles naturelles, les particules et constantes fondamentales, des tableaux des piles et accélérateurs, enfin un index qui donne les mots en anglais, allemand et russe.
- Les systèmes de corpuscules en théorie fonctionnelle, par Jean-Louis Drstouches et Florence Aeschlimann. 1 vol. 17,5 x 24, 128 p. a Actualités scientifiques et industrielles ». Hermann, Paris, 1959. Prix : 21' NF.
- Les auteurs, développant la, théorie de l’un d’entre eux (J.-L. Destouches), étendent la théorie fonctionnelle (représentaiion nouvelle de la notion de corpuscules) aux systèmes de corpuscules. Après avoir défini l’axiomatiqué de
- p.318 - vue 321/558
-
-
-
- 319
- cette nouvelle représentation, les auteurs l’appliquent au barycentre (c’est-à-dire au centre de gravité) d’un système contenant un grand nombre de corpuscules.
- Problèmes de radiocommunications (avec solutions) basés sur les programmes des
- P.T.T., par Louis Bouchet. 1 vol. 16 x 25, 106 p., fig. Gauthier-Villars, Paris, 1959. Prix : lé MF.
- Quelques , problèmes-types d’électronique, très près des problèmes concrets, qui doivent permettre aux radio-techniciens de se familiariser avec leur programme. De complexité croissante, ces exercices aideront tous ceux qui étudient l’électronique à s’habituer aux raisonnements propres à cette branche de l’électricité.
- Machines à calculer électroniques arithmétiques et analogiques, par M. Pélegrin. Préface de P. de Valrocer. 1 vol. 16 x 25, 411 p., nombreuses flg, Dunod, Paris, 1959. Prix, relié toile sous jaquette : 44 NF.
- > Cours professé par l’auteur à l’E.N.S. de l’Aéronautique, destiné à renseigner les futurs ingénieurs sur les dispositifs de calcul et générateurs de fonctions non linéaires (calculateurs d’asservissement) qui sont à leur disposition. Exposé didactique, succinct et illustré de nombreux exemples et descriptions de machines réelles. Les chapitres relatifs aux machines analogiques (des « modèles » comme la cuve rhéographique jusqu’aux calculatrices universelles) et aux calculatrices incorporées à une chaîne de télécommande, les plus originaux, sont d’un grand intérêt pour les techniciens.
- Les Ordinateurs électroniques, par Pierre Demahne et Max Roüquerol. 1 vol. 11 x 17,5, 128 p. 35 flg. Collection Que sais-je ? Presses Universitaires de France, Paris, 1959. Prix : 2 NE.
- I.e terme « ordinateur » a été créé pour marquer nettement la différence qui sépare les machines à calculer classiques des machines récentes dont les capacités ne sont plus seulement arithmétiques mais aussi logiques. L’ordinateur diffère de la machine à calculer par l’augmentation de la dimension des mémoires internes et surtout par la possibilité de modifier, selon les circonstances, son propre programme. Ce petit livre décrit les organes principaux, mémoires et circuits utilisateurs, et expose les principales applications actuelles des ordinateurs. Il évoque enfin les perspectives d’avenir. Un chapitre prudent et modéré est consacré à la comparaison des ordinateurs et du cerveau humain, qui contraste heureusement avec le verbiage poétique trop fréquemment rencontré sur ce sujet. v
- Manuel de base de l’ingénieur, rédigé par S. II. son Tidestrom, traduit du suédois par P. Chaumelle et A. Prévôt. Tome l : Mathématiques. Mécanique. 1 vol. 15 x 22, 678 p., nombreuses figures. Dunod, Paris, 1959. Prix : 58 NF.
- Ce manuel est issu de l'Ingenjôrshandboken, ouvrage écrit par une équipe de spécialistes suédois, dont la forme complète avec ses sept volumes se présente comme un traité de sciences de l’ingénieur. Sous sa forme française, il ne comprend que deux tomes, correspondant à la traduction du volume « Généralités » de l’édition originale, et se propose de donner sous une forme quasi didactique un exposé condensé des disciplines générales indispensables à l’ingénieur. Le l,r tome est consacré aux mathématiques et à la mécanique tandis que le second traitera de la physique et de la chimie physique.. La partie mathématique est d’un niveau voisin de celui de la classe de mathématiques spéciales. Les notions de base sont toujours rappelées et les méthodes pratiques n’ont pas été oubliées, faisant de ce manuel un véritable
- outil de travail. La mécanique est développée sous ses différents aspects ; une place de choix est toutefois réservée à la résistance des matériaux. Les chapitres consacrés à la cohésion et à la rhéologie font de ce manuel un ouvrage parfaitement à jour. Signalons également des exposés sur les unités et les mesures des grandeurs géométriques et mécaniques. Style concis et d’une grande précision. Les références bibliographiques font état d’ouvrages publiés en langue française, ce qui est assez rare pour une traduction d’ouvrage étranger. — R. R.
- Analytische Chemie, par Herbert Rüdicker. 2 vol. 16,5 x 23,5. Tome 1 : Massanalyse, 156 p., 43 flg. Tome 2 : Gewichtsanalyse, 133 p., 42 flg. Fachbuchverlag, Leipzig, 1959. Prix, reliés : tome 1 : 6,80 DM ; tome 2 : 6 DM.
- Ce traité élémentaire d’analyse-consacre le premier volume à la tilrimétrie et le second à la gravimétrie. On y trouve la description détaillée des méthodes avec leur base théorique et de nombreux exercices de calcul sur les dosages titrimétriques.
- Problèmes et calculs de Chimie générale et de Cristallochimie, par R. Hocart et R. Kern. 1 vol. 16 x 25, 211 p., fig. Gau-thier-Villars; Paris, 1959. Prix, cartonné : 19 NF.
- Recueil de 110 problèmes avec leurs solutions portant sur la thermochimie, les équilibres gazeux, les équilibres en solution diluée,’ la cinétique chimique et sur les transformations polymorphiques, c’est-à-dire sur l’ensemble du programme de chimie générale. L’étudiant trouvera ici des problèmes correspondant à des réalités expérimentales et un rappel, en tête de chacun des chapitres, des relations quantitatives et des unités qui interviennent dans les applications.
- LA NATURE PLASTIFIÉE
- ENROBAGE DE SPÉCIMENS BIOLOGIQUES
- dans résine artificielle claire comme du cristal
- CHEZ VOUS
- Demandez renseignements pour colis d’essai avec instructions
- Joindre enveloppe timbrée avec adresse S.V.P
- INTERNATIONAL PLASTIC RESEARCH B. P. 03 CONTES (A.-M.)
- Techniques modernes et applications de la Cryométrie, par Y. Doucet, professeur à la Faculté des Sciences de Marseille. 1 vol. 11 x 17, 225 p., 54 fig. Monographies Duncd, Paris, 1959. Prix, cartonné : 14,50 NF.
- Les étudiants en chimie-physique et ceux du 3e cycle, les chimistes organiciens, les physiciens qui s’intéressent aux structures moléculaires et ioniques, les biologistes, médecins, ingénieurs agronomes qui ont à pratiquer la cryométrie trouveront ici les perfectionnements apportés récemment dans la pratique de la prise de température, aux appareils utilisés et aux méthodes physiques de mesure de la concentration à l’équilibre adiabatique. Renseignements sur 150 solvants, sur des hydrates salins et mélanges eutectiques utilisables comme solvants, suites constantes cryométriques d’une trentaine de sels minéraux fondus.
- Le chlorure de vinyle et ses polymères, par
- II. Gibeixo. Collection Matériaux de synthèse.
- 1 vol. 14 x 22, 400 p., 32 flg. Dunod, Paris, 1959. Prix, relié toile sous jaquette : 38 NF.
- Après avoir décrit la préparation, la purification et les caractéristiques du monomère CH, = CHC1, l’auteur étudie les diverses façons de le polymériser. Il aborde ensuite les divers modes de transformation du chlorure de polv-vinyle, en insistant sur les appareils employés et sur les divers produits qu’on doit utiliser comme plastifiants, solvants, stabilisants, etc., et il examine enfin les nombreuses applications de ce produit de plus en plus recherché. Bibliographie par chapitre.
- Proceedings of the third Conférence on Carbon. 1 vol. 17 x 26, x-718 p., flg. Pergamon Press, Londres, 1959. Prix, relié : 140 sli.
- La troisième conférence sur le carbone, qui a nu lieu à Buffalo en 1959, a comporté environ 90 communications concernant les propriétés physiques et électroniques de diverses variétés de carbone, les réactions chimiques auxquelles elles participent, l’étude de la graphitation et de la structure du graphite, enfin les propriétés mécaniques et thermiques du carbone ainsi que l’effet des radiations sur le graphite des piles atomiques.
- Principles and practice of gas chromato-graphy, édité par Robert L. Pecsok. 1 vol. 15,5 x 23,5, xii-226 p., flg. John Wiley and Sons, New York ; Chapman and Hall, Londres, 1959. Prix, relié toile : 6,75 dollars.
- On sait l’importance prise dans l’analyse des gaz et des vapeurs par la chromatographie, basée en fait sur l’adsorption et l’absorption fractionnées. En dix ans les développements de cette technique et ses applications sont considérables. L’Université de Californie a organisé un certain nombre de cours dont les auteurs exposent les points essentiels de la chromatographie, tant au point de vue théorique que pratique.
- The Chemistry of industrial Toxicology, par
- Hervey B. Elkins. 2“ édition. 1 vol. 15 x 24, xn-452 p., 26 flg. Johp Wiley and Sons, New York ; Chapman and Hall, Londres, 1959. Prix, relié toile : 11,5 dollars.
- L’ouvrage examine la toxicité des principaux produits minéraux et organiques, passe en revue les divers procédés industriels susceptibles de créer des nuisances et préconise les moyens d’éviter les dangers qui en résultent.
- Odor. Measurement and Contrat. Proceedings of the 3rd Annual Symposium on Problem in Air Pollution at the Franklin Institute, 21 octobre 1958. 1 vol. 21,5 x 28, 82 p., flg. The Franklin Institute Laboratories for Research and Development, Philadelphie, Pennsylvania, 1959. Prix, broché : 3 dollars.
- Exposé de sept mémoires présentés à un symposium sur l’odeur en tant que moyen utilisé pour détecter la pollution d’une atmosphère, car le nez compte parmi les instruments de détection les plus sensibles.
- Vues nouvelles sur le monde des sons, par
- Fritz WYnckei., professeur , à l’Université technique de Berlin-Charlottenburg. Trad. par A. Moles et J. Lequeux. 1 vol. 15 x 21,5, 144 p., 74 flg. Collection Science et Progrès, Dunod, Paris, 1960. Prix : 12 NF.
- Il y a peu d’années encore, l’acoustique musicale se réduisait à peu de chose. Elle se bornait à peu près à décrire dans le son musical trois qualités physiologiques : hauteur, intensité et
- p.319 - vue 322/558
-
-
-
- 320
- timbre. Ces trois qualités étaient considérées comme indépendantes et on négligeait généralement le fait qu’elles ne sont pas invariables pendant la durée de l’émission du son. Les appareils dont disposent aujourd’hui les acousticiens ont permis une analyse plus fine et on s’est aperçu, en particulier, qu’une suite de sons stationnaires ne pouvait constituer une œuvre musicale : sans expression et sans vie, elle serait dénuée de tout caractère esthétique. Une caractéristique de grande importance réside dans l'attaque du son, et plus généralement dans ce qu’on appelle les « transitoires », extrêmement variables selon les instruments. Le professeur Winckei apporte aussi des observations pénétrantes sur les conditions de perception de l'oreille, définissant une « constante de temps auditive » et une « constante de temps de reconnaissance du timbre ». Les processus transitoires interviennent aussi dans ce qu’on appelle le « relief spatial ». La musique apparaît ici comme un mouvement, dont les éléments, les sons, sont eux-mêmes mouvants. Voici ouvert un domaine dont la richesse est certainement loin d’être épuisée.
- Les destins de la vie et de l'homme, par H. Laborit et P; Morand. 1 vol. 16,5 x 21,5, 250 p. Masson, Paris, 1959. Prix : 18 ISF.
- Deux amis, tous deux biologistes, très savants et ayant beaucoup réfléchi sur leur science et sur tout ce qui peut s’y rattacher, partent de deux conceptions bien différentes qu’on doit bien appeler philosophiques l'une et l’autre. Nous dirions que l’un est matérialiste, l’autre spiritualiste si nous ne craignions par là de simplifier outrageusement. L’un en tout cas; est plutôt pessimiste, l’autre optimiste, quand^ils cherchent à pressentir le destin de l’homme. Chemin faisant ils se donnent l'un à l’autre quelques bonnes leçons de physiologie, de chimie biologique, voire de physique et de cybernétique. De ces leçons le lecteur peut grandement profiler et, sans être obligé de choisir entre les interprétations que deux esprits remarquablement agiles fournissent selon leu^s’préférences affectives ot sans doute aussi > leurs dégoûts, il peut prendre une vue1 générale de la vie et de l’homme qui nourrira ses propres méditations. On appréciera que le pessimiste ait fini par laisser le dernier mot à l'optimiste et que ce dernier mot, ou peu s’en faut, soit celui de tolérance.
- La nutrition de la plante, par Jules Garles, docteur ès Sciences, docteur ès Lettres. 1 vol. 11,5 x 17,5, 128 p., 10 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, 1959. Prix : 2 NF.
- Spécialiste de la question qu’il traite ici, l'auteur est aussi un clair vulgarisateur. Après des généralités, on aborde : les besoins minéraux ; carence et toxicité ; le problème de l’eau ; la nutrition' minérale ; l’absorption d’énergie. Un dernier chapitre traite de l’alimentation du blé, que J. Caries a spécialement étudiée.
- Les noms des plantes, par Lucien Guyot, professeur à l'École d’agriculture de Grignon, et Pierre Gibassier, licencié ès Lettres. 1 vol. 11,5 x 17,5, 128 p. Collection Que sais-je p Presses Universitaires de France, Paris, 1960. Prix : 2 INF.
- Les noms des arbres, par Lucien Gtjyot et Pierre Gibassier. 1 vol. llp5 x 17,5, 128'p. Collection Que sais-je ? Prësses Universitaires de France, Paris, 1960. Prix : 2 NF.
- Le botaniste et le linguiste se sont heureusement associés pour faire l’histoire des noms des plantes depuis les temps les plus reculés. Aux racines pré-indo-européennes (qui sont à la mode aujourd'hui, mais parfois contestées) se sont ajoutés des apports de toutes provenances. Le premier de ces deux petits livres traite des céréales, fourrages, légumes et plantes industrielles ; le second des arbres et arbustes. Il reste de la matière I
- Les Champignons de France, par André Mau-blanc, ancien professeur à l’Institut national agronomique. 5e édition revue et corrigée par G. VrENNOT-BounciN, professeur à l’I.N.A. Tome I : Texte général. 1 vol. 12x16, 308 p., 59 fig. Tome II : Atlas. 1 vol. 12x16, 288 p., 224 planches en couleurs. Paul Lechevalier,
- Paris, 1959. Prix, les 2 vol., cartonnés : 55 NF.
- Depuis la lre édition de cet ouvrage, parue en 1921, d’innombrables amateurs, étudiants et futurs mycologues, y ont puisé les éléments d’une science authentique, mise à la portée de tous mais sans aucune concession à une trompeuse facilité. Le professeur Maublanc, pendant plus de 40 ans secrétaire général de la Société Mycologique de France avant d’en être le président, est malheureusement disparu en 1958 avant d'avoir pu achever La mise au point de cette 5° édition, dont l’achèvement a été confié à M. Viennot-Bourgin, son successeur à la chaire de Botanique et Pathologie végétale de l’Institut agronomique. L’Atlas, autrefois réparti dans les deux volumes, a été réuni dans le second ; il pourra ainsi être plus facilement emporté en excursion pour faciliter les reconnaissances sur le terrain. Il décrit et figure environ 300 espèces parmi les plus courantes, avec des indications sur les espèces voisines. Le texte général, soigneusement revu, comprend tout ce qu’un amateur sérieux ou mycologue débutant doit apprendre : notions générales, classification, description des principaux groupes, champignons comestibles et vénéneux. Il s’y ajoute une clé pour la détermination des principaux genres et l'explication des termes courants en mycologie. On ne doit jamais oublier que la mycologie s'apprend sur le terrain sous la direction de moniteurs exercés et qu’il est illusoire de chercher à apprendre les champignons dans un livre ; mais le livre est le complément indispensable de l’enseignement oral. Et l’ouvrage d’A. Maublanc reste le meilleur que l’on puisse recommander aux débutants.
- Champignons comestibles et vénéneux, par
- Marcel Locqtjin et Bengt Cortin. 1 vol. 12 x 18,5, 156 p., 343 fig. en couleurs de Edgar IIahnewald. Fernand Nathan, Paris. Prix, cartonné : 9,90 NF.
- Ce petit livre a tout l'agrément des précédents sur les Fleurs, Oiseaux, Poissons, Insectes, etc. Les figures en couleurs, qui en font l’essentiel, sont jolies et assez exactes, mais un peu schématiques et certes insuffisantes pour reconnaître les espèces sous leurs aspects variés. Les descriptions, succinctes, ne sauraient constituer plus qu’un aide-mémoire. On louera les auteurs d’avoir quelque peu développé les indications sur les empoisonnements. Les possesseurs de ce petit album feront bien de se rappeler qu’un débutant ne peut espérer en aucun cas déterminer un champignon avec précision s’il n’a appris à le faire sous la direction d’un maître compétent.
- La vie étrange des fleurs, par Paul Jaeger, professeur à la Faculté de Pharmacie de Strasbourg. 1 vol. 23 x 29, 192 p., 18 dessins, 96 planches en héliogravure dont 48 en couleurs. Collection La nature vivante, Horizons de France, Paris, 1959. Prix, cartonné avec jaquette en couleurs : 53 NF.
- Comme dans tous les ouvrages de cette belle collection, l’illustration est magnifique et on pense bien que ce volume sur lâà’ fleurs ne le cède en rien en beauté à ceux, oui nous présentaient les oiseaux, les poissôp^j.-ou les papillons. Mais le texte est de premier ordre. M. Paul Jaeger a réduit au minimum ^indispensable les descriptions anatomiques que l’on peut trouver dans les manuels ; il a judicieusement développé la partie biologique et physiologique pour laquelle on trouverait difficilement un exposé d’initiation aussi complet et intéressant. Une claire analyse définit les facteurs qui interviennent dans la floraison : matériaux nutritifs, variations thermiques (vernalisation et photopériodisme), etc. Mais l’auteur, avec raison, s’est étendu davantage sur des observations qu’avec un peu de persévérance, chacun peut renouveler dans la nature, sans techniques spéciales. Elles concernent d’abord les influences extérieures sur la « cinétique florale », qui ne sont pas toutes élucidées d’ailleurs dans leur détail. Enfin, un domaine encore plus vaste et passionnant est celui des modalités de la pollinisation et de la fécondation, qui dans l’ensemble est ici admirablement traité. En particulier le monde des fleurs et celui des insectes sont deux mondes inséparables dont les évolutions ont dû se commander mutuellement. On ne se plaindra pas
- que l’auteur ait amplement traité ce sujet, un des plus riches de toute l’histoire naturelle.
- Application de la Géologie aux travaux de l'ingénieur, par Jean Goguel, ingénieur en chef des Mines, professeur à l’École des Mines de Paris. 1 vol. 16 x 24, 357 p., 118 fig. Masson, Paris, 1959. Prix, broché ; 43 NF.
- Sous une forme claire et maniable, l’éminent directeur du Service de La Carte géologique nous livre la synthèse des résultats d’une collaboration séculaire, puisqu'elle dure depuis les débuts de la géologie, mais qui n’a généralement donné lieu qu’à des publications dispersées ou à des exposés incomplets. Riche de sa propre expérience l’auteur dispose sans effort des exemples qui lui sont nécessaires. Sans effort apparent non plus, il ordonne une matière pourtant touffue autour de quelques notions essentielles comme celle de l'importance de l’eau dans le sous-sol. L’aspect humain, si sympathique, de la collaboration entre ingénieur et géologue, maintes fois évoqué, apporte de la chaleur à ce précis. Pleinement accessible à l’étudiant, ce livre ne sera pas dédaigné des praticiens chevronnés.
- Le livre des côtes de France, par Jean Mer-rien. Tome 1 : Mer du Nord et Manche. 1 vol. 13 x 20, 426 p., cartes illustrées. Robert Laffont, Paris, 1959. Prix : 15,90 NF.
- Ce premier tome est consacré à la description des côtes françaises de Mer du Nord et de Manche, jusqu’à l’entrée de la rade de Brest. Le passionnant volume en vérité, bien écrit (malgré de-ci de-là quelques négligences), décrivant avec amour et intelligence le littoral de notre pays, ses falaises, ses grèves, ses ports de pêcheurs... Indispensable compagnon de vacances à notre avis, fourmillant d’indications utiles. On attend avec grand intérêt la suite.
- Quand la côte n’était pas d’Azur, par
- Pierre Bonnet. 1 vol, 23,5 x 30,5, 195 p., ill. en coul., impression 2 coul. J. B. Baillière et Fils, Paris, 1959. Prix, broché : 80 NF.
- Il faut féliciter l’éditeur de la magnifique présentation de cet ouvrage : illustration et typographie sont de toute beauté, le papier est de haute qualité. La seule critique concerne les coquilles, un peu nombreuses... Pierre Bonnet consacre quatre études fouillées, savantes, mais pleines de vie et d’intérêt, à des problèmes de l’histoire provençale et du Comté de Nice : la chapelle de Notre-Dame-de-Vie (Mougins), l'empreinte romaine, l'évangélisation et les hérésies, le sel et ses routes. C’est dire l’apport d’un tel ouvrage aux recherches des historiens et des géographes.
- Le Rhin, par H. J. Duteil. 1 vol. 14,5 x 20, 284 p., illustr. Coll. « La Vallée des Rois ». Robert Laffont, Paris, 1958. Prix : 12 NF. D’un réel intérêt, encore que diffus par endroits, ce livre tente une description intelligente du grand fleuve et des pays traversés : écrit dans la tradition des voyages du xvm* et du xrxe siècle, il traite un peu tous les sujets à la fois, et son intérêt est aussi géographique que littéraire ou historique. Pour tout dire, nous avons ici le livre de chevet de « l’honnête homme » partant pour la Rhéna'nie ou pour le Rhin suisse, « ce fleuve qui porte un monde ».
- Images économiques du monde 1959, par J. Beaujeu-Garnierj et A. Gamblin. 1 vol. 13 x 22, 200 p. SEDES, Paris, 1960. Prix : 9 NF.
- Cet indispensable recueil de documentation nous apporte en une présentation rationnelle et commode tous les chiffres dont nous avons besoin dans nos recherches. Ces chiffres qui, souvent, sont dispersés dans de multiples publications, les auteurs les ont compilés et interprétés. Ce petit ouvrage, de prix modique, rendra de très grands services : c’est un instrument de travail obligé.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la * revue)
- Le gérant : F. Du-nod. — dunod, éditeur, paris* — dépôt légal : 3e trimestre i960, n° 3528. — Imprimé en France,
- IMPRIMERIE BARNÉOUD S. A. (3io566), LAVAL, N° 4l26. — 7-1960.
- p.320 - vue 323/558
-
-
-
- N° 3304
- Août I960
- LA NATURE
- Pour un kilowattheure moins cher
- L’industrie nucléaire en crise
- cherche encore la meilleure formule
- Fig. 1. — La centrale britannique de Hinkley Point en cours de construction.
- Au premier plan, le bâtiment des turbines, long d’environ 250 m ; à l’arrière-plan, le bâtiment du réacteur. Puissance prévue : 500 MW.
- (Photo aimablement communiquée par l'Ambassade de Grande-Bretagne).
- Depuis quelques mois, l’attention des économistes et des techniciens se porte sur un phénomène inattendu, à savoir la crise que subit l’énergie nucléaire. Précisons que cette crise n’atteint pas les établissements scientifiques et les centres de recherches, dont l’activité n’est nullement ralentie. Elle se situe expressément sur le plan de l’industrie qui, il y a deux ans, escomptait une expansion rapide de la production d’électricité par fission de l’atome et s’était organisée et équipée en vue de collaborer à cette expansion.
- Il a bien fallu se rendre compte que, loin de se développer au rythme prévu, les applications nucléaires souffrent, non pas
- exactement d’un temps d’arrêt, mais d’un ralentissement très net. On pourrait citer, en France et dans plusieurs autres pays, quelques dizaines de sociétés qui, faute de commandes, se sont mises en veilleuse, de bureaux d’études dispersés ou désœuvrés et de périodiques techniques que l’actualité nucléaire alimente difficilement.
- Des faits encore plus symptomatiques peuvent être relevés. C’est tout d’abord la surproduction d’uranium. On sait que les principaux gisements mondiaux, jusqu’ici intensément exploités, se trouvent au Canada, aux États-Unis et en Union Sud-Africaine. Leur production était en majeure partie absorbée par
- p.321 - vue 324/558
-
-
-
- 322
- Fig-, 2. — Une des unités de la centrale atomique de Chinon, E.D.F. 2, qui doit être complétée par une puissante cloche en acier.
- Cette unité développera une puissance de 170 MW (Photo C.E.A.).
- les États-Unis, pour la constitution de stocks militaires. Ces stocks sont actuellement considérés comme surabondants et la production de matière première n’aurait pu logiquement se maintenir que si la consommation civile avait pris le relais. Il n’en a rien été et la principale victime de cet état de choses est le centre minier canadien d’Elliot Lake dont les contrats avec les États-Unis, qui expirent en 1962 et jg63, ne seront pas renouvelés. 4 000 mineurs doivent être, de; de», fait, licenciés dans quelques mois et la production annuelle*» qui s’établissait en 1968 à i3 000 t d’oxyde d’uranium, sera réduite dans de très larges proportions.
- Un autre signe de la crise réside dans le ralentissement des programmes nationaux. Mettons à part les États-Unis et l’Union Soviétique qui, riches en sources d’énergie classique, ont annoncé dès le début leur intention d’étager dans le temps la construction des centrales nucléaires. La Grande-Bretagne, au contraire, avait établi un programme de 6 000 MW à réaliser avant 1966. Cette puissance était en principe divisée en 12 centrales, mais en dénombrant celles qui sont effectivement en construction, Bradwell, Berkeley, Hinkley Point (fig. 1), Hun-terston, Trawsfynidd, on s’aperçoit que, tenant compte des délais d’installation et de mise en route, il est peu vraisemblable que l’équipement nucléaire britannique atteigne même la moitié de l’équipement prévu en 1966.
- Le programme français (85o MW en xg65) était à la fois plus modeste et plus progressif. Il semble pourtant devoir être, lui aussi, échelonné sur une plus longue période. Des remaniements sont en cours et il est possible que la principale unité du Centre de Chinon, E.D.F. 3 (170 MW) ne soit pas réalisée selon les prévisions et que E.L. 4, de puissance moins élevée, lui soit tout simplement substituée.
- Un troisième programme est en cours, celui qui résulte d’un accord entre l’Euratom et l’Atomic Energy Commission américaine : une» puissance de 1 000 MW y a été prévue pour être installée dans la Communauté européenne des Six. Après deux défections; celles des Pays-Bas et de l’Allemagne fédérale, un
- seul projet est en voie d’exécution : une centrale de 23o MW, sur les bords du Garigliano, en Italie.
- Le prix du kilowattheure nucléaire. — La crise de l’industrie nucléaire naissante n’a pas lieu d’être abondamment commentée. Les pays de l’Europe occidentale qui, à terme, doivent combler leurs besoins énergétiques par un apport, nouveau (étant relativement mal pourvus en ressources classiques) se trouvent devant une abondance momentanée : des stocks considérables de charbon s’accumulent sur le carreau des mines, tandis que de nouveaux gisements d’hydrocarbures (ceux notamment de Lacq et du Sahara) exercent sur le marché de l’énergie une pression additionnelle à celle des pétroles du Moyen-Orient.
- L’énergie nucléaire, si elle intervenait massivement, ne ferait qu’accroître les perturbations actuelles qui obligent déjà à une délicate politique de coordination de l’énergie. Une telle considération, en économie libérale, ne serait pas à elle seule déterminante : il se trouve que, par surcroît, les centrales nucléaires, dans l’état présent de la technique, ne sont pas en mesure de concurrencer les centrales thermiques modernes, chauffées au charbon ou aux hydrocarbures. Non seulement le prix du kilowattheure nucléaire est plus élevé, mais, ce qui est pire, les sommes à investir sont environ deux fois et demi plus fortes que pour les centrales classiques.
- C’est là une véritable déception pour les auteurs de prévisions économiques concernant l’énergie nucléaire, car ils estimaient en général que cette dernière deviendrait bien plus tôt concurrentielle. Un expert britannique, Sir Christofer Hinton, avait annoncé qu’en i960 le prix du kilowattheure nucléaire 11e serait que de 10 pour 100 supérieur au classique et que la parité serait acquise en 1965-1967. Les trois Sages de l’Euratom avaient pris à leur compte cette prévision qui dès maintenant est infirmée par les faits.
- On n’en persévère pas moins dans les calculs, fondés sur les progrès en cours et à venir des techniques nucléaires. Dans un rapport récent l’Euratoiq,a mis en parallèle les baisses attendues dans le domaine des centrales classiques d’une part, nucléaires d’autre part. Sans entrer dans le détail de ces prédictions, notons que le thermique a des chances de renforcer encore ses positions en atteignant, à partir de 1965, un prix de o,o36 NF/kWh et ne sera rejoint qu’à partir de 1970 par le nucléaire. Ce dernier prendra alors la tête et c’est entre 1970 et 1980 qu’une floraison de centrales utilisant la fission se produira dans la Communauté pour parvenir en fin de décennie à une puissance installée totale de 4o 000 MW.
- Ce pronostic favorable, qui tranche sur la dépression actuelle, mérite d’être mentionné. Ajoutons qu’il résulte d’une interpolation entre les garanties données par les constructeurs américains et les évaluations des experts de l’Atomic Energy Commission. Nul doute que les uns et les autres se sont longuement penchés sur les possibilités offertes par les différentes filières de réacteurs nucléaires.
- La plupart d’entre elles ont déjà été décrites dans La Nature (x). Il nous faut à présent résumer leur évolution récente et leurs développements futurs.
- Uranium naturehgraphite=gaz. — Dès les origines de l’énergie nucléaire, les atomistes qui ne disposaient alors que d’uranium naturel, c’est-à-dire non enrichi en uranium 235, ont réalisé des réacteurs utilisant ce métal comme « combustible » et le graphite comme modérateur, destiné à ralentir les neutrons et augmenter par là le nombre des fissions. On n’ignorait pas que' les atomes de carbone du graphite n’ont pas, à cet égard, la qualité optimale et sont en particulier inférieurs aux atomes
- 1. Voir en particulier les réacteurs décrits dans nos comptes rendus des deux conférences de Genève : La Nature, décembre 1955, p. 457-464, et novembre 1958, p. 417-422
- p.322 - vue 325/558
-
-
-
- 323
- Fig. 3. — Assemblage des barreaux constituant un des éléments de combustible du réacteur de Dresden. (Iliaque élément comprend 36 barreaux et le réacteur contient 488 éléments, représentant au total 60 t d’oxyde d’uranium UO„.
- (Photo l’.S.I.S., aimnble-went, communiquée par le Centre culturel américain) .
- d’hydrogène contenus dans l’eau lourde et l’eau légère. Mais d’autres considérations militaient en faveur du graphite, notamment la sécurité de l’exploitation.
- Les réacteurs au graphite avaient en outre le mérite, étant donné la grande masse d’uranium « enfourné », de produire de fortes quantités de plutonium. Et c’est d’ailleurs, à titre de plutonigcnes que ces réacteurs ont été d’abord employés.
- Les techniciens français de Saclay y ont apporté un perfectionnement capital en choisissant comme refroidisseur (ou véhicule de chaleur) le gaz C02. On sait que le programme britannique et le programme français ont débuté avec des réacteurs de ce lype, désormais classique. Ce faisant les deux pays désiraient assurer leur autonomie en éliminant l’emploi de l’uranium enrichi qui implique une forte consommation préalable d’énergie. L’industrie nationale en outre était en mesure de fournir le graphite dans les conditions de pureté requises.
- Cette solution cependant prête à la critique. Le complexe uranium-graphite est comparable, lorsque le réacteur est en fonctionnement, à un « foyer couvant à petit feu », ce qui est dû au faible excédent de réactivité obtenu (2). Il serait d’ailleurs imprudent de vouloir accélérer la combustion au delà d’un taux de 2 8oo MW/jour à la tonne, car la chaleur produite risque alors de dilater les barreaux d’uranium, avec comme conséquence l’éclatement de leurs gaines.
- Cet ensemble de facteurs oblige à entasser dans le cœur du réacteur un tonnage considérable de matériaux : environ i,5 t d’uranium et 12 t de graphite par MW installé. Les dimensions de la cuve, destinée à supporter la pression du gaz de réfrigération, et des installations annexes, doivent être établies en pro-
- 2. Rappelons que la réactivité d’un réacteur est exprimée par le facteur de multiplication des neutrons. C’est le rapport N'/N, N étant le nombre de fissions à un instant donné. N' le nombre de neutrons issus de ces fissions qui iront à leur tour provoquer des fissions. La réaction en chaîne est entretenue lorsque ce rapport est égal ou supérieur à 1.
- portion. Cette solution est donc « monumentale », coûteuse en immobilisations et pose de nombreux autres problèmes, inhérents à son gigantisme.
- Ajoutons que la chaleur communiquée à la vapeur d’eau n’atteint que péniblement 4oo° C, ce qui est insuffisant pour assurer un bon rendement thermodynamique. C’est pourquoi, en Grande-Bretagne (sans doute également en France) on s’achemine vers des modifications substantielles. Les modèles « avancés » (selon la terminologie anglaise) comporteraient des éléments combustibles en oxyde légèrement enrichi, à environ
- Fig. 4. — Vérification des pastilles d’oxyde d’uranium qui composent les barreaux du réacteur de Dresden.
- (Photo U.S.I.S.).
- p.323 - vue 326/558
-
-
-
- 324
- i pour ioo d’U a35. Le taux de combustion se trouverait considérablement augmenté, en même temps que les investissements en capital seraient nettement réduits.
- Aucun prix de revient du kWh n’a encore pu être déterminé d’une manière précise. Deux inconnues subsistent en effet pour les centrales gaz-graphite (comme d’ailleurs pour les autres solutions) : c’est leur durée de vie et le facteur de charge (rapport entre le nombre d’heures de fonctionnement et le nombre d’heures total de l’année). Différents projets évaluent ce facteur à 80 pour ioo, ce que les électriciens considèrent en général comme plutôt optimiste.
- Signalons que la formule de l’uranium naturel-graphite est également utilisée en Union Soviétique et au Japon.
- Uranium natureUeau lourde. — Les centrales à eau (lourde et légère) ont été abondamment décrites dans La Nature (3). Il est donc inutile de revenir sur les détails de leur fonctionnement. Le seul point que l’on doit retenir à l’actif de l’eau lourde, c’est sa qualité exceptionnelle en tant que modérateur. Ce simple fàit conduirait à élever le taux de combustion aux environs de 8 ooo MW/ jour à la tonne, tout en continuant à employer comme combustible l’uranium naturel sous sa forme métallique. Le prix du réacteur se trouvera modifié dans deux sens opposés : d’une part l’eau lourde est beaucoup plus coûteuse que le graphite, d’autre part les tonnages sont réduits dans de larges proportions : o,6 t d’uranium et i t d’eau lourde par MW installé. Les centrales prendront, de ce fait, des dimensions moins gigantesques que pour la solution précédente.
- Toutefois, pour être fixé sur les mérites économiques de l’emploi de l’eau lourde, il faut attendre que fonctionnent les centrales qui se construisent ou vont prochainement se construire : Kincardine au Canada (200 MW), E.L. 4 en France (80-100 MW) et R. 3 Adam en Suède (47 MW).
- Uranium enrichUeau légère. — Le secteur où se développe cette solution est singulièrement plus agité que le précédent. Il se trouve d’une part que les États-Unis disposent de moyens exceptionnels pour fabriquer l’uranium enrichi. D’autre part deux grands constructeurs de ce pays, Westinghouse et General Electric,' estiment chacun posséder la « formule gagnante ». Le premier est le tenant des réacteurs à eau pressurisée {P.W.R.) qui équipent les sous-marins de la série du Nautilus et la centrale de Shippingport (60 MW). Le second exploite la formule de l’eau bouillante (B.W.R.), utilisée dans la centrale de Dresden (180' MW) (fig. 3 et 4)-
- Il s’agit, dans l’un et l’autre cas de « premières éditions », servant de point de départ à toute une suite de prototypes dont lès plans s’élaborent dans d’actifs bureaux d’études. Il y a un peu, plus d’un an que Westinghouse et General Electric ont donné une large publicité au programme de leurs réalisations futures. Le P.W.R., modifié et perfectionné, se retrouvera dans la centrale « Yankee » de Rowe (xio MW) qui doit en principe diverger cette année. Dans trois éditions ultérieures, les réacteurs adopteront des caractéristiques de plus en plus poussées. Il n’est pas exclu que l’eau légère puisse être remplacée par l’eau lourde, que les tubes de force interviennent pour éviter les cùVes massives destinées à tenir la pression et que la pressurisation soit tempérée par une légère ébullition.
- Par ailleurs, le programme comprend un prototype où le réacteur sera associé à un surchauffeur, alimenté par un combustible classique. Entre temps, vers 1970, le prix du kWh thermique serait définitivement battu.
- La General Electric a annoncé, de son côté, une série de cinq centrales de base, suivies de trois centrales évoluées (dont une à surchauffe nucléaire). Une série terminale de centrales
- 3. Février, mars, avril et mai 1959. On y retrouvera de nombreux schémas et photos, en particulier sur la centrale de Shippingport, l’E.B.W.ft, à Argonne, la centrale de Dresden, etc.
- d'objectif, d’une puissance d’environ 45o MW, couronnerait le programme, en battant (comme précédemment) le prix du kWh thermique vers 1970.
- Parmi les autres projets américains, nous devrons revenir sur la centrale d’Indian Point, construite par Babcock et Wilcox, qui applique la formule P.W.R., mais avec une amorce de breeding (régénéi’ation du combustible).
- La centrale italienne du Garigliano (23o MW) est construite par la General Electric selon une formule apparentée à celle de Dresden. En Union Soviétique, la future centrale de Yoroneje applique la formule de l’eau pressurisée.
- Uranium en ri chi=graphi te=sodi um. — L’eau a l’avantage, dans un réacteur, de pouvoir servir à la fois de modérateur et de refroidisseur. Ce point a été déjà mis en relief dans de précédents articles : il n’y a donc pas lieu d’y revenir. Mais, en regard, les centrales à eau doivent surmonter une séi'ieuse difficulté qui est le point d’ébullition relativement bas du liquide. On a donc été conduit à rechercher un autre liquide qui puisse atteindi'e sans bouillir de hautes températures. C’est, au sodium fondu qu’on a tout d’abord fait appel. Il sert de x-efroidisseur et le modérateur est constitué par du graphite.
- Deux prototypes de ce modèle sont connus : l’un, de 20 MW, a fourni en 1959 de la vapeur à 53o° C (fig. 5). L’autre, en construction dans le Nebraska, développera une puissance de 75 MW. Tous deux ont été étudiés et réalisés par la Société Atomics International.
- Uranium en ri chi-liq uide organique. — La même société s’est engagée dans une filière généralement considérée
- fig. 5. -— Le cœur du réacteur au sodium-graphite de Santa Susanna.
- Puissance : 30 MW (Photo U.S.I.S.).
- p.324 - vue 327/558
-
-
-
- 325
- Fig. 6 et 7. — A l’usine de séparation du plutonium, à Marcoule.
- A gauche, caméra de télévision et projecteurs permettant de surveiller à distance les opérations chimiques. A droite, vérification des échantillons
- de plutonium (Photos C.E.À.).
- comme prometteuse. Elle est fondée sur l’emploi d’un liquide dont le point d’ébullition est, comme pour le sodium, assez élevé et qui peut servir à la fois de modérateur et de refroidis-seur. Ce liquide, à l’origine, était le diphényl, composé chimiquement de deux molécules de benzène. Étant donné sa tendance à se polymériser sous l’action de la chaleur et de l’irradiation, le diphényl a été remplacé par le terphényl (trois molécules de benzène). Selon de récentes informations, c’est un produit pétrolier qui serait en définitive choisi.
- La formule « organique » est intéressante au point de vue industriel car elle réduit au minimum les risques de corrosion et les réactions chimiques dangereuses avec les matériaux de structure. Elle permet d’utiliser des matériaux et des matériels standard, éliminant ceux dont on exige une qualité ou une pureté « nucléaires ».
- Une centrale à modérateur-refroidisseur organique est en construction à Piqua (Ohio). Sa puissance sera d’environ ii à 12 MW.
- Le problème du combustible. — Selon les opinions exprimées par les milieux industriels, ce sont les filières « eau bouillante » et « organique » qui ont le plus de chances d’aboutir à des modèles de centrales économiquement viables. Mais, comme d’ailleurs les autres filières que nous avons énumérées, elles comportent une assez grave lacune qui est de ne pas assurer la combustion totale de l’uranium. 11 s’en faut même de beaucoup !
- Rappelons que l’uranium naturel ne contient que 0,71
- pour xoo de l’isotope U 235, seule matière fissile existant dans la nature. Au début du fonctionnement d’un réacteur à uranium nature], seule cette minime fraction de la masse métallique émet et reproduit des neutrons, mais par la suite apparaît le plutonium qui résulte de la transmutation de l’isotope U 238 et qui va jouer son rôle dans la fission, parallèlement à l’U 235. Précisons qu’il s’agit du Pu 23g, alors que le Pu 240 est au contraire un absorbeur de neutrons, au même titre que les divers produits de fission (tels que le xénon). Le phénomène se poursuit grâce aux deux matières fissiles, jusqu’au moment où la trop grande abondance de produits de fission « empoisonpe » le réacteur, et entraîne une baisse de réactivité.
- Les barreaux d’uranium doivent alors être remplacés, alors qu’environ 99 pour 100 de leur énergie potentielle n’a pas été utilisée. Il en est exactement de même dans les réacteurs, à uranium enrichi : si le taux d’U 235 est par exemple de 2 pour 100 au début, l’élément combustible sera hors, service alors qu’il contient encore plus de r,5 pour 100 de matière fissile. >;v .
- Cet état de choses se traduit sur le plan industriel par uneprin tique curieuse : la centrale achète le combustible « frais » et revend à son fournisseur le combustible irradié, qui représente une valeur évidemment difficile à apprécier. Le destin de ce combustible est en principe connu : il sera traité dans une usine de séparation chimique où l’on extrait les indésirables produits.de fission et où l’on recueille, d’une part le plutonium, d’autre part l’uranium appauvri.
- Le plutonium, hormis !ses; utilisations militaires, peut'-'én
- p.325 - vue 328/558
-
-
-
- 326
- principe être réincorporé dam de nouveaux éléments combustibles. Ce recyclage n’a été que rarement pratiqué. Quant à l’uranium, appauvri en U 235, il peut, après avoir été transformé en gaz UF6 (hexafluorure d’uranium), être de nouveau enrichi, dans une usine de séparation isotopique, jusqu’à retrouver sa teneur en matière fissile.
- Ces différentes opérations sont évidemment coûteuses, mais ce n’est pas là leur inconvénient majeur : il se trouve que la matière fissile produite sous forme de plutonium est très inférieure en quantité à la matière fissile consommée. En conjuguant à plusieurs reprises les recyclages et les réenrichissements, on parviendra tout au plus à utiliser 6 pour ioo du combustible total. L’uranium 238, matière fertile, constituera un énorme résidu. On peut d’ailleurs supposer qu’il en existe dès maintenant un stock considérable, obtenu après l’intense fabrication de bombes A, chargées en U 235.
- Breeders et semi=breedt^rs. — Ce gaspillage monumental (et mondial) du précieux combustible nucléaire condamne-t-il définitivement les différentes filières citées plus haut? Non, s’il existe d’autres modèles de réacteurs, capables non seulement d’épuiser l’énergie contenue dans l’uranium, mais celle également du thorium qui, à l’état naturel, ne contient pas d’isotope fissile.
- Au stade expérimental, on peut déclarer que le problème est résolu. Deux cycles ont été réalisés; l’un met en présence du plutonium et de l’uranium 238, sans recourir à aucun modérateur, et les neutrons non ralentis (on les appelle neutrons rapides) se reproduisent sur la base de 2,7 pour chaque fission, ce qui est amplement suffisant pour obtenir plus de plutonium qu’il n’en est consommé.
- L’autre cycle qui s’amorce en mettant en présence l’uranium 235 et le thorium permet l’emploi d’un modérateur. Bien que ralentis, les neutrons se reproduisent au taux de 2,28 par fission : le thorium est alors transmuté en uranium 233, matière
- Fig. 8. — Vue générale du breeder rapide de Dounreay (Écosse).
- (Photo Ambassade de Grande-Bretagne).
- fissile artificielle qui sera par la suite normalement substituée à l’uranium 235.
- Les réacteurs où se développent ces cycles sont appelés breeders, ou te couveUs.es )) ou encore sur-régénérateurs. Le breeder à neutrons rapides, désigné en raccourci sous le nom de breeder rapide, a le défaut d’être difficile à construire (car il requiert une concentration trop grande de matière fissile) et d’avoir un taux de combustion faible, si bien que, malgré son nom, il ne débite l’énergie qu’avec une extrême lenteur. Il existe néanmoins aux États-Unis en deux exemplaires qui ont atteint l’échelle semi-industrielle. Ce sont E.B.R. 1 (0,2 MW) et E.B.R. 2 (i5 MW), le premier ayant déjà produit de l’électricité, le second devant démarrer en 1961. Un troisième breeder rapide, baptisé Enrico Fermi, est en construction : il développera une puissance de 100 MW.
- Signalons encore le breeder rapide construit à Dounreay en Écosse (i5 MW environ) et le B.R. 5 soviétique qui fonctionne avec une charge d’oxyde de plutonium et dont on a récemment annoncé qu’il réalisait l’opération de surrégénération dans des conditions favorables (fig. 8).
- Les breeders thermaux au thorium sont des réacteurs homogènes, dont le cœur est constitué par du sulfate d’uranyle 235, dissous dans l’eau lourde. Autour de ce cœur se trouve une enveloppe, contenant de l’oxyde de thorium, également dissous dans l’eau lourde. L’écueil de cette formule, appliquée dans les réacteurs H.R.E. x et 2, est le risque de corrosion.
- En Grande-Bretagne, on a pensé réaliser un breeder thermal, en adaptant la formule classique du gaz-graphite, appliquée à Calder Hall. Mais on doit également signaler le réacteur P.W.R. d’Indian Point qui comportera une charge d’oxyde de thorium : selon les prévisions, cette matière fertile aura donné naissance au bout de deux ans à environ i5o kg d’U 233, la moitié de la matière fissile (U 235) consommée. Il s’agirait en somme d’un semi-breeder, dont la foi'mule entraînerait finalement une perte d’énergie bien moins élevée que dans les solutions indiquées précédemment.
- On ne s’est encore aventuré dans aucune évaluation économique concernant les breeders et il est donc impossible de savoir si l’utilisation exhaustive du combustible peut être conciliée avec le rendement des réacteurs, le moindre coût des investissements et du kilowattheure produit.
- Ajoutons que le point d’interrogation est de telle dimension que de nombreux atomistes se sont ralliés à l’idée que mieux vaut ne pas se lancer dans des. techniques impraticables et mettre au rebut le combustible dont on ne peut plus rien tirer. Souhaitons que cette doctrine, peu satisfaisante pour l’esprit, soit démentie dans la suite des expériences qui vont être poursuivies à différentes échelles par l’industrie nucléaire. L’enjeu n’est-il pas de multiplier par 20 ou davantage les réserves mondiales de l’énergie issue des minerais d’uranium et de thorium ?
- Yves Mériel.
- p.326 - vue 329/558
-
-
-
- Curieuses coques minéralisées au Sahara
- 327
- Depuis longtemps divers voyageurs ont rapporté du Sahara des objets extrêmement fragiles de forme cylindroïde, légèrement aplatis, arrondis aux deux extrémités et incrustés de grains de sable. Ils mesurent généralement 4 à 5 cm de long, i,5 à 2 cm de large et environ i cm de haut. On les l’encontre rarement entiers et le plus souvent brisés d’un côté. L’intérieur est creux et de couleur blanchâtre. La paroi minéralisée est très mince (environ o,5 mm).
- Au cours d’une récente mission saharienne, nous avons pu en recueillir nous-meme une assez grande quantité (plusieurs dizaines) à In Afaleleli, point d’eau (puits) situé à environ 170 km au sud de Djanet à la lisière méridionale de l’erg d’Admer. Ces objets étaient tous curieusement localisés dans un creux, au pied d’une énorme et sans doute vieille butte à Tamarix.
- Demeurés longtemps énigmatiques, ils font songer à des œufs de Vertébrés et plus précisément à ceux des serpents ou des lézards. Or aucun Reptile saharien ne paraît posséder des œufs de cet aspect. Aussi pense-t-on actuellement qu’il s'agit plutôt de coques nymphales d’insectes. En effet, on sait que les larves de certains Coléoptères sécrètent au moment de la nymphose des coques calcifiées, ce qui est notamment le cas chez divers Longicornes (famille des Cérambycidés) et Buprestes (famille des Bupreslidés). Une analyse des coques sahariennes a donné les résultats suivants (pour 100) : sable, 01,G; perte au feu (C02), 27,7; CaO, 37,0; P205, o,5; non dosés, 3,2.
- En outre, l’examen microscopique d’un fragment de ces coques a révélé l’existence de pores véritables, organisés, avec
- Fig. 1 et 2. — En haut : Coques nymphales de Cérambycidés en place (Photo Naecelé). — En bas : Quelques-unes des mêmes coques, vues de près (Photo CnÉniF, I.F.A.N.).
- Fig. 3 et 4. — En haut : Buttes à éthels à In Afaleleh. — En h-s Butte à éthel morte. Remarquer l'abondance des matières organiques non décomposées faute d’humidité suffisante (Photos ISaecelé).
- cristaux radiés perpendiculairement à la lumière du pore. Ce détail, comme la présence de phosphore, éloigne sans aucun doute ces coques minéralisées des coques nymphales habituelles généralement chilineuses. L’entomologiste A. Villiers attribue ces coques nymphales à des Cérambycidés du genre Plocæ-derus dont une espèce est saharienne. Celle-ci, du nom de P. caroli, a été signalée comme se développant dans des végétaux vivaces appartenant aux genres Calligonum (Polygonacée) et Tamarix.
- Nous n’avons pas observé de Calligonum à In Afaleleh, mais par contre de très nombreux individus d’une espèce de Tamarix, le T. arliculata ou éthel des Touaregs. Ces éthels sont tous situés sur des buttes, parfois très hautes, ce qui donne au paysage une physionomie très particulière. Ajoutons que ces buttes formées par de la terre brunâtre ou noirâtre, plus ou moins durcie, ont parfois été considérées comme les vestiges d’une couche ancienne de sol. En réalité ces buttes renferment des troncs et non des racines : elles doivent être interprétées comme des accumulations purement localisées.
- Notons enfin l'extrême pauvreté du paysage végétal à In Afaleleh. En effet, la florale de cette contrée se réduit en tout à quatre espèces qui sont : Tamarix articulala (espèce dominante), Salsola baryosma (quelques rares pieds), Cor-nulaca monacantha (rare), et Acacia tortilis (un seul arbre). Presque tous les Tamarix présentaient des efflorescences salines.
- Antoine Naegelé.
- p.327 - vue 330/558
-
-
-
- Une branche nouvelle de la psychologie sociale
- La psychologie des petits groupes
- I. Quelques points d’histoire
- De nombreux psychologues se sont consacrés depuis quelques années à l’étude des « petits groupes », qui offre un intérêt évident sur divers terrains de l’activité humaine : écoles,' administrations, ateliers, bureaux d’études, comités divers, etc. Il nous a paru utile de présenter les aspects essentiels de cette branche nouvelle de la psychologie sociale. En deux premiers articles, M. Jean-Claude Filloux fera un historique et exposera les méthodes générales de ces recherches. Ultérieurement, d’autres articles montreront les résultats déjà acquis et les enseignements pratiques que l’on peut en tirer.
- La psychologie, au sens strict du terme, est l’étude des lois qui président à la conduite des individus en tant que tels. La sociologie se réserve d’autre part le domaine des structures sociales sans se préoccuper spécialement des unités individuelles dont la société est faite. Le rapport même individu-société n’intéresse directement, ni la psychologie, qu’elle soit clinique ou expérimentale, ni la sociologie, qu’elle s’intéresse aux institutions, aux classes, ou à l’articulation des grandes catégories sociales dans la société' globale.
- C’est à la psychologie sociale, science récente, que revient l’étude de 1’ « individu-en-société ». Son domaine propre est le lien fondamental qui existe entre l’individu et le « social », lequel n’était abordé jusqu’à son apparition ni par la psychologie, ni par la sociologie. Mais elle garde d’étroites relations avec ces deux sciences, car il lui faut envisager le social en termes psychologiques, et l’individu en termes socio-logiques, donc intégrer dans une perspective spécifique deux types d’approche opposés de la réalité humaine. Réalisant une « sociologisation » de la psychologie en même temps qu’une « psychologisation » de la sociologie, c’est bien une « science-carrefour », ce qui ne va pas sans difficultés parfois.
- Le terme même de « lien » demande à être précisé, Il veut dire que l’individu a une action sur son milieu social, et qu’inversement le milieu exerce une action sur lui. Mais cette influence réciproque peut être envisagée à plusieurs niveaux. On peut, par exemple, étudier comment les institutions familiales agissent sur la formation de la personnalité de l’enfant dans le cadre d’une société et d’une culture données. On peut aussi analyser quels sont les rapports entre tels parents et tels enfants dans une famille particulière. Dans le premier cas, on se place à un niveau relativement général ; dans le second cas, on se place au niveau des relations interpersonnelles concrètes. Par certains de ses aspects, la psychologie sociale se préoccupe d’un point de vue délibérément « général » du tiret qui est son objet propre dans la formule individu-en-société : problèmes des rapports entre culture et personnalité, de la socialisation des conduites, de la propagande, de la circulation des rumeurs, etc. Par d’autres côtés, elle s’en préoccupe au niveau des interactions « vécues » entre les personnes singulières : ainsi en est-il des études qui ont été faites depuis une quinzaine d’années sur l’interdépendance des individus qui participent à des petits groupes. Ces études forment un secteur de la psychologie sociale dont l’importance est croissante.
- Le développement de l’étude des petits groupes durant les
- dernières années semble dû à des raisons à la fois méthodologiques et pratiques. Au point de vue méthodologique, les groupes composés d’un nombre limité de personnes peuvent être (toutes choses égales par ailleurs) assimilés à des microsociétés, dans lesquelles les mécanismes psycho-sociaux élémentaires apparaissent d’une façon plus simple, moins voilée, que dans la société globale. L’observation de ces mécanismes peut être directe, et il est même possible de créer artificiellement des groupes en vue de vérifier des hypothèses, autrement dit de réaliser l’équivalent des expériences de laboratoire dans les sciences de la nature. D’autre part, il est certain que, pratiquement, il existe des quantités de petits groupes sociaux, et que le rapport entre l’individu et la société a essentiellement lieu par l’intermédiaire de l’appartenance à tel ou tel de ces petits groupes : équipe de travail, section syndicale, club d’amis, etc.
- On a pu observer, par exemple, que ceux qui appartiennent à de grandes structures sociales comme une entreprise industrielle, une administration, prennent leurs décisions et concertent leurs actes entre eux, non pas en gardant les yeux directement sur l’autorité centrale et sur les agents qui portent le symbole de cette autorité, mais dans le cadre de leurs rapports avec tels ou tels individus avec qui ils entretiennent des relations élémentaires, c’est-à-dire des relations d’homme à homme. Que l’on étudie le fonctionnement des entreprises et des administrations, le fonctionnement d’une cité, ou d’un village, on est toujours obligé de tenir compte des rapports qui s’établissent à l’intérieur de petits groupements d’individus qui semblent avoir une existence propre. Cet impératif explique suffisamment que l’étude des groupes restreints soit devenue une sorte de foyer vers lequel ont convergé les hypothèses et les recherches de savants aussi différents que des psychanalystes, des sociologues industriels, des pédagogues.
- En tant qu’objet d’un secteur spécifique de la psychologie sociale, le petit groupe se définit en fonction de trois caractéristiques fondamentales :
- i° Il est formé d’un nombre suffisamment limité de personnes pour qu’elles se connaissent, le cas échéant se voient « face à face » (réunion), aient en tous cas une existence psychologique réelle les unes pour les autres ;
- 2° Ces personnes ont des interactions, sont dans une certaine mesure interdépendantes (minimum de cohésion, de communauté de buts) ;
- 3° Une évolution, une vie de l’ensemble est observable (changements, conflits qui se résolvent, etc,).
- Six personnes dans un compartiment-'de chemin de fer ne forment pas un groupe, mais ùn agrégat;'elles ne deviendront un groupe que si elles entrent en interaction, décident d’un but commun, parviennent à former une sorte d’équipe (cela peut se produire dans le cas d’un voyage très long, mais rarement). De l’interaction naît l’évolution, comme si le gi'oupe avait une naissance, une vie, et le cas échéant une mort : ainsi on peut parler de la « vie » d’un gang d’adolescents. Au delà d’une quinzaine de personnes, enfin, les gens ne sont pas suffisamment « présents » l’un à l’autre pour que le « petit groupe » puisse trouver sa cohésion, son-^istye'rice : ou bien il cède la place à une « organisation sociifle », ou bien il se résout en un simple'agrégat. Nous dirons donc que la psychologie sociale s’intéresse, sous le nom de « petits groupes » ou de « groupes restreints », à des groupements qui réunissent
- p.328 - vue 331/558
-
-
-
- 329
- une quinzaine de personnes en moyenne, conscientes les unes des autres, et ayant des relations réciproques évolutives.
- Certains de ces groupes sont créés par les institutions sociales elles-mêmes : ainsi une équipe d’ouvriers, une réunion de cadres. D’autres, plus nombreux peut-être, jaillissent spontanément de la vie sociale, et se superposent parfois aux premiers (groupes d’amis). A côté des groupes formels, il faut donc distinguer des groupes non formels. D’un autre point de vue, il convient de différencier les groupes d'activité (équipe sportive), des groupes de discussion (cercle d’études, conférence). Peut-être aussi convient-il de mettre à part les groupes de laboratoire qui permettent aux psychologues sociaux d’observer dans des conditions expérimentales le comportement interactif des individus-en-groupe.
- Les multiples travaux effectués à l’heure actuelle sur les groupes ainsi définis (plusieurs centaines d’articles sur la question sont publiés chaque année aux États-Unis seulement) nous incitent à essayer de faire le point de ce qu’on « sait » à ce sujet. Les résultats obtenus semblent être susceptibles d’applications pratiques du plus haut intérêt dans le domaine de l’éducation, dans le domaine industriel, dans le domaine de l’organisation de la vie des syndicats, partis, etc. Ainsi, l’étude de l’évolution des réunions de discussion a permis des conclusions susceptibles d’applications utiles relativement à l’art de conduire des réunions de décision, dans lesquelles chacun peut intervenir, s’exprimer, etc. De même que nous avons essayé il y a quelques années de faire le tour des problèmes fondamentaux abordés par cette branche de la psychologie générale qu’est la psychologie animale (9, nous tenterons au cours d’une suite d’articles consacrés à la structure psychologique des groupes, aux lois de leur développement, aux systèmes de communication qu’on y trouve, etc., de montrer quelles réponses une toute jeune science, la psychologie des groupes restreints, donne aux problèmes posés par son objet, dans le cadre de la psychologie sociale. Nous rappellerons d’abord comment elle est née; le prochain article traitera de ses méthodes.
- Les précurseurs
- C’est avec les enquêtes de El ton Mayo, les techniques de Moreno, les recherches théoriques de Kurt Lewin et les procédés de thérapie collective qu’a commencé véritablement autour des années ig3o l’histoire de la psychologie des groupes restreints. Mais, ici comme ailleurs, des précurseurs avaient ouvert la voie. Ainsi on peut considérer que Durkheim, le père de la sociologie française, a le premier indiqué le rôle des petits groupes « anomiques » dans la vie concrète de l’individu, à qui ils fournissent une a base morale » et un « support » (.Division du travail social, 2e éd., 1897). On cite aussi l’Allemand Simmel qui, dès 1908, introduisait le concept fondamental d’ « interaction », analysait le phénomène d’ « appartenance au groupe » en termes de « liens », et formulait de brillantes hypothèses relativement au groupe de deux (dyade), au groupe de trois (triade) ; ou encore, pour passer définitivement aux États-Unis, les recherches de Thomas sur le Paysan polonais (19x8), où l’on trouve des idées intéressantes sur l’action de l’émigration sur les .groupes élémentaires, considérés comme facteurs d’équilibre personnel : l’émigration désintègre ces groupes, et frustre considérablement les besoins de communication et de sécurité qu’ils satisfaisaient.
- Les premières études portant plus particulièrement sur le fonctionnement de petits groupes sont probablement celles
- 1. Une première série d’articles sur la psychologie animale ont paru dans La Nature en octobre et novembre 1952, février, mars, juin, juillet 1953, janvier, février, mars, octobre, novembre 1954. La sociabilité animale a été étudiée en mai, juin, juillet, août 1955 ; la nature de l’univers chez l’animal en octobre, novembre, décembre 1957. L’essentiel a été réuni dans Le Psychisme animal, Editions du Cerf, 1959
- du psychologue F. H. Allport. Il étudia en effet systématiquement autour des années 1920 l’influence du fait d’être a en groupe » sur les associations d’idées, la solution de problèmes, en plaçant successivement des sujets dans des situations d’isolement et dans des situations de groupe. Ses conclusions furent que la quantité des idées nouvelles qui apparaissent à l’esprit est plus grande lorsque l’on cherche « en ' groupe » : c’est ainsi qu’Allport peut être considéré comme un ancêtre du brainstorming. Signalons aussi dans cette voie les travaux de Sheffield sur la « discussion créatrice » et d’Eliott sur les processus de la « pensée en commun », travaux basés sur des observations obtenues sans protocoles techniques bien sérieux, mais qui eurent quelques répercussions entre 1925 et 1930. Dès 1930, Dasliiell et Burnham tiraient, d’observations de ce style, des hypothèses, le premier sur les « effets de groupe », le second sur le « facteur de groupe ».
- De leur côté, les enquêtes monumentales de Thrasher sur les gangs d’adolescents dans la ville de Chicago ouvraient en 1927 la voie à l’étude des groupes délinquants spontanés. Son livre Le Gang est fondé sur l’examen du fonctionnement interne de 1 200 gangs ; on y trouve des hypothèses utiles sur des variables comme la taille du gang, la lutte pour le statut et le leadership, la division des rôles, les procédés de sélection. Un de ses disciples, Landesco, n’hésita pas à participer temporairement aux réunions d’un des plus célèbres gangs d’adultes de Chicago pour saisir aux sources sa vie interne (1929).
- N’omettons point enfin de citer, parmi les précurseurs, ce pionnier de la psychologie sociale que fut C. H. Cooley. De 1909 à 1929, Cooley ne cessa de répéter, dans de nombreux ouvrages (ainsi Social process, 1918), que les groupes « primaires » non formels sont essentiels à l’organisation sociale elle-même.
- Elton Mayo et les expériences à la Western Electric Company
- Les expériences que fit Elton Mayo dans les ateliers d’une usine de matériel électrique, la Western Electric Company, à Hawthorne, marquent le début d’une nouvelle période. Les résultats en sont rapportés dans un ouvrage de Mayo publié en ig33, H aman problems of industrial Civilisation, et dans celui de ses collaborateurs Roethlisbcrger et Dickson, Management and the Worker, 1939 (2).
- 11 s’agissait, à l’origine, d’une élude sur le rendement; Deux séries d’expériences furent effectuées. La première se continua d’avril 1927 à février iq33 dans les conditions suivantes : un groupe de C jeunes ouvrières expérimentées occupées ài l’assemblage de l’elais de téléphone fut placé dans une chambre-test, de telle sorte qu’il était possible d’une part d’observer minute par minute le comportement de chaque ouvrière, le comportement du groupe, et les interactions entre les ouvrières et le-groupe lui-même, et d’autre part d’introduire des varia-blès expérimentales (cadences, pauses, salaires, etc.). La seconde série d’expériences, qui bénéficia d’ailleurs des enseignements de la première en ce qui concerne son organisation, est connue sous le nom de « Salle d’observation du câblage des centraux téléphoniques ». Elle dura moins longtemps (de novembre 1931 à mai 1932), mais donna lieu à des manipulations plus complexes. Le groupe étudié était composé de x4 ouvriers (9 câbleurs, 3 soudeurs, 2 contrôleurs), dont le travail était spécialisé, et qui étaient rémunérés en fonction d’un système de salaires assez compliqué, lié à la fois au rendement collectif et aux performances individuelles. La personnalité de chaque ouvrier était connue d’avance grâce à des tests préalables.; Çles
- i.
- 2. Les recherches de la Western Electric sont fort.bien exposées dans un texte de Homans édité dans le symposium « Aspects humains de la direction des Entreprises1 »', buhod, 1959.
- p.329 - vue 332/558
-
-
-
- 330
- « interviews » individuelles étaient pratiquées régulièrement, et les moindres propos étaient scrupuleusement enregistrés.
- Ces deux séries d’expériences peuvent être considérées comme étant le point de départ des recherches qui appartiennent à l’heure actuelle au domaine de la sociologie industrielle. Mais leur intérêt majeur réside, d’un point de vue plus théorique, dans leur apport à la psychologie des groupes restreints. En effet, l’équipe d’ouvrières de la « ch.ambre-test du montage des relais », de même que l’équipe de la « chambre de câblage », formaient des groupes institutionnels, des équipes comme il en existait d’autres dans chaque atelier. Or, il apparut que sous le groupe « formel » se constituait dans chacun des cas un groupe non formel possédant ses règles, son code propre, sa personnalité, de telle sorte que le rendement était essentiellement fonction des rapports psychologiques qui s’étaient instaurés dans l’équipe, indépendamment des «règles» émanant du système institutionnel. En particulier, la deuxième série d’expériences révéla l’existence de sous-groupes homogènes, d’échanges de services entre câbleurs et soudeurs (bien que le système des salaires eût dû entraver cette pratique), et aussi la présence de leaders implicites. Bref, deux ordres de conclusions apparurent : d’abord, relativement au rôle du groupe psychologique, qui se présente comme une sorte de défense collective; ensuite relativement à la dynamique interne de ce groupe, où les rapports d’amitié, les tensions, les conflits, l’émergence de normes spécifiques sont des facteurs de pro gression et de « vie ».
- Quelles que soient les insuffisances des recherches de Mayo et de son école (empirisme, manque d’hypothèses théoriques suffisantes), elles ont été véritablement inductrices. Les travaux qu’effectue actuellement la psychologie sociale dans le domaine industriel se situent dans le sillage de Mayo, autant (nous le verrons) que de Lewin.
- Moreno : la « sociométrie » ; les « rôles »
- Comme Mayo, Moreno fut un novateur. Génie polyvalent, sorte de « force de la nature », il a fourni lin des premiers outils destinés à l’investigation des relations à l’intérieur des petits groupes, et il a donné une impulsion nouvelle et créatrice à la théorie des « rôles ».
- C’est dans le Fondement de la Sociométrie (ig34) que Moreno a exposé une technique de « mesure » ou plutôt de diagnostic des relations affectives des individus dans un groupe, qu’il appela « sociométrie ». Cette technique est fondée sur la constatation que chaque individu appartenant à une collectivité restreinte éprouve pour chacun de ceux qui la composent des « sentiments » d’attraction, de répulsion ou d’indifférence; réciproquement, il est lui-même l’objet de semblables sentiments de la part des autres. On peut appeler « atome social » ce nœud d’émissions et de réceptions qu’est l’individu. Moreno a imaginé divers « tests » qui permettent, d’une façon directe ou indirecte, d’être renseigné sur les sentiments des membres du groupe les uns pour les autres; des représentations graphiques (sociogrammesj peuvent être construites, qui rendent évidente d’un seul coup d’œil la structure socio-affective du groupe. Cette dernière comporte des chaînes, des réseaux plus ou moins complexes (triangles, etc.), où émergent des « leaders » (préférés), où se remarquent dès « cliques ». Des calculs permettent de déterminer 1’ « indice d’interaction » propre à un groupe, son indice de « stabilité », de « concentration », ainsi que diverses autres variables importantes.
- D’autre part, Moreno a repris une vieille notion, qu’on trouve déjà chez G.-H. Mead et chez Cooley, celle de « rôle », en l’utilisant également comme instrument d’analyse des rapports sociaux. La vie sociale, en effet, exige qu’en des occasions définies nous ayons des conduites définies qui répondent aux
- nécessités propres à ces occasions, à ce que l’on attend de nous : on peut appeler « rôles » ou « conduites de rôle » ces attitudes attendues et nécessaires (rôle du vendeur, de l’acheteur, du conseiller, etc.). Nous agissons d’autant mieux selon nos rôles que nous prévoyons mieux les rôles d’autrui, que nous les anticipons mieux. Mais nous ne connaissons pas tous les rôles, et souvent des difficultés d’adaptation à autrui naissent de cette ignorance. C’est pourquoi Moreno eut l’idée de provoquer, chez des sujets mal adaptés (névrosés), aussi bien que chez des sujets normaux recherchant un perfectionnement dans leur équilibre social, une amélioration des conduites sociales en les faisant « jouer » des rôles étrangers à leurs habitudes. Ainsi naquit le psychodrame qui se présente sous certains aspects comme une thérapeutique par le groupe, et sous d’autres aspects comme un procédé particulier de formation aux relations humaines.
- L’usage de cette technique,*dont on trouve un exposé dans Psychodrama (1946), a conduit Moreno à considérer que le « jeu de rôles » est plus naturel qu’on ne le pense : nous « jouons » souvent le rôle de quelque autre personne à laquelle nous nous identifions pour un moment... En particulier, dans tout groupe, chaque individu a tendance à adopter un « personnage » (masque ou compensation, idéal de soi, etc.), qui est partiellement fonction de ce qu’il est et de ce qu’il veut être ou pense être dans le groupe. De telle sorte que le groupe peut être analysé comme un assemblage de rôles. Malheureusement, Moreno ne semble pas avoir voulu relier clairement cette dernière conception avec la conception qui fonde la sociométrie. Aussi bien Moreno est-il plus un intuitif qu’un théoricien. Ce sont ses intuitions qui demeurent vivantes, et qu’on retrouve à l’heure actuelle à la base de nombre d’hypothèses qui servent de fil conducteur aux expérimentations sur le comportement en groupe.
- Kurt Lewin : la « dynamique des groupes »
- A la différence de Moreno, Lewin ne fut pas un intuitif : il allia les qualités d’un expérimentateur et d’un théoricien. Il a été à l’origine d’un mouvement d’une extrême fécondité, en plein essor de nos jours et, malgré sa mort précoce en xg47, on peut parler d’une véritable « présence » de Lewin. Le fameux Research Center for Croups Dynamics, qu’il a fondé en ig45 à l’Université de Michigan, comporte les laboratoires de recherches les plus perfectionnés dans le domaine des travaux expérimentaux sur les groupes restreints.
- Allemand d’origine, Lewin vint aux Etats-Unis en 1982. Il avait déjà publié divers travaux profondément marqués par la Gestalt-Psychologie (psychologie de la forme) qui, on le sait, enseigne que dans tout phénomène psychologique la partie reçoit sa signification du tout. Lorsqu’il s’intéressa aux phénomènes psycho-sociaux, à partir de 1935, ce fut pour les considérer eux aussi comme des totalités où la partie (en l’occurrence l’individu) n'existe qu’en fonction du tout, dans le cadre d’une sorte de « champ » psycho-social ayant ses caractéristiques propres. Hypothèses qu’il soumit immédiatement à la vérification, à telle enseigne que ce fut l’expérimentation qui fit progresser la théorie elle-même, dans une véritable dialectique.
- Parmi les « expériences » de Lewin, les plus connues sont celles qu’il effectua en ig3g avec Lipitt et White sur des groupes d'enfants, et celles de ig4i-i943 relatives aux conditions de changement des habitudes alimentaires dans des collectivités.
- Les expériences de 1939 avaient pour but de déterminer l’influence du mode de commandement (autoritaire, démocratique et « laissez-faire ») sur le comportement de petits gi-oupes d’enfants d’âge scolaire chargés d’une tâche collective (confection de masques). Trois séries d’expériences furent faites, cha-
- p.330 - vue 333/558
-
-
-
- 331
- cune utilisant une tech'nique expérimentale différente. Dans un cas, deux groupes étaient soumis simultanément, l’un à une conduite démocratique, l’autre à une conduite autoritaire. Dans un autre cas, quatre groupes recevaient chacun et successivement un leader autoritaire, un leader démocratique et un leader « laissez-faire ». Dans d’autres cas encore, des permutations entre membres des divers groupes avaient lieu. Ces études montrèrent que le type de commandement autoritaire a un effet dissociateur sur la structure du groupe, et suscite des réactions d’agressivité qui peuvent être refoulées pendant un certain temps, puis se traduire par des conflits internes, par l’apparition d’un « bouc émissaire ». Signalons que (comme dans le cas des enquêtes de Mayo) toutes précautions avaient été prises pour permettre aux expérimentateurs une connaissance minute par minute de tous les événements qui intervenaient dans chacun des groupes.
- Les expériences de ig4i-i943 avaient pour but de chercher si des sollicitations d’une autorité, elle-même sans rapport avec le groupe, amèneraient des modifications dans les habitudes de consommation alimentaires, avec autant d’efficacité qu’une « décision collective » prise au sein d’un groupe élémentaire. Parmi 8 groupes, assemblés en 4 paires opposées, ceux qui étaient sollicités par un appel impersonnel répondirent moins favorablement que ceux qui prirent leur propre décision commune. Des expériences de contrôle furent faites, en variant certaines conditions, qui toutes montrèrent l’influence significative, sur la motivation et la conduite, d’une décision collective prise par le groupe.
- Quant à la théorie lewinienne, il est possible d’en schématiser de la manière suivante les points essentiels :
- — Le groupe n’est pas une somme de membres, mais une structure qui émerge de l’interaction des individus et qui induit elle-même des changements chez les individus.
- — L’interaction psycho-sociale est à l’origine de l’évolution des groupes et de leurs mouvements ; autrement dit, entre les individus qui forment le groupe, il se produit des phénomènes multiples (attirance, répulsions, contraintes, tensions, etc.) : les courants qui s’établissent ainsi entre les éléments du groupe, et entre les éléments et le groupe, déterminent un mouvement, une « dynamique », qui « projette en quelque sorte le groupe en avant », comme s’il avait la faculté de créer son propre mouvement.
- — L’évolution dynamique du groupe a pour substrat une sorte d’espace qui est le « lieu » des interactions, un véritable « champ de forces » social.
- — Un système social a une finalité interne, il cherche des formes d’équilibre à travers les tensions; cet équilibre n’est pas statique, mais un processus en mouvement le long d’une certaine ligne idéale; c’est un équilibre « quasi stationnaire ».
- Nous aurons l’occasion de retrouver ces principes, qui sont la base de tous les travaux des disciples de Lewin appartenant à l’école dite de la « dynamique des groupes ». Édifiés comme il a élé dit en dialectique avec les résultats expérimentaux, ils impliquent que le comportement d'un individu en groupe est toujours déterminé par la structure de la situation présente. La personnalité des participants n’exerce d’action qu’en fonction du champ de forces engendré par les réponses de chacun à tous. Cela recoupe d’ailleurs le fait qu’il est fort difficile de prédire la conduite d’un individu dans un groupe; ses réactions dépendront en effet essentiellement des interactions entre sa personnalité et la personnalité des autres membres du groupe; elles seront un « phénomène de groupe ».
- La « thérapeutique de groupe »
- En plus de ces trois sources fondamentales qui ont alimenté l’étude du « petit groupe », nous avons cité une source sup-
- plémentaire de connaissance, la psychothérapie de groupe. Celte dernière tire son inspiration de la psychanalyse; elle utilise d’ailleurs les concepts psychanalytiques traditionnels d’inconscient, surmoi, transfert, etc. Elle est fondée sur cette hypothèse que des névrosés, voire des malades mentaux, peuvent retrouver le sens du social, la communication avec autrui, en vivant certaines expériences de groupe sous la direction d’un psychothérapeute. Le psychodrame morénien peut être considéré comme une modalité particulière de thérapeutique collective. Mais il diffère de la thérapeutique collective proprement dite par le fait qu’il demande essentiellement aux participants de « jouer » d’une manière « dramatique » leurs propres conflits, alors que les groupes thérapeutiques qu’utilisent par exemple Slavson aux États-Unis depuis iq43, Foulkes à la Group-Analytic Society de Londres, et surtout Bion à la Tavistock Clinic de cette même ville, sont constitués par des sujets auxquels on demande une activité pnrement verbale (discussion).
- Les praticiens de la thérapeutique de groupe apportent d’utiles éléments à la psychologie des groupes, parce que, en un sens, ce qui se passe dans un groupe de névrosés peut être considéré comme indicatif de ce qui peut se passer dans un groupe de sujets normaux : les processus sont simplement grossis, exagérés.
- Certains praticiens, par exemple Bion, ont d’ailleurs conceptualisé de véritables thèses sur le fonctionnement psychologique des groupes, envisageant l’existence d’un « inconscient de groupe », d’un « surmoi de groupe », décrivant des plié-, nomènes d’ « identification » au leader, etc. Nous y reviendrons. Notons simplement que de telles thèses contribuent à nous indiquer ce que peuvent être, quant à leur contenu, les forces psychologiques qui entrent dans le cadre formel des interactions et des conflits schématisés par Lewin. La « dynamique des groupes » peut être, de ce point de vue, considérée comme donnant un cadre, là où la psychanalyse des groupes donne une matière.
- *
- *
- L’élude du fonctionnement psychologique des groupes restreints voit, depuis une dizaine d’années, converger des recherches effectuées à partir d’intentions souvent très différentes. Deux choses contribuent à rapprocher progressivement les perspectives diverses, dans le sens d’une théorie unitaire des groupes restreints : d’abord le souci d’une recherche active, ensuite le souci de validation scientifique.
- Ainsi, pour ce qui est du premier point, il est significatif qu’au National Training Laboratory for Group Development, fondé en 1947 à Bethel, les organisateurs de séminaires destinés à l’entraînement pratique aux relations de groupe soient à la fois des lewiniens, des moréniens et des psychanalystes. Lors de ces séminaires, qui peuvent être considérés à la fois comme des centres d'application de la psychologie des groupes, et comme des centres de recherche (recherche active), les organisateurs-chercheurs sont bien obligés de confronter et de rapprocher leurs hypothèses de base dans le cadz'e d’une action transformatrice des individus. Ainsi naît progressivement une sorte de théorie unitaire du fonctionnement des groupes restreints, comme sous nos yeux.
- Parallèlement s’est constituée une méthodologie qui permet d’obtenir en ce domaine des résultats d’une rigueur bien plus grande encore que celle à laquelle les recherches expérimentales anciennes de Mayo, voire même celles de Lewin avaient atteint. C’est à cette méthodologie que sera consacré notre prochain article.
- (à suivre). Jean-Claude Filloux,
- Agrégé de l’Université.
- p.331 - vue 334/558
-
-
-
- 332
- Les étonnantes limites physiques du fonctionnement sensoriel
- L'organisme animal communique par des interactions de types très divers avec le milieu dans lequel il se trouve placé. Certaines actions du milieu provoquent des réponses dont l’ampleur n’est en aucun rapport avec le très faible apport d’énergie qui les a déclenchées. Un tel appel est appelé stimulas sensoriel.
- Ce sont les organes des sens qui reçoivent les stimulus. Ceux-ci sont d’ordre mécanique, électromagnétique ou chimique. Dans les parties périphériques des organes des sens (tégument, oreille, œil, langue, nez, etc.), le stimulus agit sur des récepteurs spécialisés et y provoque un état d’activité électrique qu’on appelle excitation. Cette excitation constitue le début d’un processus d’information qui, de proche en proche, gagne les centres nerveux supérieurs, où il détermine une sensation. Celle-ci peut s’accompagner d’un réflexe musculaire déterminé par des centres inférieurs, mais elle peut également provoquer un comportement intégré plus complexe.
- Tout stimulus est d’ordre purement physique ou chimique. L’excitation, au contraire, est une réponse physiologique, mettant souvent en branle des énergies potentielles qui dépassent de plusieurs ordres de grandeur celle qu’apporte le stimulus.
- A chaque organe des sens correspond un stimulus adéquat : stimulus pression pour l’oreille et le tégument, stimulus lumineux pour l’œil, stimulus chimique pour le goût et l’odorat, stimulus mécanique pour le sens de l’équilibre, stimulus calorifique pour les sensations du chaud et du froid, etc. Cela ne signifie point qu’une sensation ne puisse être déclenchée par un stimulus non adéquat, mais ce dernier accuse toujours un rendement inférieur à celui du stimulus adéquat.
- Pour qu’une stimulation, agissant sur les récepteurs d’un organe des sens, puisse provoquer une sensation, il est indispensable qu’elle atteigne un certain niveau d’intensité ou qu’elle apporte un certain minimum d’énergie. Cette distinction s’impose. En effet, un stimulus doit présenter une intensité minimale pour provoquer une excitation et cela peut correspondre à une dépense d’énergie considérable lorsque la durée du stimulus est grande. Au contraire, une énergie supérieure dispensée pendant un temps très bref peut atteindre le seuil de la sensation avec une dépense d’énergie totale (intensité x temps d’action) bien moindre.
- La stimulation liminaire ou seuil est donc définie à l’aide d’une intensité et d’une durée. Le produit de ces deux facteurs constituant une énergie, celle-ci peut atteindre un minimum. Nous utiliserons les termes « intensité de stimulation » dans un sens élargi. Tour à tour, nous désignerons ainsi l’énergie débitée par seconde (exprimée en watts) lorsqu’il s’agit, par exémple, de «stimulations mécaniques, audibles ou non; du nombre de quanta lumineux traversant tel plan (cornée, rétine) par unité de temps et de surface; ou encore du nombre de molécules d’une substance odorante contenues dans l’unité de volume du milieu ambiant. Dans ce contexte, 1’ « énergie stimulante » correspondante se mesure, tour à tour , en wattsecon-des, en nombre de quanta lumineux, ou en nomb"e de molécules.
- Depuis la découverte par Planck du quantum d’action, l’énergie sous toutes ses formes n’apparaît plus comme un flux (:continuum) mais comme constituée par des quantités discrètes appelées quanta. Si v est la fréquence de vibration du porteur d’une énergie vibratoire, le quantum d’énergie correspondant est hv, h étant le quantum d’action universel (constante de Planck). Appliquée à l’énergie rayonnante, cette définition montre qu’un quantum lumineux, appelé photon,
- transporte d’autant plus d’énergie que la fréquence du rayonnement est élevée. Un photon « violet » présente donc davantage d’énergie qu’un photon « rouge ».
- Sur le plan des sensations chimiques, le quantum est représenté par la molécule. Les molécules d’un corps chimique donné provoquent sur la langue ou sur une muqueuse olfactive une action excitatrice. La réaction, chimique ou physico-chimique, que leur adsorption introduit, aboutit à une réponse nerveuse qui, si elle est assez forte, peut conduire à l’éveil de la sensation, grâce à un processus nerveux qui se déroule dans le cortex cérébral.
- L’énergie sonore est quantifiée comme toute autre énergie. Mais ici hv est extraordinairement petit, même par rapport aux énergies déjà si faibles que transporte un quantum lumineux, car les fréquences en question sont de l’ordre de io3 cycles/seconde tandis que celles de la lumière dépassent io15 c/s.
- Chez l’Homme, la plupart des organes des sens permettent la perception d’une grande variété de qualités. Ainsi la qualité de la sensation sonore varie avec la ou les fi'équences qui déterminent le son, et celle de la sensation visuelle avec la ou les fréquences des radiations qui composent le stimulus lumineux. Le seuil de la sensation dépend d’ailleurs généralement de la qualité du stimulus. Lorsqu’il en est ainsi, il existe toujours une qualité pour laquelle le seuil atteint un minimum. En vision crépusculaire, par exemple, cet optimum correspond à la lumière bleu-vert dont la longueur d’onde est X — 5o5 m^x. (millimicrons), et en audition, à une vibration de fréquence v = i 200 c/s environ.
- La position sur la gamme des qualités de cet optimum dépend de l’espèce animale considérée. Ainsi beaucoup d’animaux entendent particulièrement bien les ultrasons, vibrations de fréquence sonore supérieure à 19 000 c/s, tandis que l’Abeille a son optimum de sensibilité visuelle dans l’ultraviolet invisible à l’Homme.
- Intensités et énergies liminaires
- Il est étonnant de voir combien peu se distinguent entre eux les seuils d’intensité des différentes sensations. Ces seuils (les intensités liminaires) sont les intensités qui, agissant en quasi-permanence ou, au moins, pendant des secondes, provoquent tout juste l’éveil de la sensation.
- Les sensations mécaniques des Insectes fournissent des exemples surprenants de l’extraordinaire sensibilité à laquelle peut atteindre l’organisme animal. Certains insectes réagissent aux vibrations mécaniques à l’aide d’un organe chordotonal. Cet organe, constitué par des cordes pilaires tendues sur une cavité ouverte et fixées aux extrémités, se situe chez la blatte Peri-planeta americana dans le tibia (Autrum, à Munich). Les vibrations du milieu qui atteignent une telle corde lui imposent un déplacement synchronisé et, de ce fait, provoquent des tiraillements des filets nerveux qui partent de l’une de ses extrémités. La figure 1 montre le seuil de réponse de cet organe, en fonction de la fréquence des vibrations mécaniques qui le sollicitent. Aussi invraisemblable que cela puisse paraître, à 1 4oo c/s, l’amplitude liminaire est en moyenne 2 x io-9 cm et, pour l’organe le plus sensible étudié par l’auteur, égale à seulement 4 x io~10 cm ! Rappelons pour comparaison que le diamètre d’un atome d’hydrogène est de l’ordre de io-8 cm. Des calculs faits par Autrum montrent que l’intensité de stir
- p.332 - vue 335/558
-
-
-
- 4000 8000 c/s
- 400 800 1400
- 100 200
- Fig. 1. — Seuil d’excitation de Vorgane chordotonal de la Blatte Periplaneta americana en fonction de la fréquence de la vibration.
- échelles logarithmiques. L’extraordinaire sensibilité du système est limitée à une étroite bande de fréquences autour de 1 400 cycles/s (D’après
- Autrum).
- 500 1000 2000 5000 10000
- 20 C/S 50
- Fig. 2. — Amplitude d’oscillation du tympan humain au seuil de la sensation sonore, en fonction de la fréquence du son (cercles).
- Pour comparaison, on a produit en trait plein l’amplitude d’oscillation des molécules d’air calculée à partir des pressions au seuil de l’audition (D’après Wilska).
- mulalion agissant au seuil sur cet organe est de l’ordre de 6 x io~17 watt.
- Des intensités tout à fait comparables suffisent à exciter l’organe du type auditif du Criquet. Ces appareils se trouvent dans les pattes antérieures, juste au-dessous du genou, et comprennent des tympans de très faibles dimensions. A cela correspond une fréquence de résonance très élevée, de sorte que l’optimum de l’excitabilité de l’organe se place dans le domaine ultrasonore. Autrum a constaté qu’à 90 000 c/s l’animal entend encore très bien. L’intensité liminaire se trouve dans le domaine ultrasonore et est égale à 5 x io~17 watt.
- Cette valeur extrêmement faible est pourtant plus élevée que l’intensité liminaire auditive chez l’Homme, qui est de l’ordre de io-17 watt. 11 est remarquable qu’au seuil visuel correspond une intensité comparable. Des mesures datant de 5o ans aussi bien que des plus modernes, répétées dans des conditions de plus en plus rigoureuses, montrent que le seuil visuel peut ne pas dépasser 6 x io-17 watt. Ce qui frappe n’est pas seulement l’extraordinaire petitesse, mais également la quasi-identité des intensités liminaires relevées, qu’il s’agisse de l’Insecte ou de l’Homme, du sens vibratoire, auditif ou visuel.
- Une lampe de poche débite approximativement x watt. Chacun des stimulus précités représente une intensité inférieure à io-16 watt, durant un temps de l’ordre de la seconde. Dès lors, faire marcher une lampe de poche pendant une seconde consomme au moins autant d’énei'gie que faire agir un des stimulus liminaires en question pendant au moins iolfi s, soit plus de 200 millions d’années !
- La question se pose de savoir si ces performances sont compatibles avec nos connaissances en matière de Physique et de Chimie et, pourvu qu’elles le soient, si elles constituent une limite supérieure de la sensibilité de la matière vivante aux sollicitations qui lui viennent de son ambiance.
- Dans le domaine des sensibilités chimiques (goût, odorat), des interprétations relativement aisées de l’intensité liminaire et de la structure physique et chimique du stimulus sont possibles. La finesse de l’odorat du Chien a donné lieu à des études très poussées et les résultats obtenus dans ce domaine par Neuhaus en Allemagne sont particulièrement instructifs. Cet auteur a mesuré sur le Chien les dilutions liminaires d’un certain nombre de corps chimiques odorants à structure bien connue. Ces expériences ont été menées de manière irréprochable et toutes les précautions ont été prises pour que les résultats numériques obtenus puissent être considérés comme définitifs.
- L’un des corps particulièrement bien perçus par le Chien est l’acide butyrique qui se trouve dans les sécrétions des glandes sudoripares. Connaissant la dilution liminaire à laquelle le Chien réagit (6 000 molécules par cm3 d’air) on peut calculer le nombre approximatif de molécules d’acide butyrique qui entrent en contact étroit avec les récepteurs de l’épithélium olfactif. Pour ce faire, il faut mesurer la vitesse d’aspiration d’air, la durée d’un reniflement, le volume des cavités nasales (les épithéliums ne se trouvent pas sur le passage du courant d’air aspiré, mais dans les cavités latérales), la surface de l’épithélium olfactif, etc. Le résultat de ces calculs très complexes n’est évidemment plus aussi bien assuré que la mesure du seuil même. On peut cependant conclure avec certitude que l’adsorption sur les récepteurs d’un très petit nombre de molécules, vraisemblablement d’une seule, par reniflement, suffit à l’animal pour distinguer la présence de l’acide butyrique de son absence.
- En effet, autre chose est de distinguer deux odeurs ou de distinguer une odeur de son absence. Au seuil absolu de la perception, la qualité de celle-ci s’évanouit et fait place à une sensation tout court, c’est-à-dire une présence sensorielle opposable à sa non-présence seulement.
- Pour illustrer cette situation inhabituelle, souvenons-nous que les couleurs s’évanouissent dès que l’éclairement baisse au-dessous d’une certaine valeur. Au contraire, lorsque l’aurore approche, des couleurs commencent à émerger de la grisaille noctui'ne. Cela signifie qu’en vision la qualité ne peut êti'e distinguée de la stimulation qu’à partir d’un certain niveau d’intensité. Il en est ainsi pour beaucoup et probablement pour toutes les sensations des êtres organisés, d’où la conclusion qu’au seuil absolu de l’olfaction du Chien, quelques molécules suffisent pour lui permettre de distinguer entre odeur et non-odeur, mais non pas de distinguer une odeur d’une autre.
- Odorat : l’Anguille sensible à une seule molécule
- L’Anguille, poisson migrateur mystérieux, est un autre objet de choix dans le domaine des performances sensorielles particulièrement poussées. Teichmann, en Allemagne, l’a étudiée au point de vue de son odorat et dans une importante publication récente il présente des données numériques appuyées solidement sur des expériences sans faille. Il ne peut être question ici d’entrer dans les détails. Mentionnons seulement que les
- p.333 - vue 336/558
-
-
-
- dilutions aqueuses des corps chimiques odorants utilisés ont été déterminées sans erreur appréciable possible et que toutes les précautions ont été prises pour que la distinction par l’Anguille entre présence et absence du corps étudié soit basée sur ce seul et unique critère. Des actions hormonales élèvent chaque année le seuil olfactif de l’Anguille pendant les mois d’octobre à janvier. I.’intensité liminaire se multiplie alors par i million environ. Il s’agit naturellement d’un barrage à un niveau supé-
- ’ig. 3. — Tête d’anguille schématisée.
- E entrée, S sortie de la cavité nasale.
- Fig. 4. — L’organe olfactif de l’Anguille.
- Le nombre des sillons varie entre 20 et 80 environ lorsque la taille de l’animal va de 10 cm à 80 cm (D’après Teiciimann).
- Fig. 5. — Schéma montrant le mouvement de l’eau aspirée dans la cavité nasale de l’Anguille.
- (D’après Teiciimann).
- rieur. En dehors de ces quatre mois il a été établi que l’Anguille peut percevoir l’odeur d’une dilution aqueuse de G x io~20 d’alcool |3-phényléthylique
- On peut exprimer cette sensibilité en disant que l’Anguille sait distinguer entre l’eau pure et de l’eau odorante qu’on obtiendrait en versant i mg d’alcool (J-phénylé'thylique dans un bassin rempli d’eau de 17 km de longueur, 10 km de largeur et 100 m de profondeur ! Cela peut s’exprimer également ainsi : 1 cm3 de la solution contient 1 800 molécules du corps odorant, le nombre des molécules d’eau étant 3,3 x io22 (ou 33 000 milliards de milliards) par cm3.
- L’auteur étudie ensuite le processus olfactif au lieu même où se trouve l’organe. Dans ce but, il enlève à l’animal la partie du crâne sous laquelle se trouve la muqueuse olfactive et y pose une lamelle de verre. A l’aide de particules de charbon
- véhiculées par le courant d’aspiration de l’animal, on observe sous la loupe binoculaire comment l’eau aspirée traverse les sillons de l’organe avant de le quitter. Celte expérience permet notamment d'affirmer que la petitesse de l’organe et surtout sa minceur et ses qualités hydrodynamiques assurent une utilisation intégrale de toute substance odorante. En effet une molécule d’une telle substance doit nécessairement entrer en contact avec la muqueuse avant d'être expulsée de l’organe olfactif.
- D’autres expériences permettent de déterminer combien de temps l’eau aspirée séjourne dans l’organe. A l’aide des coupes histologiques des organes olfactifs de plusieurs animaux, l’auteur parvient à calculer avec une bonne précision que la présence d’une seule de ces molécules odorantes, une fois toutes les 3 s, dans l’un ou l'autre des deux organes olfactifs de l’Anguille suffit pour que l’animal réagisse à cette odeur. D’autre part, on constate que le « choix » de l’animal dure de 10 à 20 s. On peut en conclure que quelques rares molécules touchant l’épithélium à des intervalles de l’ordre de 3 s suffisent à atteindre son seuil de la sensation.
- Vision : la Limule sensible à un seul photon
- Parmi les êtres dont la vision est particulièrement bien connue, il faut citer l’Homme et un Arthropode, la Limule. Le premier, non seulement parce qu’il se trouve au centre de l’intérêt scientifique, mais surtout parce qu’il est capable d'introspection et peut en communiquer les résultats à autrui. La Limule, parce que cet Arthropode des côtes de l’Amérique possède des yeux composés assez gros et que le nerf qui sort de chacune des ommalidies est assez long pour qu’on puisse étudier aisément le fonctionnement éleclrophysiologique de l'œil.
- La figure G montre une coupe schématique d’une des 700, ommalidies d’un œil de Limule. Derrière la cornée et le cristallin transparents (1) se trouve une couche pigmentée (2) entourant un groupe de 8 à 20 cellules allongées de section comparable à celle d’une tranche d’orange. Ce sont les réti-nules (3). Une structure particulière forme la mince partie terminale de la cellule, près de l’axe longitudinal de l’ommatidie.. Ce sont les rhabdomères (4) dont l’ensemble forme le vhabdome. Enfin au centre de l’ommatidie apparaît l’article supérieur d’une structure appelée cellule excentrique (5), à cause de sa position; (6) est son axone fibre du nerf optique, (7) une fibrille nerveuse terminaison d’une rétinule. Notons qu’on
- Fig-. S. — Coupes schématiques d’un œil facette (ommatidie) de la Limule, arthropode des côtes orientales des États-Unis.
- k gauche : coupe longitudinale ; à droite : coupe transversale à la hauteur dé (4). Explications dans le texte.
- p.334 - vue 337/558
-
-
-
- 335
- Fig. 7. — Enregistrement de potentiels électriques dérivés Limule stimulée par un faible éclat lumineux d’une durée de 30 millisecondes.
- 1 à 5 : intensité lumineuse minimale ; chaque bosse traduit un po-tenlid lent ; la première bosse visi- 2 lue sur l'enregistrement. 2 est due à une activité spontanée, cir elle se produit un peu avant le début de la slimulation ; en 5, pas de potentiel. 6 à 8 : stimulation 3 fois ^ plus intense ; on observe 1, 2 ou 3 potentiels lents, et, en 6, un iwtentiel propagé. 9 et 10 : stimulation 3 fois plus intense que pré- 4 cédcmment ; chaque fois plusieurs potentiels lents et un potentiel propagé. 11 : stimulation 100 fois plus intense que précédemment, provoquant un train de 6 potentiels pro- “• pagés. 12 : étalonnage 10 mV.
- (D’après Yeaniu.e).
- 6
- par microélectrode piquée dans la cellule excentrique d’une ommatidie de
- 10
- 121
- peut déceler des potentiels d’action dans les seules fibres du nerf optique, à la suite d’une stimulation lumineuse de l’ommatidie.
- Yeandle, à Rochester, a récemment fourni une contribution particulièrement intéressante à l’étude du fonctionnement électrophysiologique de cet œil. II plonge une microélectrode dans la cellule excentrique et applique à l’ommatidie des stimulus lumineux d’intensité croissante. On observe l’apparition de bosses qui correspondent à des potentiels électriques lents (% 7)-
- A partir d’une certaine intensité, des potentiels d’action (potentiels rapides) apparaissent parfois et, en multipliant encore l’intensité par un facteur ioo, l’auteur enregistre une série de 6 potentiels d’action. On voit que des stimulations égales ne produisent pas des réponses lentes de même amplitude, mais ces variations sont relativement faibles. Visiblement, plus d’un potentiel lent est nécessaire pour qu’un potentiel d’action puisse se produire.
- La figure 8 montre le résultat d’une série d’expériences où la microélectrode se trouve dans la région des rétinules. On a appliqué des stimulus d’intensité constante et, malgré cela, on observe une très grande diversité de réponses. Non seulement le nombre des potentiels lents varie beaucoup d’une expérience à l’autre, mais aussi leurs amplitudes sont très variables. Dans l’expérience n° 7 de la figure 8, on peut d’ailleurs noter l’absence de toute réponse.
- On peut prévoir la variabilité de l’amplitude des réponses, car le lieu (une rétinule ou son rhabdomère) où celle-ci naît, varie d’une expérience à l’autre, vu que le nombre des rétinules est de l’ordre de 10 ou supérieur à 10. Au contraire, la micro-électrode reste immobile, d’où des potentiels enregistrés qui diminuent avrec l’accroissement de la distance entre électrode et lieu de production. Dans la première série d’expériences, l’électrode étant plus éloignée du lieu où naissent les potentiels, les variations apparentes de ceux-ci sont évidemment moindres.
- La variation du nombre de potentiels lents fait penser qu’il s'agit d’un processus statistique lié à la nature quantique de la lumière. L’auteur a donc entrepris une série de quelques centaines d’expériences, en faisant varier l’intensité de la stimulation lumineuse entre les limites déterminées de la façon suivante : intensité maximale telle que 28 fois sur 3o on observe un ou plusieurs potentiels; intensité minimale telle que 11 fois sur 34 au moins un potentiel se manifeste; sur 27 expériences sans stimulation lumineuse, 2 fois une réponse apparaît quand même, ce qui signifie qu’une faible activité spontanée subsiste dans cet œil (comme d’ailleurs dans les yeux
- 22
- 3
- OHHnBHMHBBI
- Fig. 8. — Enregis-
- trement de potentiels électriques dérivés par microélectrode au niveau des rétinules près de l’endroit où naissent les potentiels lents provoqués par l’absorption des photons.
- Bien que l’intensité lumineuse stimulatrice soit constante ]>endant les 8 essais, les réponses diffèrent en quantité et en amplitude. Explication 6
- dans le texte (D’après Yeaniile).
- 7^
- JL
- 9
- des mammifères). La figure 9 montre sans doute possible que l’événement statistique qui est à la base de la production des potentiels lents observés n’est pas dû à la coïncidence de deux ou plusieurs événements fortuits, mais bien à un événement uniqùe. Dès lors, il apparaît que,L'absorption d’un seul photon provoque un potentiel lent. Cette conclusion est rigoureuse. Précisons en effet que la stimulation utilisée par l’auteur est
- p.335 - vue 338/558
-
-
-
- 336
- O C
- N = 2
- log Intensif© lumineuse relative
- Fig, 9. — Étude statistique de la relation entre l’apparition d’un potentiel lent et l’intensité lumineuse stimulatrice.
- La loi de Poisson (loi des petit nombres) permet de dire que le potentiel lent naît à la suite d’un seul et non pas de plusieurs événements fortuits. C’est donc l’absorption d’un seul photon qui produit le potentiel lent CD’après Yeandle).
- assez faible pour qu’il soit certain, a priori, que le nombre des photons absorbés par expérience représente un petit nombre. Dès lors, la courbe statistique relevée par Yeandle prouve que le nombre N — i est seul à pouvoir convenir.
- Nous voilà en présence de deux animaux à organisation cérébrale relativement modeste, dotés d’un détecteur d’une sensibilité qu’aucune technique ne pourra jamais dépasser. Si Yeandle a pu montrer sur la Limule que l’absorption d’un photon provoque un potentiel lent, c’est-à-dire une réponse physiologique, Teichmann fournit une preuve indirecte mais aussi certaine qu’une seule molécule d’un corps odorant (et même de plusieurs) peut pi'ovoquer dans le nez de l’Anguille un potentiel local et même, très probablement, propagé. Or, le fait que le seuil de la sensation olfactive est atteint, correspond nécessairement à l’envoi d’au moins un potentiel d’action.
- Oue savons-nous sur les limites de la sensibilité lumineuse de l’Homme ? Nous n’entrerons pas dans le détail des expériences qui nous ont permis de les connaître (voir La Nature, juin 1958, p. 201-206). La plus récente évaluation basée sur des procédés de mesure très élaborés est due à Baumgardt. Elle montre que l’absorption de 7 photons peut produire une sensation lumineuse, dans les conditions les plus favorables. Elle confirme d’autre part que l’absorption d’un seul photon dans un bâtonnet produit une réponse nerveuse, très probablement un potentiel lent, comme cela se produit chez la Limule.
- Concluons. Depuis l’apparition de la Limule, la sensibilité de la cellule réceptrice de la lumière 11’a pas été dépassée, ni celle du récepteur olfactif depuis l’apparition de l’Anguille, et pour cause : la limite physique supérieure de cette sensibilité était d’ores et déjà atteinte.
- Ehnest Baumgardt,
- Maître de recherches au C.N.R.S.
- La température en Nouvelle-Zemble
- La revue soviétique Priroda a publié quelques résultats intéressants obtenus par l’expédition glaciologique soviétique qui séjourna en Nouvelle-Zemble en 1957, 1958 et 1959. Relevons d’abord que la température moyenne à Rousskaïa Gavagne (port russe), situé au nord de l’île septentrionale de Nouvelle-Zemble, est sensiblement plus élevée qu’à la même latitude dans, les autres régions arctiques de LU.R.S.S., tant en Europe qu’en Asie. La température moyenne de l’année y est en effet de — 8,2° G. La température moyenne en janvier est, à Rousskaïa Gavagne, de — 17,4° C, alors qu’elle est déjà de —20,4° C dans le golfe de Blagopolouchié, distant de 70 km seulement. Ce climat relativement doux s’explique par la proximité de la Mer de Barents.
- Citons aussi les observations qui ont trait à la température de la glace en fonction de la profondeur. Un forage de la glace fut, par exemple, effectué en novembre 1957. Des zones d’humidité furent observées aux profondeurs de 8 m et de 1S m. A la profondeur de 8 m, la température de 0° C se maintint jusqu’au mois de février et, à la profondeur de 15 m, jusqu’au mois de mai. Plus tard, la température y descendit de quelques dixièmes de degré. La température se maintient constamment au-dessous, de 0° C aux profondeurs de l’ordre de 20 m, mais elle croît lentement avec la profondeur et s’approche de 0° C aux profondeurs de 55 à 60' m environ.
- En dépit des chutes abondantes de neige, surtout en hiver et au printemps, il existe, dans l’île, des zones où la couche de neige est, très mince et même inexistante, alors que son épaisseur atteint, ailleurs, jusqu’à 170 cm en juin. Cette répartition extrêmement inégale de la neige s’explique par l’intensité et la fréquence des vents soufflant du sud et du sud-est. C. M.
- Coraux fluorescents au zoo d’Anvers
- La région de l’Océan Pacifique comprise entre l’Australie et la Nouvelle-Calédonie est bien connue pour ses immenses récifs de coraux. Sous ce nom sont désignés généralement deux groupes d’animaux assez différents appartenant à l’embranchement des Coelentérés : les Coraux proprement dits et les Madrépores. Le docteur René Catala, directeur de la Station de Biologie marine de Nouméa, s’est particulièrement intéressé à la biologie de ces animaux, dont de nombreuses espèces sont fluorescentes sous l’action des rayons ultraviolets (voir La Nature, avril 1960, p. 142). Cette fluorescence caractérisée par des couleurs extrêmement vives est très spectaculaire. C’est pourquoi les dirigeants du zoo d’Anvers ont pensé à aménager une série d’aquariums marins destinés à montrer au public le merveilleux spectacle d’un monde sous-marin irisé de mille couleurs. Le problème du transport de ces coraux du Pacifique jusqu’en Belgique a été heureusement résolu après huit mois de recherches. Enchâssés dans de petits socles en matière plastique, les fragments coralliens furent placés dans des poches de même matière, baignant dans de l’eau superoxygénée du Pacifique ; le tout réparti dans trois containers rigoureusement hermétiques et isothermes, assurant à l’intérieur une température de 24° C. L’expédition se fit par avion. L’éclairage des bacs est assuré par des lampes de Wood à vapeur de mercure pour la fluorescence et un éclairage supplémentaire avec des lampes ordinaires est ajouté pour permettre le développement du plancton servant à la nourriture des coraux. C’est certainement la première fois que de tels animaux sont exposés vivants dans un zoo d’Europe. Seul jusqu’ici le Musée de Nouméa pouvait offrir ce spectacle à ses visiteurs.
- R. D.
- Jardins botaniques en Chine
- Aucun jardin botanique n’existait en Chine il y a quelques années encore. A l’heure actuelle, d’importants jardins botaniques soutien .voie de création dans les principales villes chinoises, nous fait savoir la revue soviétique Priroda. Ainsi, le jardin botanique de Pékin, déjà presque terminé, occupe une superficie de 550 ha dans la banlieue de la capitale. A côté du jardin botanique se trouvent un institut d’études forestières et un parc de réserves du
- thuya oriental. Le jardin botanique de Nankin s’étend sur 180 ha. Mais les jardins botaniques chinois les plus vastes seront celui de Changhaï (570 ha) situé à 37 km de la ville, et surtout celui de Canton, qui fera partie de l’Institut de Botanique de la Chine méridionale. Un terrain de 810 ha a été affecté à cet ensemble. Enfin, il existe un projet de créer, dans la province de Yunnan, un jardin botanique situé à 3 500 m au-dessus du niveau de la mer.
- p.336 - vue 339/558
-
-
-
- Nouvelles recherches sur la météorite
- tombée en 1908 en Sibérie
- Plus de cinquante ans se sont maintenant écoulés depuis la chute, en 1908, d’une météorite en Sibérie centrale, mais il a été impossible jusqu’à présent de découvrir ne fût-ce qu’une parcelle de substance dont on pût dire avec certitude qu’elle provient de la météorite. En 1967, par exemple, nous apprend la revue soviétique Priroda, un collaborateur de l’Académie des Sciences de l’U.R.S.S. crut découvrir dans le sol, au voisinage du lieu d’impact, des particules métalliques dont la composition correspondait à celle des météores métalliques. Mais cette découverte ne fut pas confirmée par l’expédition de ig58, dont l’une des tâches essentielles était cependant de la confirmer ou de l’infirmer. De nouvelles explorations furent entreprises par des spécialistes soviétiques en 1969. Mais ces expéditions aussi semblent avoir abouti à des conclusions contradictoires. L’une d’elles, en effet, affirma que les arbres, dans la région de l’impact, avaient subi des brûlures dues à des radiations; en se fondant sur la nature de la carbonisation, un membre de celte expédition alla jusqu’à préciser qu’une explosion nucléaire se serait produite, en 1908, à 5 km au-dessus du sol. Mais M. Vronsky, auteur de l’article paru dans Priroda, qui faisait partie d’une autre expédition, arriva à des conclusions diamétralement opposées. Selon ses collaborateurs et lui, l’hypothèse d’une explosion nucléaire doit être exclue, ne fût-ce que pour la raison suivante : dans l’épicentre même de la prétendue explosion nucléaire, ils trouvèrent deux vieux arbres (deux mélèzes) absolument intacts et sains, ne portant aucune trace de brûlure. En abattant l’un de ces deux arbres, les chercheurs purent évaluer son âge à io4 ans. Les deux mélèzes se trouvaient donc là en 1908, et ils n’auraient évidemment jamais pu rester intacts si une explosion nucléaire s’était produite aussi près d’eux. Au contraire, le fait qu’ils ont été épargnés par l’incendie de forêt qui ravagea la région après la chute de la météorite s’explique aisément : ils poussaient dans un marécage, loin des autres arbres.
- L’argument principal des défenseurs de l’hypothèse d’une explosion nucléaire est l’échec de toutes les tentatives faites pour retrouver les débris de la météorite. Signalons, en passant, qu’un imposant bloc pierreux fut découvert et photographié, par un biologiste soviétique, dans l’hiver 1929-1930, dans la région supposée de la chute de la météorite. A en juger par son aspect, ce bloc pourrait fort bien être la météorite. Malheureusement, il n’a pas pu être retrouvé par les expéditions ultérieures qui en auraient pu analyser la composition. Mais c’est l’existence, dans la région de l’impact, de très nombreuses dépressions ou cavités en forme d’entonnoir qui attire surtout l’attention de l’auteur de l’article paru dans Priroda. Ces entonnoirs furent évidemment remarqués dès les toutes premières explorations après la chute de la météorite, et l’on supposa naturellement que c’étaient les débris de la météorite qui en avaient provoqué la formation. Les sondages entrepris ne donnèrent cependant aucun résultat, car aucune trace de la météorite ne fut découverte dans les entonnoirs. Au surplus, on put établir que ces entonnoirs étaient une conséquence de la fonte de la congélation éternelle, et les sondages furent définitivement abandonnés. Mais ils furent abandonnés à tort, estime l’auteur de l’article auquel nous nous référons. En effet, il a constaté que ces dépressions en forme d’entonnoir sont beaucoup plus nombreuses dans la région de l’impact que dans les régions avoisinantes. Ce fait, à lui seul, paraît déjà significatif. Et, d’autre part, que sont exactement ces entonnoirs? Ils se forment dans les régions de congélation éternelle et, particulièrement, dans les zones où le sol se compose d’un mélange de vase et de sable, contenant des lentilles de glace. La cause de leur formation est toujours une perforation ou une solution de
- ~ ~A~
- : i.'
- WG* /
- <è 4
- Fig. 1. — Formation de l’entonnoir d’après l’ancienne interprétation (en haut) et selon ta théorie de Vronsky (en bas).
- En haut : L’entonnoir aurait été causé par l’impact du fragment de bolide, mais le fragment devrait alors être retrouvé au fond de l’entonnoir, ce qui n’est pas. le cas. En bas : La dépression, selon Vronsky, a été provoquée par la perforation de la couche de tourbe ; le fragment de météorite est resté en profondeur. 1, couche isolante de tourbe ; 2, couche de vase et de sable saturée de glace ; 3, lentilles de glace ; 4, fragment de météorite.
- (D’après Priroda).
- continuité de la couche superficielle du sol, c’est-à-dire de la couche consistant en tourbe et en mousses, qui isole et protège les couches plus profondes contre les températures positives durant l’été. Une perforation de cette couche isolante occasionne la fonte progressive des lentilles de glace sous-jacentes, l’affaissement du sable et de la vase, et finalement, la formation d’un entonnoir. Quant à la perforation elle-même, elle peut, par exemple, être la conséquence de la chute accidentelle d’un arbre déraciné par un ouragan.
- Or, profitant de l’expédition de 1969, M. Vronsky mesura l’épaisseur de la couche isolante dans la région de l’impact de la météorite. Cette épaisseur est, presque partout, supérieure à 1 m. Parfois elle atteint même 2 m. Elle n’est, en tout cas, jamais inférieure à 0,80 m. D’autre part, la fonte, en été, de cette couche isolante de tourbe n’atteint jamais des profondeurs supérieures à 0,6 m (à la fin d’août 1969, elle atteignait une
- p.337 - vue 340/558
-
-
-
- 338
- )
- profondeur variant entre o,4 cl o,5 m), C’est jusqu’à cette profondeur également que pénètrent les racines des arbres, d’ailleurs rares dans la région. Aussi la chute des arbres, même entièrement déracinés, ne peut-elle pas provoquer de perforation de la couche isolante, du moins dans la région en question. Les très nombreux entonnoirs qu’on y trouve ne peuvent donc pas être imputés à cette cause, ni, d’ailleurs, aux incendies de forêt; à la profondeur de io cm déjà, la masse de tourbe fondue est, en effet, imbibée d’eau, comme le serait une éponge. Comment, dans ces conditions, peut-on expliquer l’existence d’un aussi grand nombre d’entonnoirs dans une zone fort réduite et qui, par surcroît, semble coïncider exactement avec
- la zone de la chute de la météorite en 1908 P La conclusion suivante semble s’imposer; ces entonnoirs sont la conséquence de la chute de nombreux débris de la météorite, qui, après avoir percé la couche isolante de tourbe et exposé ainsi à la fonte les couches congelées sous-jacentes, auraient pénétré très profondément dans le sol. Un fragment relativement petit de la météorite aurait fort bien pu occasionner la formation d’un entonnoir beaucoup plus large. Les fragments de la météorite devraient donc être recherchés, non au fond des entonnoirs, comme le croyaient à tort ceux qui les explorèrent, mais à une profondeur beaucoup plus grande.
- C. M.
- Trois éléments chimiques rarissimes : technétium, francium, astate
- Il y a un quart de siècle encore, on pouvait voir un tableau des éléments chimiques, dit tableau de Mendéléef, où il y avait trois cases vides, celles des numéros 43, 85 et 87. On ne connaissait pas de corps simples naturels qui eussent dans leur noyau respectivement 43, 85 et 87 protons. Mais on connaissait d’avance leurs principales propriétés. On savait que l’élément 87 se plaçait dans le groupe la à la suite des métaux alcalins, sodium, potassium, rubidium, césium; que les éléments 43 et 85 faisaient partie du groupe VII, le premier se plaçant dans le 2e sous-groupe (métaux de transition) entre le manganèse et le rhénium, le second dans le premier sous-groupe (halogènes) à la suite de corps aussi communs et importants que le fluor, le chlore, le brome et l’iode.
- Or, sur ces trois corps naguère inconnus et dont on a pensé longtemps qu’il n’existaient pas dans la nature (question qui se pose d’ailleurs encore pour l’un d’eux), le Nouveau Traité de Chimie minérale publié sous la direction de M. Papl Pascal nous a apporté une documentation relativement copieuse : dans le tome III, 11 pages de MUe M. Pérey sur l’élément 87 (francium); dans le tome XVI, 16 pages de Mlle S. Tribalat sur l’élément 43 (technétium) et 8 pages de M. Ilaïssinsky sur l’élément 85 (astate). Nous avons brièvement annoncé ces publications dans notre rubrique « Les livres nouveaux » mais il est intéressant d’y revenir à propos de ces trois corps si rares.
- Alors que le francium et l’astate sont constamment présents, en quantités infimes, dans les produits de désintégration d’éléments radioactifs de poids plus élevés, il n’en est pas de même du technétium qui, malgré les longues périodes de certains de ses isotopes, n’a pu être obtenu qu’artificiellement, d’où son nom.
- Le technétium. — Dans quelques tableaux datant d’une vingtaine d’années on peut voir figurer sous le n° 43 un élément nommé masurium. Aujourd’hui le nom de technétium s’est imposé pour cet élément. On crut en 1925 avoir observé des raies de son spectre X, mais ce résultat ne fut pas confirmé. C’est en 1937 que Perrier et Segré purent l’identifier de façon certaine dans du molybdène irradié par les deutons au cyclotron de Berkeley. Ils lui donnèrent alors le nom de technétium pour illustrer le fait qu’il avait été obtenu par des moyens artificiels. Un autre isotope fut produit peu après par bombardement du molybdène naturel avec des neutrons lents.
- On connaît aujourd’hui près d’une vingtaine d’isotopes du technétium, tous artificiels, et dont les masses atomiques s’échelonnent de 92 à 107. Le plus instable est le technétium 100, dont la période est de i5,8 s (c’est-à-dire que la moitié des atomes se sont désintégrés au bout de ce laps de temps). Les
- plus couramment obtenus sont deux isotopes de masse 99 qui tous deux procèdent du molybdène. Le molybdène 98 (stable), pénétré par un neutron, donne du molybdène 99, corps radioactif d’une période de 67 h, qui donc émet un électron négatif pour se transformer en technétium 99. Celui-ci est un mélange de deux isomères, c’est-à-dire de deux éléments de même composition nucléaire (43 protons, 56 neutrons) mais dans deux états énergétiques différents. L’un est dans un état excité et émet un rayon gamma; sa période est de 5,9 h. L’autre est dans l’état fondamental et émet un électron négatif; sa période est de 212 000 ans. Le technétium obtenu par bombardement se mesurait en microgrammes. Mais on en recueille maintenant plus abondamment dans les produits de fission de l’uranium, où ses deux isomères procèdent encore du Mo 99; on en a obtenu jusqu’ici par ce moyen une dizaine de grammes. C’est sur l’isotope 99 qu’ont été étudiées les propriétés physico-chimiques.
- Comme nous l’avons déjà relaté (La Nature, novembre 1959, p. 5oo), un atomiste canadien, M. Cameron, a récemment annoncé que la période du technétium 97 était de 2,6 x io6 ans. Mais le technétium 98 a une période certainement beaucoup plus longue, assez longue peut-être pour qu’il soit susceptible d’exister encore dans la nature, s’il s’en est formé, comme c’est probable, en même temps que tous les autres éléments. Des astrophysiciens croient d’ailleurs avoir décelé le technétium dans certaines étoiles, les géantes rouges. Mais malgré de nombreuses recherches, il a été impossible d’en mettre en évidence dans les minerais terrestres.
- Le technétium est un métal de structure cristalline hexagonale, isomorphe de celle du rhénium, du ruthénium et de l’osmium. Sa densité est de 11,497. Obtenu par réduction des oxydes supérieurs, c’est une poudre gris argent. Il fond à 2' i4o° C. Comme le rhénium et contrairement au manganèse (métaux du même sous-groupe), il est diamagnétique et supraconducteur à la température de l’hélium liquide (1 à 4° K).
- Contrairement au rhénium, le technétium n’est pas attaqué par l’eau oxygénée, mais il est dissous par l’acide nitrique et l’eau régale. Il s’oxyde à l’air à 3oo° pour donner un oxyde volatil Tc207. Il donne aussi avec le chlore un composé volatil. Ses chlorures sont moins stables que ceux du rhénium, ce qui fournit un moyen de séparer les deux métaux.
- Le francium. — C’est M1Ie Marguerite Pérey qui a eu le mérite, en 1939, de mettre en évidence l’existence de l’élément 87 en étudiant la désintégration de l’actinium. Elle lui donna le nom de francium.
- On sait que la famille de l’actinium part de l’uranium 235
- p.338 - vue 341/558
-
-
-
- 839
- pour aboutir, par une série de désintégrations, au plomb 207 qui est stable. Issu de l’uranium 235, le thorium 23i donne naissance au protactinium 23i et celui-ci à l’actinium 227. Cet actinium présente deux modes de désintégration de probabilités inégales. Dans 98,8 pour 100 des cas, il émet une particule (3~ (électron négatif) et se transforme en thorium 227 (anciennement appelé radium Ac) qui lui-même émet une particule a (noyau d’hélium 4) pour donner le radium 223 (actinium K). Mais le même résultat, dans 1,2 pour 100 des cas, procède des mêmes émissions dans l’ordre inverse : l’actinium 227 émet une particule a et se transforme en francium 223 (actinium X) qui émet à son tour une particule pour donner Ra 223.
- On connaît maintenant une demi-douzaine d’isotopes artificiels du francium; tous ont une vie encore plus brève que le francium 2 23 naturel, dont la période est de 21 rnn. Le francium est donc rarissime. On le tire des terres rares acli-nifères extraites des minerais d’uranium. Pour 1 g de radium, tiré de 3 t d’urane, on obtient à peine plus d’un cent-mil-liardième de gramme de francium. On a pu le manipuler chimiquement par des méthodes très rapides; c’est un métal alcalin, analogue au césium, comme pouvait le faire prévoir la place qu’il occupait d’avance dans la classification périodique.
- U est soluble dans l’eau, les acides chlorhydrique, sulfurique, nitrique, acétique, fluorliydrique, etc. La trop courte période interdit naturellement certaines opérations et limite forcément l’étude de cet élément.
- Toutefois, nonobstant sa vie très brève, le francium a déjà servi dans des études biologiques. Il se fixe particulièrement sur les organes excréteurs et, chose plus intéressante encore, il se concentre de façon significative dans les tissus cancéreux, de sorte qu’on peut espérer le faire servir à un diagnostic précoce du cancer.
- î
- L'asiate. — L’élément 85, dont on soupçonnait la présence dans les familles radioactives naturelles, y a longtemps été cherché en vain. En ig4o, l’isotope de masse 211 fut obtenu par Segré en bombardant du bismuth avec des hélions (noyaux d’hélium ou particules a) accélérés dans le cyclotron de Berkeley. Cet isotope a une période de 7,5 h et l’instabilité du nouvel élément lui fit conférer le nom d’astate. Depuis lors
- on en a obtenu dix-sept autres isotopes artificiels dont les masses vont de 200 à 217. Le plus durable est l’asiate 2x0, dont la période est de 8 li 20 mn.
- Entre temps, trois isotopes naturels de l’astate ont pu enfin être identifiés dans les familles radioactives, mais, tout comme le francium, leur présence y est masquée par des modes de désintégration plus fréquents. Ainsi, dans la famille de l’uranium, le polonium 218 (anciennement radium A) dans 99,96 pour 100 des cas émet une particule oc. pour se transformer en plomb 2i4 (radium B) qui lui-même émet une particule [3~ pour donner le bismuth 214 (radium C). Dans o,4 pour 100 des cas seulement ces deux émissions ont lieu dans l’ordre inverse : le polonium 2x8 émet d’abord une particule (3~ pour donner l’astate 218, dont la période est de 2 s. L’apparition des asiates 2i5 et 219 dans les autres familles naturelles se fait dans des proportions très faibles également et les périodes sont du même ordre, ce qui explique la difficulté des identifications. Il est curieux que tous ces isotopes naturels soient de vie plus courte que la plupart des isotopes artificiels de l’astate.
- C’est sur l’isotope 211, artificiel, le plus facile à obtenir jusqu’ici, que les propriétés de l’astate ont été étudiées, d’ailleurs avec de grandes difficultés, étant donné les quantités infimes dont on a disposé.
- L’astate est le plus lourd des halogènes et ses propriétés sont assez analogues à celles de l’iode. On l’obtient en chauffant la cible de bismuth, après son irradiation, dans un vide poussé; l’astate distille alors et on le l'ecueille dans un tube refroidi par l’azote liquide.
- Tout comme l’iode, l’astate se fixe électivement sur la glande thyroïde et on peut donc l’employer, comme les isotopes radioactifs de l’iode, pour des études sur la physiologie de cette glande. 11 n’est pas impossible qu’on lui trouve un jour une utilité médicale.
- La seule critique qu’on puisse faire aux physiciens au sujet de l’astate, c’est le nom qu’on lui a donné, et qui risque d’engendrer des vocables peu euphoniques, du moins en français. Étant donné qu’il y a des bromates et des iodates, il y aura sans doute aussi des astatates ! Heureusement il y a peu de chances qu’on ait à prononcer ce mot couramment.
- J. G,.
- La salinité Un vaccin contre le cancer
- des mers intérieures soviétiques expérimenté à Buffalo
- Nous avons donné récemment, d’après Priroda, une courte note sur la salinité de la Mer Noire (La Nature, avril i960, p. 142). Dans un autre article de la revue soviétique cette salinité est comparée à celles de la Mer Caspienne et de la Mer d’Aral. Le tableau suivant l’ésume ces données et indique le pourcentage des différents sels. H concerne la salinité près de la surface (on a vu que dans la Mer Noire le chiffre augmente très vite entre o et 3oo m de profondeur).
- Salinité Pourcentage des differents sels
- p. 1 000 CaS04 K Cl NaCl MgCI2 CaC03 MgSO^
- Mer Noire. 18,60 2,58 2.99 7702 9.07 t >59 7.11
- Caspieuue. la ,86 6,99 1,21 oa, iô 4,54 1,24 23,58
- Mer d’Aral. 10,91 34,3o 12,38 1,00 57,16 0,00 3 2,00 27,32
- Océan . 3,88 2»i9 78,32 9>72 u 3 «3 6, i3
- Selon une information du Centre culturel américain, le docteur S. J. Sotto a présenté récemment à la Société médicale de l’État de New York d’importants résultats concernant un vaccin contre le cancer, étudié par une équipe de médecins du Roswell Park Memorial, à Buffalo. Le vaccin a été administré à vingt-six malades, souffrant tous de cancers extrêmement graves de la région pelvienne. Onze d’entre eux ont survécu plus d’un an (l’un d’eux demeure en vie depuis plus de quati’e ans) et cinq des survivants semblent absolument guéris.
- Ce vaccin est préparé avec des cellules cancéreuses prélevées sur le malade lui-même, plus différents germes vivants et une substance connue depuis vingt ans sous le nom d’adjuvant Freund, qui stimule les processus de défense naturels. Ainsi stimulé, l’organisme réagirait à l’introduction des cellules cancéreuses dans le sang par une production intensive de substances anti-cancéreuses. De longues études seront vraisemblablement nécessaires encore pour véi’ifier la portée de ces résultats, et les médecins de Buffalo sont les premiers à mettre en garde contre un enthousiasme prématuré.
- p.339 - vue 342/558
-
-
-
- 340
- Toujours plus vite et plus haut :
- Des véhicules hypersoniques aux avions de transport à Mach 3
- Dans un précédent article (novembre ig58, p. 449), nous avions examiné les données principales du vol hypersonique. Il est maintenant possible de révéler l’état des recherches •effectuées dans les principaux pays et qui vont'se traduire dans un proche avenir par la réalisation d’appareils capables de dépasser le nombre de Mach 3.
- Rappelons d’abord que le domaine de vol en vitesse et altitude est limité à un étroit couloir dont la frontière supérieure correspond à l’insuffisance de la portance aérodynamique vis-à-vis du poids de l’avion, et la frontière inférieure à un échauf-fement trop intense dû à une vitesse trop grande. Cette dernière limite est d’ailleurs beaucoup plus floue que la précédente et dépend en particulier des caractéristiques des matériaux utilisés et des méthodes de refroidissement qui permettent de réduire les taux de transfert de chaleur à la surface de l’avion.
- Si l’on excepte les engins intercontinentaux qui atteignent des vitesses hypersoniques, mais en suivant les lois de la balistique et non plus celles de l’aérodynamique, les véhicules hypersoniques pourront appartenir à l’une des deux classes suivantes : d’une part, les planeurs hypersoniques qui planeront dans les très hautes couches de l’atmosphère après avoir atteint au cours d’une première phase de vol propulsé une vitesse et une altitude élevées; d’autre part, des véhicules qui alterneront les phases de vol propulsé et non propulsé et qui, entre deux planés successifs, se fourniront une petite impulsion donnant lieu ainsi à une trajectoire en forme de montagnes russes (fig. i). On les désigne parfois sous le nom d’ « avions à ricochets ».
- Aux États-Unis, deux projets sont actuellement en cours de réalisation, le North American X-i5 et le Dyna-Soar.
- Le North American X-1S (fig. a et 3). — C’est le plus avancé des deux puisqu’il a déjà effectué de nombreux vols, qui se sont d’ailleurs terminés malheureusement par la rupture à l’atterrissage du premier prototype. Bien que les renseignements à cet égard soient pratiquement nuis, on peut penser que le développement de l’appareil n’en est pas arrêté pour autant.
- Fig. 2. — Le North American X-1S.
- (Photo iï.S.I.S.).
- \3 Terre
- Fig. 1.
- Trajectoires des véhicules hypersoniques.
- I, planeur hypersonique ; II, véhicule ; TU, trajectoire de rentrée commune aux deux précédentes.
- Passons en revue ses caractéristiques dont certaines ont déjà été esquissées dans le numéro de mai ig58 de La Nature (p. 179).
- Le X-i5 possède une voilure trapézoïdale de très courte envergure, située à mi-hauteur du fuselage. Les empennages sont cruciformes, les dérives verticales ayant un profil triangulaire dont l’épaisseur au bord de fuite est de 3o cm. Cette épaisseur produit une traînée élevée qui est nécessaire pour freiner l’appareil lors de l’approche avant l’atterrissage. Les empennages horizontaux sont monoblocs et manoeuvrables, soit simultanément pour le contrôle en tangage, soit différentiellement pour le contrôle en roulis. Pour le contrôle en atmosphère raréfiée, des jets gazeux provenant de la décomposition catalytique d’eau oxygénée sont émis par de petites tuyères à la queue de l’appareil, aux extrémités des ailes et à la pointe avant du fuselage. Celui-ci est très trapu et porte de chaque côté deux bourrelets longitudinaux en béryllium destinés à réduire la traînée d’interférence aile-fuselage et qui renferment en outre les diverses canalisations et les câblages électriques.
- Après quelques essais avec un moteur-fusée à oxygène liquide et mélange eau-alcool, la propulsion définitive est assurée par un moteur-fusée Thiokol XLR.99 à oxygène et ammoniac liquides développant une poussée de 27 t qui peut d’ailleurs être réglée entre 5o et 100 pour 100 de cette valeur. La tuyère est refroidie par la circulation de l’ammoniac liquide. L’alimentation en propergols liquides est assurée par une turbo-pompe entraînée par les produits de décomposition de l’eau oxygénée. Ce moteur fonctionnera seulement pendant 3o s.
- Le X-i5 est largué d’un bombardier Boeing B-5a à une altitude supérieure à 10 000 m, et sous l’action de son moteur-fusée il peut alors suivre l’un des deux types de trajectoire indiqués ci-dessus.
- Dans les couches d’air très raréfié, le pilote fera connaissance avec l’absence de pesanteur. Son électrocardiogramme et sa température interne seront retransmis continuellement au sol où ils seront surveillés par un médecin qui peut donner l’ordre d’interrompre le vol, le pilote sautant alors en parachute. Tous les paramètres de vol seront également enregistrés par des machines électroniques qui en déduiront les caractéristiques de la trajectoire.
- Le Dyna-Soar. — Il doit prendre la suite du X-i5 dans la course aux performances et sortir franchement de l’atmosphère terrestre, alors que le précédent plafonne à 160 km d’alti-
- p.340 - vue 343/558
-
-
-
- 1 ’l I >1 i
- Fig. 3. — Vue arrière du X-15.
- Remarquer l’épaisseur des dérives verticales et les sorties de tuyère du mo leur-fusée, (Photo U.S.I.S.).
- tude. Toutefois sa configuration sera assez révolutionnaire puisqu’il s’agit d’un pur planeur qui serait envoyé dans l’espace au moyen d’une fusée analogue au premier étage d’un engin balistique intercontinental, préfigurant ainsi l’envoi d’un satellite terrestre habité. On a parlé, en particulier, d’une fusée « Titan » de i5o t de poussée. Le Dyna-Soar aurait une voilure en forme de delta de faible envergure, et pèserait beaucoup moins lourd que le X-i5 (2,7 t au lieu de i4 t dont, il est vrai, 8,5 l de propergols). Les problèmes posés par la construction d’un tel appareil seront encore dus au niveau des températures atteintes. La manière dont ils seront résolus n’a pas encore été divulguée, mais on peut déjà formuler certaines hypothèses. La structure sera réalisée en acier spécial à forte résistance et sera protégée de réchauffement aérodynamique, soit par suage, c’est-à-dire évaporation d’un liquide à travers des pores de la structure, soit par recouvrement par un matériau réfractaire tel que le graphite; mais la première solution suppose que l’on accepterait l’augmentation de poids liée au liquide de suage qui, pour des temps de vol importants, pourrait être prohibitive, et il est vraisemblable qu’on lui préférera la seconde.
- Une fois séparé de sa fusée porteuse, le Dyna-Soar terminera son vol par un très long plané qui lui fera aborder l’atmosphère sous une faible incidence, réduisant ainsi réchauffement au minimum et lui donnant un rayon d’action de près de la moitié de la circonférence terrestre.
- Un dernier stade de développement prévu consiste en un Dyna-Soar biplace de 7 t qui serait propulsé par un moteur-fusée « Saturn » de 680 t de poussée.
- Vers les avions de transport à Mach 3. — Mais si l’on songe à pénétrer de plus en plus en avant dans l’exploration de l’espace qui nous entoure, les techniciens n’en oublient pas pour autant le côté commercial de l’aviation, c’est-à-dire le transport aérien. Aux États-Unis comme en Angleterre * des projets d’avions commerciaux capables d’atteindre une vitesse
- triple de la vitesse du son (on dit plus couramment Mach 3) ont été mis au point.
- Là encore, le problème doit être traité par étapes et pour, la première de celles-ci, l’industrie anglaise a choisi de construire un appareil-de recherches expérimentales qui devrait effectuer son premier vol vers la fin de cette année, le Bristol 188. 11 s’agit d’un bi-réacteur propulsé par deux De Ilavilland « Uyron Junior » montés au milieu des ailes et qui développent chacun 4,5 t de poussée statique, et 6,3 t avec postcombustion. L’aile présente un bord d’attaque droit dans la région centrale et en flèche de 38 degrés dans les parties extrêmes; elle a une épaisseur relative de 4 pour 100. Le fuselage très effilé comporte un rétrécissement au niveau des fuseaux moteurs qui correspond à l’application de la règle de surface. L’empennage horizontal est placé au sommet de la dérive où il est ainsi soustrait à l’action des gaz d’échappement des réacteurs. La structure est réalisée en acier inoxydable dont les propriétés mécaniques restent bonnes jusqu’à une tempéra-
- t -1
- 1 1 1 t
- Fig. 4. — Le pràjet britannique Vickers « Swallow ».
- On a figuré en tirets la position des ailes poulie vol aux basses vitesses.
- p.341 - vue 344/558
-
-
-
- 342
- ture de 5oo° C, et les panneaux de revêtement seront dans une large mesure constitués de plaques sandwich en nid d’abeilles. Le Bristol 188 est destiné à explorer la zone des vitesses comprises entre Mach 2 et Macli 3.
- Un autre projet établi par la société Vickers-Armstrong consiste en un avion à géométrie variable (tig. 4). Le fuselage, très effilé, est muni de deux embryons de voilure fixes qui se prolongent par deux éléments en flèche pivotante qui peuvent être déployés pour le vol aux faibles vitesses, ou au contraire rétractés pour le vol supersonique. Les moteurs sont montés en bout d’aile; ils peuvent pivoter dans un plan horizontal de sorte que le vecteur poussée reste parallèle à l’axe du fuselage au cours de la rotation de l’aile, et dans le le plan vertical afin de jouer le rôle de gouverne de profondeur et d’ailerons. La vitesse de croisière serait égale à deux fois et demie celle du son et le poids total atteindrait 45 t. Enfin les moteurs seraient quatre turbo-réac leurs Bristol « Orpheus » de 3 000 kg de poussée dont il a déjà été question ici (La Nature, février 1 g59, p. 77); ils seraient montés par
- paires l’un au-dessus de l’autre. Cet avion 11’est encore qu’à l’état de projet, mais la construction d’un premier prototype est envisagée.
- En France, Sud-Aviation et la Générale Aéronautique Marcel Dassault se sont unies pour développer un moyen-courrier dérivé de « Caravelle » et capable d’atteindre au moins Mach 2,2; mais cet avion ne devrait pas être réalisé avant quatre ans.
- Il peut sembler étrange que l’on cherche à passer directement d’avions volant à des vitesses légèrement inférieures à la vitesse du son à des avions volant à Mach 3. Mais, du point de vue économique, les calculs ont montré que le stade intermédiaire (Mach i,5 ou 2) n’apportait aucun bénéfice par rapport au stade actuel.
- En définitive, ces programmes de recherche montrent bien que l’homme reste inlassablement attiré par le facteur vitesse, et que tout pas en avant effectué dans ce domaine en appelle immédiatement un autre.
- Jacques Spincouivt.
- LA SEXUALITÉ DES BACTÉRIES
- Ceux qui ont visité, dans l'été de it)58, le Palais des Sciences à l’Exposition de Bruxelles ont eu la révélation d’un domaine scientifique nouveau, qui les a peut-être beaucoup étonnés : celui de la génétique et, plus encore, de la sexualité des bactéries (voir La Nature, août, tq58, p. 313-3144- A cette discipline nouvelle, deux chefs de laboratoire de l’Institut Pasteur de Paris, MM. Ëlie Wollman et François Jacob, ont apporté des contributions de première importance. Après en avoir'offert des Images suggestives à l’Exposition de Bruxelles, ils viennent d’en donner un exposé d’ensemble dans un volume des Monographies de l’Institut Pasteur (Q.
- Du jour où l’on s’aperçut que des souches de bactéries pouvaient échanger entre elles et combiner leurs propriétés chimiques ou physiologiques, on pouvait imaginer que naîtrait une génétique des bactéries. Cependant rien ne laissait supposer d’abord que ces échanges et ces modifications héréditaires relevaient d’un phénomène analogue à la sexualité.
- Il y a déjà une quarantaine d’années que l’attention a été attirée sur la transmission possible de certains caractères d’une souche bactérienne à une autre, soit par le conlact de deux souches, soit par la culture de l’une-des souches dans un filtrat de l’autre. L’expérience la plus spectaculaire eut lieu en 1928, lorsque Griffith rendit virulente une souche de pneumocoques non virulents en la mélangeant à des pneumocoques encapsulés, donc virulents, mais tués par la chaleur. Par la suite on obtint le même résultat, non plus avec des bactéries tuées, mais avec un simple extrait de ces bactéries. Les caractères héréditaires des microbes, comme ceux de tous les êtres vivants, sont gouvernés par la nature de leur acide désoxyribonucléique (en abrégé ADN). On peut extraire l’ADN d’une souche bactérienne et l’introduire dans le milieu de culture d’une autre souche de la même espèce. Celle-ci acquiert alors des caractères de la première. Elle s’est de toute évidence incorporé l’ADN étranger. Le phénomène peut se produire naturellement lorsque deux souches sont en contact, comme si l’une des souches lâchait dans le milieu de culture une partie de son ADN qui s’en va pénétrer les bactéries de l’autre souche.
- Ces faits laissaient pressentir que les bactéries pouvaient pré-
- 1. Lu sexualité des bactéries, par Ëlie Woli.man et François Jacob. Préface d’André Lwoff, chef de service à l’Institut Pasteur. 1 vol. 16,5 x 25, 248 p., 23 flg., 4 planches de photos hors texte. Masson, Paris, 1959. Prix : 30 NF.
- senter des phénomènes de sexualité. La démonstration en fut apportée par Lederberg et Tatum en 1946, avec deux souches mutantes d’un colibacille connu sous le nom de Coli K 12. L’une des souches ne pouvait se développer que si on lui fournissait de la biotine, de la phényl-alanine et de la cystine; l’autre avait besoin de thréonine, de leucine et de vitamine Bj. Après mélange des deux souches, on en obtenait une nouvelle qui avait reconquis le pouvoir de se passer de toutes ces substances. En variant la composition du milieu de culture on pouvait aussi sélectionner de nouvelles souches qui n’avaient pris par exemple à chacun des deux parents que le pouvoir de synthétiser deux des substances utiles. On obtenait ainsi ce qu’on appelle en génétique des recombinaisons de facteurs, et l’analyse de ces recombinaisons ne laissait place qu’à une hypothèse, c’est que les deux souches originelles fusionnaient par un véritable phénomène de caractère sexuel.
- Les colibacilles de ces deux souches, que l’on peut appeler A et B, comprennent toutes les deux des individus sensibles à la streptomycine, et des individus résistants, que l’on peut cultiver séparément. Un autre microbiologiste, M. William Ilayes, a fait alors une nouvelle expérience. Il a montré que si on mélange A et B sur un milieu additionné de streptomycine, on n’obtient de recombinaisons génétiques que si B est résistant, alors qu’il n’importe pas que A le soit. Ce sont donc les bacilles B qui donnent naissance aux bacilles nouveaux hybrides. La survie des bacilles A n’est pas nécessaire, leur présence seule est indispensable. Il y a donc une polarité sexuelle. Les bactéries A, qui peuvent être assimilées au sexe mâle, sont dites donatrices; les bactéries B, qui peuvent être assimilées au sexe femelle, sont dites réceptrices.
- Cependant, les choses sont venues se compliquer par la mise en évidence de ce qu’on a appelé un facteur de fertilité. Parmi les bactéries A, il en est qui peuvent perdre leur propriété d’être donatrices. Et elles récupèrent cette propriété si elles sont mises au contact des bactéries qui l’ont conservée. Contrairement aux autres caractères héréditaires, ce facteur de fertilité n’est pas sujet à une ségrégation comme celle qui affecte tous les caractères mendéliens; il se conserve dans presque tous les individus de la descendance.
- Quoi qu’il en soit, tout un ensemble de faits avaient mis en évidence le phénomène de la sexualité dans les bactéries. Restait à l’observer effectivement sous le microscope. C’est ce qui a
- p.342 - vue 345/558
-
-
-
- Fig. 1. — Croisement entre deux souches de la bactérie Escherichia coli K 12, vu au microscope électronique. A gauche, la bactérie donatrice (mâle), en voie de division, porte des bactériophages fixés par leur queue et dont la tète est, le plus souvent, vidée de son AD A. A droite, la bactérie réceptrice (femelle). Dans la zone de contact, où se fait la translation de m atièrc chromosomi q ue, les parois des bactéries semblent effacées.
- (Préparation et photo T. F. Amuiuson).
- été fait à l’Institut Pasteur au cours de ces dernières années et MM. Wollman et Jacob peuvent présenter de très belles figures de conjugaison bactérienne prises au microscope électronique. Toutes les étapes de la conjugaison ont d’autre part été déterminées par de minutieuses expériences.
- Il ne semble pas apparemment qu’il existe de facteurs spécifiques d’attraction entre bactéries de sexe contraire ; les collisions se feraient plutôt au hasard. Les bactéries mâles et femelles ne fusionnent pas; il s’établit entre elles ce que MM. Wollman et Jacob appellent un « tube de connexion », par lequel s’accomplit le transfert du matériel génétique, toujours dans le même sens, de la bactérie donatrice à la bactérie réceptrice. Il ne semble pas qu’il y ait passage d’autre chose que de matière chromosomique, c’est-à-dire d’acide désoxyribonucléique.
- Il est à peu près prouvé aussi que, dans la plupart des cas du moins, ce n’est pas un chromosome entier de la bactérie donatrice qui passe dans la réceptrice, mais seulement un fragment, d’ailleurs de grandeur variable. En effet, l’étude des recombinaisons génétiques montre que les différents caractères de la souche donatrice se retrouvent à des degrés divers de fréquence dans la descendance. Et chaque caractère se retrouve avec une fréquence moyenne propre. On en déduit très logiquement que les caractères que l’on retrouve le plus fréquem-
- ment sont ceux qui se trouvent commandés par la partie antérieure du chromosome, celle qui passe la première et souvent la seule. On peut même établir ainsi l’ordre dans lequel les gènes sont rangés sur le chromosome bactérien (voir à ce sujet l’article de La Nature, déjà cité et la figure 36 de cet article).
- Les études de génétique bactérienne ont mis en évidence bien d’autres phénomènes, souvent très complexes. En particulier, on sait que les bactériophages peuvent se présenter sous une forme dite tempérée qui ne détruit pas la bactérie et qui se repi'oduit avec elle. Un tel bactériophage doit être à peu près sinon totalement réduit à son acide désoxyribonucléique et on peut supposer qu’il se présente comme un véritable gène de la bactérie qui le recèle. Il peut passer d’une bactérie à une autre et il peut alors entraîner avec lui un petit fragment du chromosome de la première qui se trouve ainsi incorporé à la deuxième, ce qui se traduit dans la descendance de celle-ci par l’apparition de caractères nouveaux.
- La génétique des bactéries, et leur sexualité, présentent donc des modalités particulières qui ne les rendent que plus passionnantes. Si elles offrent des difficultés spéciales à l’expérimentation, on peut en espérer en revanche une compréhension plus directe des mécanismes biochimiques qui sont en jeu.
- Jean Grive.
- L’espace nous donne-t-il signe de vie ?
- Il est couramment admis aujourd’hui que des systèmes planétaires analogues au nôtre peuvent exister en grand nombre dans les profondeurs du ciel, que la vie peut s’y être développée et que des êtres intelligents peuvent y avoir créé science et techniques. L’idée d’entrer en relations avec ces êtres en découle naturellement, et on peut leur prêter la même intention. La difficulté commence quand on cherche à évaluer la probabilité pour qu’une civilisation technique soit parvenue au degré voulu, au temps précis où nous sommes, et à une distance qui permette la transmission de signaux radioélectriques au milieu de tous les « radio-bruits » qui nous tombent de l’espace. Les signaux que nous pourrions émettre de la Terre aujourd’hui n’iraient pas bien loin. Est-on, ailleurs, plus avancé que nous ? Si des signaux nous parvenaient, il y aurait sans doute un espoir de les déchif-
- frer. La faible probabilité d’une telle conjoncture n’a pas découragé deux astronomes, MM. Frank Drake et William Wallman, qui, selon une information du Centre culturel américain, ont entrepris en avril dernier la détection de signaux éventuels, à l’aide du radiotélescope de l’Observatoire de Green Banks, en Virginie occidentale. Ils l’ont orienté vers les étoiles Tau Ceti et Epsilon Eridani, situées dans la Voie lactée à n années-lumière environ de nous. Ces étoiles étant analogues au Soleil, MM. Drake et Waltman espèrent qu’elles peuvent avoir aussi des cortèges planétaires du même genre. Ils ne semblent guère se faire d’illusions sur leurs chances de succès et il est à présumer que leur exploration répond en même temps à d’autres intentions.
- J. G.
- p.343 - vue 346/558
-
-
-
- 344
- Une faune jusqu’ici méconnue : LES COLÉOPTÈRES DU SOL
- L’étude du sol a fait des progrès très rapides en ces dernières années. Elle a d’abord été envisagée sous les points de vue physique et chimique. Cependant, très rapidement, on s’est rendu compte de l’importance des êtres vivants dans l’évolution des sols et on a pu parler d’une « biologie du sol »; la faune en particulier a suscité de nombreuses recherches et les biologistes français ont contribué pour une large part au développement de nos connaissances sur ce sujet (x).
- Tout récemment, H. Coiffait vient de publier une étude sur les Coléoptères du sol (1 2), après des recherches poursuivies durant plusieurs années dans presque tous les pays méditerranéens. Ce travail apporte des résultats remarquables, alors que d’autres études récentes sur le même sujet, mais émanant de zoologistes non spécialisés, se trouvent être entachées d’erreurs nombreuses. Ceci prouve une fois de plus que les problèmes biologiques à résoudre doivent, à notre époque, faire l’objet d’une étroite collaboration scientifique.
- Les insectes qui se rencontrent dans le sol ont été classés par Coiffait en trois groupes :
- — Les édaphoxènes qui ne s’y trouvent qu’accidentellement ou n’y passent qu’une partie de leur cycle évolutif (larves, nymphes); c’est le cas des hannetons, des cigales;
- — Les édaphophiles qui vivent dans des milieux voisins et ne se trouvent dans le sol que d’une façon occasionnelle : les
- Fig. 2. — Quelques types de Coléoptères édaphobies.
- A, le Carabique Microtyphlus torrès-scilai d’Espagne ; B, le Psélaphide Mayetia rasensis d’Espagne ; G, le Staphylin Typhlosorias torrès-salai d’Espagne ; D, le Bathyscinæ Speonomns mascarauxi des Basses-Pyrénées (forme aplatie, en « lentille »).
- (Dessins de R. Dajoz).
- Fig. 1. — Quelques types de Coléoptères édaphophiles.
- A, le Carabique cavernicole Aphœnops alberti de la grotte d’Oxibar (Basses-Pyrénées) ; antennes et pattes très allongées ; yeux absents ; corps dépigmenté. B, le Carabique Paussus favieri, hôte des fourmis en Espagne et le Nord de l’Afrique. C, le Gatopide Leptinus testaceus, hôte des terriers de Mammifères dans toute la France.
- (Dessins de R. Dajoz).
- cavernicoles, les hôtes des terriers de Mammifères, les insectes des mousses sont dans ce cas (fîg. i) ;
- — Les édaphobies ou endogés vrais sont ceux dont le développement entier a lieu dans le sol proprement dit (et non dans ses dépendances comme les mousses, la litière de feuilles mortes, l’humus) (fig. 2).
- La faune des Coléoptères édaphobies est très nettement distincte de celle des Coléoptères humicoles ou muscicoles. Elle diffère aussi profondément, tant par les groupes représentés que par les adaptations, des formes qui habitent les terriers,
- 1. Voir : L’étude de la faune du sol, par Lucien Chopard, La Nature, décembre 1956, p.. 470-475.
- 2. Les Coléoptères du sol, par Henri Coiffait. Supplément n’ 7 de Vie et
- milieu. Hermann, Paris, 1960.
- les fourmilières, les nids de termites, même quand ces édifices sont établis dans le sol.
- Les Coléoptères édaphobies se rencontrent surtout dans des sols d’une teneur élevée en éléments fins (argiles et limons), ce qui entraîne un drainage lent, donc de lentes variations du degré hygrométrique. Le pH est alcalin ou faiblement acide, non inférieur à 5. Dans la région méditerranéenne ce sont les sols bruns forestiers, les sols sur terra rossa et les rendzines qui remplissent le mieux ces conditions et qui possèdent la faune la plus riche. L’absence de Coléoptères endogés est à peu près totale dans les sols cultivés.
- Quelques chiffres donneront une idée de l’importance quantitative et qualitative de cette faune : dans 100 prélèvements de 8 dm3 de terre chacun, 20 908 Arthropodes ont été recueillis dont 628 Coléoptères appartenant à iq4 espèces ou sous-espèces; les édaphobies comptent pour 77 espèces dont 47 sont nouvelles, ce qui montre à quel point la faune endogée était mal connue.
- La faune est beaucoup plus riche dans l’humus que dans le sol proprement dit. Dans ce dernier elle diminue rapidement en nombre d’individus au fur et à mesure que l’on s’enfonce. On trouve des Coléoptères jusqu’à 70 cm de profondeur environ. Les stades larvaires sont encore très mal connus : il est probable que les larves, très petites et très fragiles, vivent à une profondeur plus grande, ce qui rend leur récolte plus difficile.
- Les Coléoptères édaphobies ont actuellement peu de parents au-dessus du sol. Une sous-famille, celle des Leptotyphlités, avec 200 espèces, ne possède même plus un seul représentant en dehors de ce milieu.
- Les endogés ont subi une évolution très longue qui a entraîné des transformations adaptatives nombreuses. La taille est presque toujours infime, beaucoup d’espèces ont moins de 1 mm de long, ce qui leur permet de coloniser les plus petites fentes du sol. La forme est en général grêle et allongée, aplatie ou le plus souvent cylindrique. Dans ce cas, qui correspond au faciès appelé par Coiffait « céphalo-fouisseur », le creusement du sol se fait à l’aide des mandibules et de la tête, dont la
- p.344 - vue 347/558
-
-
-
- 345
- Fig. 3. — Voies de migration probables, au Montien, des Cara-biques de la tribu des Anillini.
- 1, genre Cœcoparvns ;
- 2, genre Winklerites ;
- 3, genre Rhegmatobius ;
- 4, genre Microlyphlus ;
- 5, genre Geocharis ;
- 6, genre Stylulus. En hachures horizontales, extension approximative des mers de l’époque.
- (D’après R. Furon).
- grosseur est remarquable. Le raccourcissement des pattes et des antennes est fréquent; les ailes se réduisent et disparaissent; les élytres se raccourcissent et peuvent même se souder au thorax avec disparition de l’articulation basale. Ce caractère, rencontré chez les Leptotyphlités, est unique chez les Coléoptères; il est le témoin d’une très longue évolution dans le domaine endogé. L’œil est réduit ou disparu, la dépigmen-lation est totale chez de nombreuses espèces.
- Presque toutes ces adaptations sont des réductions ou des perles d’organes. Elles semblent dues à l’absence de tout rayonnement lumineux, suivant l’interprétation donnée par Coiffait. Les Coléoptères cavernicoles, vivant en milieu constamment obscur, sont également dépigmentés et aveugles. Il est probable que l’absence d’excitation lumineuse dans l’œil agit sur une ou plusieurs glandes à sécrétion interne qui règlent la formation des pigments et le développement de l’œil. Il est possible aussi que les rayons ultraviolets et infrarouges entrent en jeu et qu’il existe, au moins pour ces rayonnements, des organes réceptifs autres que l’œil, les téguments par exemple, ou peut-être certaines soies sensorielles. Selon la plus ou moins grande inertie de l’espèce, l’action est plus ou moins rapide, ce qui expliquerait les différences de degré dans l’adaptation des formes issues d’une même souche. Toutes ces hypothèses suggèrent d’intéressantes expériences de physiologie à entreprendre.
- L’appareil copulateur des Coléoptères édaphobies montre dans de nombreux groupes une évolution extrêmement diversifiée, entraînant des différenciations spécifiques très nettes et très stables. Il semble que dans certains genres le sexe mâle ait un rôle particulier et nécessaire pour déclencher cette multiplication des espèces. Tout se passe comme si l’organisme femelle était un organisme « conservateur » et l’organisme mâle celui par lequel se fait l’évolution. Ces notions sont bien démontrées par l’étude du Gynotyphlus perpusillus, certainement le plus répandu des Coléoptères édaphobies. On le retrouve pratiquement identique à lui-même de Bordeaux à la Turquie et de Lyon au sud de l’Italie. Or chez cette espèce, la femelle existe seule et la reproduction se fait par parthénogenèse. Quelques autres Coléoptères du sol présentent la même particularité, alors que la plupart des autres genres comptent de nombreuses espèces endémiques dont l’aire de répartition est souvent limitée à quelques kilomètres carrés; dans ces espèces mâles et femelles sont à peu près en nombre, égal.
- L’endémisme est extraordinairement poussé chez ces insectes qui ne se déplacent guère. C’est ainsi que 16 espèces de Mayetia habitent le massif des Maures et 21 Leptotyphlus la Corse. Cette « pulvérisation » indique qu’on se trouve en présence d’insectes extrêmement anciens qui ont atteint le terme ultime de leur évolution et qui sont probablement voués à une disparition prochaine (au sens géologique du terme). Les Coléoptères édaphobies constituent de véritables « fossiles vivants ». Pendant la période de large extension des continents de la fin du Secondaire et du début du Tertiaire (Montien), il y a plus de 20 millions d’années, ils ont dû s’étendre sur la Mésogéide (fig. 3). Ils devaient vivre dans les feuilles mortes et l’humus des forêts tropicales qui recouvraient alors la région méditerranéenne. Lors des variations de climat ces petits insectes, d’abord localisés dans l’humus, se sont réfugiés dans le sol où de faibles déplacements saisonniers en profondeur leur ont permis de continuer à vivre dans des conditions de milieu à peu près constantes, malgré les variations climatiques externes au cours des temps géologiques. La conséquence en fut la pulvérisation des espèces, le cantonnement de chacune d’elles dans un espace géographique extrêmement restreint et la perte de toute faculté d’adaptation nouvelle.
- Ces conclusions sont en contradiction avec celles de C. Dela-mare Deboutteville (3), quoique les unes et les autres soient valables. Celles de Delamare Deboutteville concernent en effet les insectes inférieurs, et en particulier les Collemboles, formes primitives qui n’ont pas encore réussi à s’évader du sol. Fractionnés en espèces très voisines à vaste répartition, les insectes inférieurs et quelques autres groupes d’Arthropodes édaphobies (Pauropodes, par exemple) ont conservé leur potentiel de variabilité et paraissent susceptibles de partir un jour à la conquête du monde aérien.
- Les Coléoptères endogés sont encore àipeine connus en dehors de la région méditerranéenne, faute d’avoir été recherchés. D’innombrables espèces restent à découvrir, la biogéographie n’est qu’à peine ébauchée et bien des points touchant l’écologie, la biologie, la morphologie et la physiologie de ces insectes restent encore à mettre en lumière.
- R. Dajoz.
- 3. Microfaune du sol. Supplément n° 1 de Vie et Milieu, organe du Laboratoire Arago (Banyuls). Hermann, Paris, 1951.
- p.345 - vue 348/558
-
-
-
- 346
- Vers la commutation électronique
- en téléphonie
- Le téléphone est devenu indispensable à notre existence quotidienne, mais les caprices de ce tyran provoquent bien des énervements : conversations bâchées sinon interrompues, fritures, crépitements, diaphonie (c’est-à-dire passage d’une communication sur d’autres lignes que celle qui l’achemine), etc. Les habitués des téléphones de campagne qui ont de plus à actionner avec une certaine violence une magnéto avant d’engager un dialogue de sourds avec l’opératrice auront beau prétendre que 1’ « automatique » est une merveille, celui-ci a tout de même bien des faiblesses, reconnaissons-le, quels que soient ses avantages comparés au « manuel ».
- La plupart des inconvénients signalés proviennent de la commutation, opération essentielle de la téléphonie, c’est-à-dire de la commande et de rétablissement des contacts qui permettent de raccorder les lignes du demandeur et du demandé. La commutation automatique est électro-mécanique et fait appel à un ensemble complexe de contacteurs, relais, électro-aimants, moteurs..., c’est-à-dire à des contacts électriques par lames métalliques, à des pièces en mouvement. Qu’un contact soit souillé, qu’une lame de ressort soit détendue, qu’un relais « colle » et c’est l’incident. La fragilité relative de ce matériel est encore mieux illustrée lorsqu’on place celui-ci dans des conditions d’emploi très dures : quand par exemple les canons d’un bâtiment de guerre tirent, le téléphone automatique est bien souvent mis hors d’usage et les communications doivent être acheminées par interphone, ou porte-voix !
- Le Laboratoire Central de Télécommunications a donc étudié le problème de la commutation électronique en téléphonie. En 1957, un auto-commutateur à 20 lignes a été livré à la Marine nationale et essayé de façon concluante sur un bâtiment. Un auto-commutateur à a/jo lignes, plus élaboré, a été construit et mis en service au début de cette année au siège de cet
- 1. Rappelons que le nombre des combinaisons que l’on peut effectuer entre m lignes jointes 2 à 2 est donné par l’expression m{m —l)/2. Dans le cas des 10 000 lignes d’un bureau téléphonique parisien il faudrait prévoir, s’il n’y avait pas d’étages de sélection, 49 995 000 contacts rien que pour le circuit de parole. La nécessité de la sélection apparaît ainsi clairement.
- Matrices de concentration-expansion lOjuncfions
- Postes d'abonnés
- Matrice de brassage
- organisme pour écouler son trafic intérieur et permettre une expérimentation sur une échelle raisonnable. C’est de cette réalisation originale qui ne comporte plus aucune pièce en mouvement que nous allons maintenant parler.
- Le circuit de parole. — Tout central téléphonique possède deux circuits distincts. Le premier joint les lignes du demandeur et du demandé et véhicule les courants téléphoniques proprement dits, c’est le circuit de parole. L’autre transporte les ordres d’ouverture ou de fermeture, des contacts du circuit de parole, c’est le circuit de commande, équivalent mécanique ou électronique de la « demoiselle des téléphones ». Cette distinction se retrouve bien entendu dans l’auto-commu-tateur électronique.
- Comme il est exclu de joindre directement chacune des a.jo lignes aux 2.I9 autres (il faudrait pour cela a5 880 « points de contact »), on opère une sélection (1) en divisant les lignes en 6 groupes de 4o; chacun de ces groupes aboutit à un élément appelé « matrice de concentration-expansion » qui permet de raccorder chaque ligne à 10 jonctions grâce à 4oo contacts électroniques. Les 60 jonctions peuvent être elles-mêmes raccordées 2 à 2 dans la « matrice de brassage » grâce à 1 770 points de contact. Le nombre total des contacts est ainsi ramené de 25 880 à 4 170. Mais en contrepartie, puisque chaque communication immobilise 2 jonctions, l’une pour la ligne du demandeur, l’autre pour celle du demandé, le nombre maximal de'conversations simultanées est égal à la moitié de celui des jonctions, soit 3o. En pratique, ce nombre est suffisamment élevé relativement aux 24o lignes pour que la probabilité qu’il y ait effectivement 3o conversations simultanées soit très faible.
- La figure 1 montre le schéma de ce circuit : les 240 postes sont raccordés par un nombre égal de lignes à l’auto-commu-tateur; les 60 lignes d’un groupe sont concentrées sur les 10 jonctions mises à leur disposition; en sens inverse, après raccordement des jonctions utilisées dans la matrice de brassage, il y a expansion des 10 jonctions sur Go lignes.
- Les contacts électroniques. — Chaque contact électronique est réalisé de la manière suivante : deux conducteurs à raccorder électriquement sont branchés aux deux bornes d’une diode à gaz à cathode froide (tube rempli de néon sous basse pression) dont la caractéristique courant-tension est rappelée par
- la figure 2. Lorsque le tube est éteint, son impédance est très élevée et il se comporte comme un « contact ouvert ». Au contraire, étant allumé, son impédance est faible : le contact est fermé. Or, pour allumer le tube il faut lui appliquer une tension temporaire VA supérieure à 170 volts, alors que pour le maintenir
- Fig. 1.
- - Schéma du de parole.
- circuit
- Les deux postes d’abonné figurés à gauche sont en communication grâce aux trois contacts fermés représentés par des points noirs. Les cercles blancs sont des contacts ouverts correspondant à un autre cheminement possible de la communication. A-U-dfessous est indiqué le circuit de commande, les flèches en pointillés correspondant à des ordres d’ouverture ou de fermeture des circuits.
- p.346 - vue 349/558
-
-
-
- 347
- Tension
- Tension
- Fig. 2. — Caractéristique d’une diode à gaz et diagramme des tensions.
- La figure a montre sur la courbe tension - courant les deux points de repos et de fonctionnement situés respectivement dans les régions « lube éteint » et « tube allumé ».
- La figure b montre le rôle des impulsions d’allumage et d’extinction qui permettent de faire basculer le tube et ainsi de « fermer » ou d’ « ouvrir » le contact.
- de détecter les appels, c'est-à-dire le décrochage du combiné de son support ;
- — Enregistrer pour chaque appel le numéro demandé;
- — Vérifier que le numéro demandé n’est pas en communication ;
- — Déterminer un cheminement à l’aide des jonctions libres entre les deux lignes :
- — Etablir alors la communication:
- — -Enfin, « relâcher » la communication lorsqu’un des combinés est reposé sur son support.
- Bien entendu, des fonctions accessoires s’ajoutent à ces fonctions principales, notamment l’envoi des diverses « tonalités ».
- Dans un central téléphonique classique, la plupart de ces fonctions sont assurées par un enregistreur qui, au reçu d’un appel, est affecté à la ligne du demandeur et se charge de la plupart des opérations énumérées grâce à un programme interne. Le nombre des enregistreurs d’un central est alors égal au nombre maximal des conversations simultanées prévues.
- Il aurait été peu rationnel de transposer cette solution électro-
- allumé il suffit ensuite d’une tension 1 F égale à 107 volts. Dans ces conditions, on applique en permanence aux bornes du tube une tension de repos de ii5 volts. Une impulsion de 60 V supplémentaires suffit alors pour allumer le tube et le faire basculer dans l’état conducteur. Une impulsion de sens inverse appliquée au moment voulu réduira momentanément le courant qui traverse le tube et celui-ci s’éteindra, revenant dans son état primitif.
- Notons une propriété intéressante de ces diodes à gaz au point de fonctionnement : quand la tension augmente, le courant diminue, on a une résistance dynamique négative de — 80 ohms. La résistance négative des contacts est utilisée pour compenser dans une certaine mesure l’atténuation inévitable due aux autres éléments du circuit de parole dont la résistance est positive.
- Signalons enfin que le bruit de fond (voir La Nature, juillet 1969, p. 298-804) de cette sorte de contact est si faible qu’il n’est en fait pas décelable, à la différence de celui des contacts électro-mécaniques qui est responsable des « crachements » entendus dans l’écouteur.
- La figure 3 montre une portion d’une « matrice de concentration-expansion » comprenant 5o de ces diodes à gaz.
- t
- Le circuit de commande. — Le circuit de commande d’un central téléphonique doit assurer plusieurs fonctions :
- •— Surveiller les lignes des abonnés en vue
- Fig. 3. — Une « carte » de tubes à gaz.
- Ce circuit représente une partie d’une matrice dé" concentration-expansion. Les 10 tubes de chaque rangée correspondent aux 10 points' de contact que chaque ligne peut établir avec une jonction intermédiaire. Un tel circuit permet ainsi de connecter chaque ligne à l’une ou à l’autre des 10 jonctions de la matrice. Une matrice complète est constituée de 10 éléments identiques.
- p.347 - vue 350/558
-
-
-
- 348
- mécanique à l’auto-commulateur électronique, car on sait bien que les « temps de réponse » des circuits électroniques sont très inférieurs à ceux des dispositifs qui comportent des pièces en mouvement. Affecter un enregistreur électronique à chaque ligne appelante serait revenu à immobiliser, pendant les quelques secondes nécessaires à l’abonné pour former le numéro, un appareil capable de fonctionner en un temps bien inférieur à îa microseconde.
- Aussi l’auto-commutateur électronique ne possède-t-il .qu’un seul organe de commande qui est mis successivement et périodiquement à la disposition de tous les appels, à la manière d’une opératrice humaine extraordinairement rapide qui explorerait du regard en une fraction de seconde tous les voyants lumineux correspondant .aux lignes ; qui noterait dans sa mémoire prodigieuse tous les numéros appelés en même temps, grâce à des « prélèvements » qu’elle effectuerait sur les impulsions électriques de numérotage ; qui relierait enfin à une vitesse exceptionnelle les lignes avec des fils conducteurs.
- Les caractéristiques de cette « opératrice électronique » sont déterminées en grande partie par la durée qu’elle doit consacrer à chacun des abonnés ou à chacune des opérations élémentaires qu’elle doit accomplir aiin d’établir la communication. L’exploration des lignes en vue de la détection des nouveaux appels fournit la première base de temps de cette exploration cyclique: la durée maximale d’attente que l’on impose à l’abonné entre le moment où il décroche le combiné et celui où il perçoit la tonalité qui lui signifie que son appel est détecté a été fixée à 5aH millisecondes. Cette valeur est donc l’intervalle de temps qui sépare deux explorations de la même ligne en vue de la détection d’un appel. Comme il y a 2/10 lignes, 2 lignes consécutives sont explorées à 2,2 ms d’intervalle.
- Une seconde base de temps est fournie par la procédure de numérotation qui s’effectue sur un cadran habituel en produisant des impulsions de 33 ms toutes les 100 ms (quand l’abonné forme le 3 sur un cadran, il envoie un train de 3 impulsions). Ces impulsions sont enregistrées sur une mémoire constituée de tores de ferrite, analogue aux mémoires des calculateurs électroniques puisque la numérotation s’effectue dans une échelle binaire : du courant, ou pas de courant. Il y a autant de mémoires que de jonctions, soit 3o, et chacune d’elles est approvisionnée par une suite de prélèvements effectués sur la ligne appelante qu’on lui a affectée. On doit faire au moins un prélèvement de numéro toutes les 33 ms, ce qui donnerait comme durée élémentaire d’un prélèvement 1,1 ms. On a en fait choisi la moitié, 55o microsecondes.
- Celte division du temps n’est pas encore achevée car, durant cet intervalle de 55o p.s, la logique centrale doit faire exécuter bien des ordres : rechercher les jonctions libres, tester l’abonné appelé, allumer ou éteindre les tubes à gaz, etc. On arrive ainsi à des impulsions élémentaires de 20 microsecondes, ce qui nous éloigne quelque peu des 628 millisecondes de départ. Sans aller plus loin dans notre étude du circuit de commande, notons que cette durée de 20 p.s est relativement grande en électronique. Aussi peut-on concevoir l’extension de ce mode de ce partage dans le temps » de l’organe de commande à des centraux bien plus importants. Une simple règle de trois montre qu’en utilisant des impulsions très « confortables » de 1 p.s on peut atteindre une capacité de 5 000 lignes environ. La réalité est d’ailleurs bien plus favorable car le nombre des opérations élémentaires augmente beaucoup plus lentement que celui des lignes : une capacité de 12 000 lignes exige des impulsions de 12 p.s seulement.
- Notons enfin quelques propriétés intéressantes de cette logique interne : sa position centrale procure une grande souplesse d’emploi et permet l’introduction facile de nouveaux programmes. C’est ainsi que même dans le cas bien improbable où la majorité des diodes à gaz d’une matrice serait hors de fonctionnement, les conversations pourraient encore être ache-
- minées grâce à une procédure de secours (nous avons vu fonctionner une matrice dont 7 jonctions sur 10 avaient été rendues inutilisables). On s’emploie également à doter cet organe de commande d’un dispositif propre à déceler les défaillances ou les arrêts des tubes à gaz.
- L’avenir de la commutation électronique. — En
- résumé, les caractéristiques importantes de cette réalisation expérimentale sont les suivantes : grande sécurité de fonctionnement, faible encombrement, faible « bruit de fond » et grande rapidité. Nous n’insisterons pas sur le premier point, d’autant plus que le recul manque un peu, mais la question de l’encombrement mérite quelques mots : cet auto-commutateur est deux à trois fois plus petit qu’un auto-commutateur électro-mécanique de même capacité. Quand on sait que la capacité des centraux parisiens est actuellement limitée par le simple encombrement du matériel classique, cet avantage prend toute son importance.
- La rapidité et le faible bruit de fond de cet appareillage nous paraissent cependant des avantages bien plus marqués. Nous ne pensons pas tellement ici aux besoins de la téléphonie usuelle, c’est-à-dire à la transmission de la parole humaine, mais surtout à ceux d’un domaine d’avenir : la transmission des informations numériques. Les calculatrices électroniques ont familiarisé le public instruit avec la notion d’ « information », quintessence même du langage; il est donc à peine besoin de rappeler que cette information peut être extraite d’un texte puis codée en un et langage-machine » généralement binaire, avant d’être utilisée dans un calculateur, une machine à classer, une machine à traduire, etc. La grande rapidité de ces machines à traiter numériquement l’information n’a plus à être soulignée, non plus que le fait que l’information ainsi codée en un langage-machine universel peut traverser sans retard et sans erreur les frontières de la phonétique et de la linguistique.
- Ces avantages rendent nécessaire l’établissement d’un réseau de transmission des informations numériques. Un centre météorologique régional pourrait ainsi envoyer en quelques secondes ses observations au centre national chargé de la prévision ; une compagnie aérienne pourrait interroger ses bureaux de Dakar ou de Tokyo, faire réserver des places, prendre des décisions sans tarder; une société commerciale pourrait être fixée en un clin d’œil sur l’état de ses stocks de Lyon ou de Marseille, et agir en conséquence, etc.
- Les seules raisons qui interdisent actuellement d’employer à cet usage le réseau téléphonique sont la lenteur relative des opérations de commutation, et surtout le bruit de fond élevé qui déformerait les impulsions codées du message et entraînerait de nombreuses erreurs.
- Nous pensons que l’électronique apportera la solution de ce problème très important, bien qu’on ne sache encore quelle forme définitive prendra la commutation électronique, car l’appareillage présenté ici est expérimental et ne propose qu’une méthode parmi bien d’autres que l’on pourrait concevoir.
- Pierke Chauvin.
- Un savant centenaire
- La revue soviétique Priroda rapporte que le professeur Boukréev, de l’Université de Kiev et mathématicien très connu en U. R. S. S., a fêté ses cent ans en septembre 1939. Le professeur Boukréev n’a nullement renoncé à son activité à un âge aussi avancé. Non seulement il travaille à l’heure actuelle à la troisième édition de son ouvrage sur la géométrie non euclidienne, mais il dirige personnellement les cours de géométrie à l’Université de Kiev et il fait toujours des conférences aux étudiants.
- p.348 - vue 351/558
-
-
-
- Les prolongements de la Carbochimie
- LES DÉRIVÉS ACRYLIQUES
- et leurs applications
- Tout le monde connaît, au moins de nom, l’acide cyanhydrique et les cyanures dont la violente toxicité a inspiré bien des auteurs d’histoires policières et aussi, hélas, les militaires qui, sous le nom de vincennite, l’employèrent comme gaz de combat lors de la bataille de la Somme en avril 1916.
- Pendant longtemps leurs applications ont été relativement (restreintes; certes le cyanure de sodium sert à extraire l’or de ses minerais, les nombreux « complexes » formés par les cyanures, tel le ferrocyanure ferrique ou bleu de Prusse, sont utilisés en analyse et la propriété du platino-cyanure de baryum de transformer les rayons X en radiations de plus grande longueur d’onde, visibles par l’œil, l’a fait employer comme écran contre ce rayonnement. Mais une industrie importante de cet acide n’a vu le jour que récemment avec l’apparition des dérivés acryliques, produits qui intéressent des industries aussi diverses que celles des matières plastiques, des textiles •et des peintures, pour ne citer que quelques-unes des multiples utilisations que nous allons essayer de passer en revue.
- Préparation de Vacide cyanhydrique. — Industriellement, on a d’abord préparé l’acide cyanhydrique par déshydratation catalytique de la formiamide (elle-même préparée par
- action de l’oxyde de carbone sur de l’ammoniac sec, à ioo° C, sous pression) sur phosphate d’aluminium à 36o-4oo° C.
- Plus récemment on a fait appel à un procédé utilisant l’oxydation catalytique par l’air d’un mélange d’ammoniac et de méthane selon le schéma réactionnel :
- NH3 + CH4 + 3/2 02 -» H — C = N + 3 HsO.
- Cette réaction est exothermique et s’effectue sur un catalyseur à base de platine, à une température de l’ordre de 1 ooo° C. L’acide cyanhydrique est séparé des gaz sortants par dissolution dans l’eau et l’on obtient après lavage et redistillation, un produit titrant 98 à 99 pour 100 d’acide cyanhydrique. Ce procédé fut étudié pendant plusieurs années par la Société d’Électrochimie d’Ugine à Toulouse, sur un atelier pilote de 2 t/jour et les essais réalisés sur cette unité justifièrent une application véritablement industrielle de cette technique. A cet effet, les Houillères du Bassin de Lorraine fondèrent en commun avec le groupe Ugine la société « Ugilor » qui fut chargée de la mise en route, il y a près de trois ans, à Saint-Avold (Moselle), de la première centrale française d’acide cyanhydrique utilisant cette réaction.
- p.349 - vue 352/558
-
-
-
- 350
- Cet ensemble industriel qui emploie plus de 200 personnes réalise la synthèse de l’acîde cyanhydrique et de ses dérivés acryliques et méthacryliques à partir de matières premières dont les principales (méthane, acétylène, ammoniac) proviennent de la cokerie et de l’usine de synthèse de Carling des Houillères du Bassin de Lorraine, dont il a été question d’une façon plus générale dans un article précédent (La Nature, janvier i960, p. 19). Cette réalisation va être amenée à jouer un rôle important dans le Marché Commun; aussi insisterons-nous quelque peu sur ses caractéristiques tout au long de cet exposé.
- Préparation des dérivés de Vacide cyanhydrique.
- — Les dérivés de l’acide cyanhydrique peuvent être classés en deux grandes familles : la famille de l’acide acrylique et celle de l’acide méthacrylique. Les dérivés acryliques les plus importants sont le nitrile acrylique et les acrylates. Le nitrile acrylique, produit de base d’une fibre bien connue, l’Orlon, est obtenu industriellement à partir de l’oxyde d’éthylène sur lequel on fixe l’acide cyanhydrique en présence de lessives alcalines. Le nitrile-alcool obtenu est déshydraté, soit en présence. d’anhydride phosphorique, soit catalytiquement sur bauxite ou carbonate de magnésium à 220-280° C (procédé I. G. Farbenindustrie).
- CH2 — CH2 + H — C = N
- \o/
- Oxyde d'éthylène
- dation catalytique par l’air de l’allyl-amine diluée dans la vapeur d’eau ou un gaz inerte vers 5oo° C sur catalyseur à l’argent. Ce procédé ne semble pas avoir dépassé pour l’instant le stade des essais pilotes.
- Les acrylates, c’est-à-dire les esters de l’acide acrylique, sont préparés à Saint-Avold par action de l’acide sulfurique concentré sur le nitrile acrylique. Le produit intermédiaire formé est traité par l’eau et un alcool, conduisant ainsi à l’ester acrylique désiré. On prépare également les acrylates industriellement en faisant circuler à contre-courant l’alcool contenant un catalyseur soluble à base de bromure de nickel-triphényl-phos-phine et un mélange d’acétylène et d’oxyde de carbone, sous 3o kg de pression, à 170° C (procédé Reppe).
- La famille de l’acide méthacrylique est représentée par deux types de produits : la cyanhydrine d’acétone et les méthacrylates qui en dérivent. La cyanhydrine d’acétone est préparée par fixation d’acide cyanhydrique sur l’acétone en phase liquide en présence d’un catalyseur alcalin. Le produit brut, débarrassé de l’excès d’acétone, est stabilisé par de petites quantités d’acide sulfurique. Les méthacrylates sont obtenus, comme les acrylates, en traitant la cyanhydrine d’acétone par l’acide sulfurique concentré puis par l’eau et l’alcool correspondant. Les monomères formés, d’une pureté supérieure à 99 pour 100, se polymérisent très facilement et doivent être stabilisés par des inhibiteurs de polymérisation pour éviter tout incident lors du transport et du stockage. Nous avons schématisé dans la figure 3 les principales fabrications qui viennent d’être décrites.
- Applications des dérivés acryliques et méthacryliques
- GH o
- CIL
- C = N
- OH
- -> CH2 = /
- Nitrile acrylique
- CH
- C = N + H„0.
- Le procédé utilisé à Saint-Avold réalise la fixation de l’acide cyanhydrique sur l’acétylène :
- II — C = C — H + II — C = N —> CH2 = CH — C s N.
- Acétylène
- Cette réaction se produit avec un rendement ‘de* 75 pour 100 à 70-90° C au sein d’une solution aqueuse en présence d’un catalyseur à base de chlorure cuivreux (procédé Kurlz).
- La Shell Development Co. aurait récemment obtenu le nitrile acrylique avec un rendement de 90 pour 100 par l’oxy-
- FORMIA M/DE , ou
- ME TH A NE + A MM ON IA C
- ACIDE CYANHYDRIQUE]
- NITRILE
- ACRYLIQUE
- ACETONE
- ACÉTYLÈNE
- OXYDE D'ÉTHyIT*^ -c J
- CYANHYDRINE
- D'ACÉTONE
- ACIDE______
- SULFURIQUE
- >—m<rALCOOL
- ACIDE_____
- SULFURIQUE
- *~m-4^ALCOOL
- ACRYLATES I
- : t
- ACETYLENE+ OXYDE de CAR.WNE + ALCOOL
- MÉTHACRYLATES \
- Fig. 2. — Schéma de la fabrication des dérivés acryliques et méthacryliques.
- Le nombre des applications s’accroît sans cesse ; certaines n’ont atteint le stade industriel qu’à l’étranger, la France ayant un certain retard en ce domaine. Il faut considérer en effet qu’à l’exception du Plexiglas fabriqué par la Société Alsthom, il n’existait pas en France de fabricants de monomères acryliques et méthacryliques et, avant que fût créée l’usine de Saint-Avold, les dérivés acryliques étaient en majeure partie importés de l’étranger. Depuis deux ans par contre un certain nombre de fabricants français en ont entrepris la production et il semble que les importations soient amenées à s’atténuer à plus ou moins brève échéance. Quelles sont donc les principales applications dés dérivés acryliques et méthacryliques ? C’est ce que nous allons maintenant étudier.
- Le nitrile acrylique. — C’est de loin le plus important de tous les dérivés de l’acide acrylique. Aux États-Unis par exemple, la production de ce monomère dépasse 100 ooô' t par an. Elle est, en France, beaucoup plus modeste, de l’ordre de 3 000 t environ mais s’accroît constamment depuis la mise en route de l’usine de Saint-Avold.
- Fibres synthétiques. — Les fibres synthétiques représentent 60 poui* 100 des débouchés du nitrile acrylique. La première et la plus connue des fibres de ce type fut lancée commercialement sous le nom d’Orlon par la Société Du Pont de Nemours aux États-Unis. Par la suite, de nombreuses autres fibres acryliques firent leur apparition comme le Dralon de Bayer et le Crylor produit en France par Rhône-Poulenc.
- Ces fibres sont formées par polymérisation du nitrile acrylique en phase aqueuse sous l’influence de la chaleur et de peroxydes ou d’un système oxydo-réducteur complexe dénommé système rédox comme le persulfate d’ammonium et le bisulfite par exemple; le polymère formé, insoluble, précipite. Cette résine est dissoute dans la diméthylformamide et les fibres obtenues par filage à sec ou humide (dans une solution aqueuse). Leur ténacité est environ moitié de celle du nylon mais elles
- p.350 - vue 353/558
-
-
-
- 351
- possèdent des propriétés assez remarquables. Ces fibres sont en effet absolument insensibles à l’humidité, aux microorganismes, aux acides dilués. Elles résistent bien aux agents de blanchiment et à la lumière. Leur teinture a posé, au début, des problèmes assez difficiles que l’on est cependant parvenu à résoudre. Employées seules ou en mélange avec la laine, elles sont utilisées dans l’industrie de la bonneterie, dans la fabrication des tissus d’ameublement, des voiles, des tentes, etc. En 1967, la Société Grylor satisfaisait à la moitié de la demande française, l’Orlon et le Dralon se partageant l’autre moitié.
- Par l’adjonction de petites quantités de vinylpyridine, on fabrique l’Acrylon, fibre analogue à l’Orlon mais dont la teinture est plus facile. En polymérisant un mélange de chlorure de vinyle et de nitrile acrylique, on obtient également une fibre textile de valeur, le Vinyon N.
- Caoutchouc synthétique. — On sait que d’impérieuses nécessités conduisirent certains pays (Allemagne, U.R.S.S., Etats-Unis), qui ne possédaient pas de plantations d’hévéas, à mettre au point des succédanés artificiels du caoutchouc appelés caoutchoucs synthétiques. Le premier caoutchouc de synthèse de qualité fut obtenu par les Allemands en polymérisant du buta-diène par le sodium, d’où son nom de Buna (Butadiène-Na-trium, Natrium voulant dire sodium, en allemand). Les qualités du Buna primitif furent grandement améliorées en incorporant au butadiène certaines substances à fonction éthyléni-que et en polymérisant le mélange, c’est-à-dire en effectuant une « copolymérisation ». C’est ainsi qu’avec le nitrile acrylique, on obtient un caoutchouc de synthèse dénommé Perbu-nan ou G,.R.N. caractérisé par une résistance élevée aux huiles, aux essences et aux solvants. Il a, par ailleurs, une bonne compatibilité avec un certain nombre de matières plastiques et une faible perméabilité aux gaz. Il est utilisé pour la fabrication de tuyaux souples, de joints, de diaphragmes et de réservoirs pour l’industrie du pétrole et, dans certaines applications, il concurrence un autre caoutchouc de synthèse, le Néoprène dont les caractéristiques sont assez proches des siennes. Il n’existait pas jusqu’alors en France de fabricants de caoutchouc-nitrile mais llgine va mettre en route cette fabrication dans son usine de Villers-Saint-Sépulcre (Oise).
- Matières plastiques. — Le polyacrylonitrile étant infusible (il se décompose avant d’avoir atteint son point de fusion), il est impossible de le mouler et par suite il n’est pas utilisé dans l’industrie des matières plastiques. Par contre, on lui a trouvé certains débouchés en le copolymérisant avec d’autres monomères. Le premier copolymère à avoir été fabriqué industriellement était un mélange de styrolène (*) et de nitrile acrylique.
- Les polystyrols, aisément moulables, présentent l’inconvénient d’avoir une résistance au choc relativement faible et de se ramollir au-dessus de 8o° C. Ces défauts ont été corrigés par copolymérisation du styrolène et de 3o pour 100 environ de nitrile acrylique. Les produits obtenus ont un point de ramollissement un peu plus élevé, une meilleure résistance aux chocs et aux solvants que le polyslyrolène.
- Plus récemment on a préparé des tripolymères à partir de mélanges de nitrile acrylique, de butadiène et de styrolène. Us sont connus sous les noms de Kralastic, Cycolac, Novodur et sont vendus sous forme de poudres à mouler pour injection et extrusion. Leurs caractéristiques essentielles sont une bonne résistance aux agents chimiques, aux chocs et à la chaleur. Us sont utilisés pour la fabrication de tuyaux servant au transport d’hydrocarbures, de produits corrosifs, d’eau chaude, etc. On les emploie également pour la fabrication d’accessoires d’automobiles, de pièces pour appareils ménagers.
- Aux Etats-Unis, on utilise pour le vernissage et l’imperméabilisation du papier et de la cellophane un copolymère de chlorure de vinylidène et de nitrile acrylique. Un produit analogue est fabriqué en France depuis ig58.
- En 1967, la consommation de cet ensemble de matières plastiques atteignait 600 t dont go pour 100 provenaient de l’importation. Les copolymères styrolène-nitrile acrylique fabriqués en France se substituent peu à peu aux importations. Par ailleurs, Ugine fabriquera sous licence, dès 19C0, les tri-polymères Kralastic.
- 1. Le styrolène est un dérivé du benzène de formule C6II5 — C1I = CHj que l'on trouve dans une résine naturelle, le styrax d’où il tire son nom. La polymérisation du styrolène conduit à des résines synthétiques dites « Polystyrols » qui ont pris ces dernières années un grand essor. Le styrolène est aussi un constituant important de certains caoutchoucs synthétiques connus sous le nom de Buna S ou de G.R.S.
- p.351 - vue 354/558
-
-
-
- 352
- Cyanoéthylation du coton. — Le nitrile acrylique peut se fixer sur des composés comportant dans leur molécule un atome d’hydrogéné mobile, selon le schéma :
- A — H + GHa - Cil — C = N —> A — CIL — CIL — C = N,
- A — H représentant le composé dont un atome d’hydrogène est susceptible de saturer la double liaison du nitrile acrylique.
- Les produits obtenus comportent le groupe - GH2 - CII2 - G=N auquel on a donné le nom de groupe « cyanoétliyle », d’où le nom de « cyanoéthylation » qui a été conféré à ces réactions.
- De très nombreux travaux de recherche ont été entrepris sur cette réaction, en particulier dans le cas des produits naturels comme le coton. Une usine pilote a meme été construite aux États-Unis. Le coton ainsi traité présente en comparaison du produit naturel des propriétés intéressantes : excellente résistance aux moisissures, à la dégradation par la chaleur, amélioration des propriétés tinctoriales, etc. Le prix de revient assez élevé s’oppose pour l’instant à une commercialisation intensive du produit mais la situation devrait s’améliorer dans un avenir assez proche. La même réaction a été employée dans le cas du papier; là encore la résistance aux micro-organismes •est améliorée.
- Utilisations diverses. — On a proposé bien d’autres utilisations du nitrile acrylique; certaines n’ont pas dépassé le stade du laboratoire, d’autres commencent à se répandre, en particulier à l’étranger. Nous citerons la fabrication de résines pour les peintures dans lesquelles le styrolène est remplacé en partie par le nitrile acrylique. La vitesse de séchage et la résistance aux solvants seraient augmentées. On a également proposé l’addition de polymères du nitrile acrylique aux vernis cellulosiques en ébénisterie; l’aspect du vernis donnerait l’impression d’un polissage naturel.
- Outre la fabrication d’acrvlales sur lesquels nous allons revenir, le nitrile acrylique est utilisé pour la fabrication industrielle de l’acide acrylique par hydrolyse totale. Polymérisé, le plus souvent en solution aqueuse par le persulfate, celui-ci donne, selon le poids moléculaire obtenu, des agents d’encollage pour fibres synthétiques (le Nylon en particulier), des épaississants pour peintures, cosmétiques, colles, etc.
- Disons pour terminer que le nitrile acrylique par sa composition chimique est un composé très réactif. Il présente en effet dans la même molécule une double liaison éthylénique
- et un groupement nitrile. Il est donc utilisé en synthèse pour la fabrication de produits aussi divers que les insecticides, les colorants, les produits pharmaceutiques, etc.
- Esters acryliques. — On a suggéré l’emploi des acrylates dans de nombreux domaines, mais là encore bien des applications n’ont pas dépassé le stade des essais. Les principaux esters employés sont les acrylates de méthyle, d’éthyle et de butvle, c’est-à-dire les esters d’alcools légers. C’est la fabrication des émulsions acryliques qui constitue de loin l’utilisation la plus importante des acrylates. Ces émulsions sont préparées soit à partir d’un acrylate pur, soit à partir de mélanges d’acrylates entre eux ou avec d’autres monomères tels que les méthacrylates et les esters vinyliques. On parvient ainsi dans une certaine mesure à additionner les propriétés intrinsèques des différents produits mélangés.
- L’industrie du cuir utilise près de 70 pour 100 de ces émulsions pour la formation d’une couche de base sur les cuirs revêtus par la suite d’un vernis nitrocellulosique. Elles confèrent aux cuirs une bonne flexibilité, une excellente résistance à l’usure et au vieillissement. Ces émulsions sont également employées dans l’industrie du papier, soit pour l’imprégnation, ce qui améliore la résistance à la déchirure, à l’humidité et aux graisses, soit dans la fabrication du papier de luxe. Les peintures à base d’émulsions acryliques présentent des propriétés intéressantes : séchage rapide, résistance au lavage, application facilitée. Enfin, on a préconisé l’emploi de ces émulsions dans l’industrie textile pour obtenir des apprêts permanents, résistants au lavage et imperméables.
- Le domaine des caoutchoucs de synthèse à base d’acrylates mérite également que l’on s’y arrête. Ces produits, fabriqués depuis peu aux États-Unis, sont surtout caractérisés par une excellente résistance aux huiles et aux graisses, même à des températures élevées (jusqu’à 1800 C).
- En 1967, on a consommé en France environ 3oo t d’acrylates ; les recherches et la prospection de marchés nouveaux sont en cours et il semble que cette consommation doive tripler dans les années à venir.
- Esters méthacryliques. — Le méthacrylate de méthyle est, de loin, le dérivé dont le développement est le plus remarquable. Les études entreprises sur les esters d’alcools supérieurs devraient permettre de leur trouver des débouchés importants.
- Fig. 4. — Boites à
- gants en plexiglas, construites sous licence C.E.A., munies de sas latéraux . permettant un montage en série.
- Largement répandues maintenant, elles permettent aussi bien les éludes purement nucléaires que les manipulations en atmosphère contrôlée (argon, hélium, air sec, etc.).
- (Photo Éts Jahan).
- p.352 - vue 355/558
-
-
-
- 353
- Fig. 5 et 6 — Éclairage d’un bâtiment au moyen de lanterneaux Lanterplex en plexiglas.
- L’excellente transparence de ce matériau assure un éclairage maximal ; il est en outre mauvais conducteur de la chaleur et ses propriétés isolantes sont quatre fois supérieures à celles du verre. A droite : le renflement supérieur des lanterneaux assure une bonne évacuation des eaux de condensation (Photos Société Sitra-Plast).
- Tout le monde connaît les plaques de polyméthacrylate de méthyle vendues en France et en Allemagne sous le nom de Plexiglas, en Angleterre sous le nom de Perspex. Elles sont caractérisées par leur transparence tout à fait remarquable puisqu’elle est supérieure à celle du verre; leur coefficient de transmission atteint 92 pour 100 alors qu’il n’est que de 81 pour 100 pour les verres de bonne qualité. Le Plexiglas a une bonne résistance à la flexion, aux chocs, à la lumière et aux intempéries. Le seul inconvénient provient de sa dureté qui est faible : le Plexiglas se raye assez facilement. Par ailleurs, ces résines possèdent une curieuse propriété optique : un bâton noué en Plexiglas conduit la lumière comme un tuyau conduit un liquide, d’où le nom de Lucite donné à ce produit par Du Pont de Nemours (2). Ces plaques qui peuvent être colorées facilement sont utilisées dans l’industrie de l’automobile, en architecture et en décoration, en optique, dans la fabrication de matériel sanitaire, de règles, etc.
- Par copolymérisation du méthacrylate de méthyle avec des monomères allyliques, on prépare des plaques ayant des caractéristiques optiques voisines du Plexiglas mais possédant une plus grande résistance à la chaleur et aux agents chimiques. Ces copolymères sont employés par exemple dans l’aviation comme verres de sécurité pour les coupoles d’avion. Leur faible dureté n’est pas un ennui en raison de l’absence de poussières à haute altitude; par contre, elles seraient rayées rapidement au sol et sont inutilisables comme pare-brise pour autos.
- En 1967, la consommation française de Plexiglas était d’environ 1 3oo t, chiffre assez modeste si on le compare aux productions anglaises et allemandes. Une extension rapide du marché ne saurait tarder cependant en raison de la création d’une société filiale d’Ugilor et d’Alsthom. L’emploi du Plexiglas est surtout limité par son prix élevé qui le fait réserver aux utilisations pour lesquelles certaines caractéristiques (transparence, bon aspect de surface, etc.) sont indispensables.
- 2. Le verre peut jouir également de cette propriété. Voir : L’optique à fibres, La Nature, février 1960, p. 58.
- On a proposé récemment l’utilisation du méthacrylate de méthyle pour la fabrication de poudres à mouler dont les domaines d’application sont extrêmement divers : clignotants, feux de signalisation, corps de stylo, tubes, etc. En art dentaire, on utilise aussi des poudres à mouler à base de méthacrylate de méthyle destinées à l’obturation des dents artificielles et aux dentiers. Dès 1957, la consommation française atteignait dans ce domaine près de 4o t.
- Le méthacrylate de méthyle entre aussi dans la composition des résines pour vernis. Les vernis obtenus, plus chers que les produits classiques, sont cependant utilisés aux États-Unis en raison de leur dureté et de leur excellente résistance au vieillissement pour la peinture des carrosseries d’automobile.
- Autres esters méthacryliques. — Ce domaine est en plein développement. Nous citerons surtout les méthacrylates supérieurs (de lauryle, de sléaryle, de palmityle) utilisés comme « dopes » pour les lubrifiants. Stabilisant les huiles de graissage, ils leur confèrent une viscosité sensiblement constante en fonction de la température, propriété importante dans les phénomènes de lubrification. Les « dopes » représentaient déjà, en 1967, 1 600 t pour le seul marché intérieur français.
- Conclusion. — Nous avons examiné les principales utilisations des dérivés organiques de l’acide cyanhydrique. Bien que notre pays ait accumulé en ce domaine un certain retard par rapport, aux pays étrangers, il semble que la création de l’usine de Saint-Avokl permettra à la France de tenir un bon rang face à ses partenaires européens. Par ailleurs, en raison de l’intérêt suscilé par ces produits dans le monde et desnombreux travaux de recherche en cours, on peut penser raisonnablement que le marché devrait dans les années à venir se développer largement. C’est le pari qu’ont fait les dirigeants d’Ugilor puisque l’usine de Saint-Avold a été conçue de telle sorte que l’on puisse rapidement et sans difficultés doubler puis tripler les unités de fabrication existantes.
- R Rosset.
- p.353 - vue 356/558
-
-
-
- L’aiguillon des abeilles
- Son origine et son rôle
- On a souvent tenté d’amputer des reines abeilles de leur aiguillon pour les empêcher de s’entretuer et permettre la cohabitation de plusieims reines dans une même ruche dont on espère alors un -rendement amélioré. Mais les reines mouraient presque toutes. Un chercheur français, M. Darchen, vient pourtant de montrer que cette amputation peut être bien supportée et que les reines mouraient en réalité de l’isolement qu’on leur itnposait. A cette occasion, le professeur Lucien Chopard expose, dans l’article qu’on va lire, ce que l’on sait sur l’aiguillon des abeilles, son fonctionnement et son rôle, question que l’on ne trouve pas traitée dans les ouvrages français.
- Le dard ou aiguillon des Hyménoptères supérieurs, des abeilles en particulier, est un organe d’une complexité extrême qui semble parfaitement adapté à son rôle d’organe défensif. Sa spécialisation est telle que la signification morphologique exacte des différentes parties dont il est constitué serait bien difficile à préciser si l’on ne pouvait le comparer à un organe homologue qui termine l’abdomen des Hyménoptères inférieurs. Rappelons d’abord que l’on divise cet énorme ordre d’insectes en deux grands groupes qui sont les Symphyles ou Tenthrèdes et les Apocrites comprenant tous les autres Hyménoptères. Les Tenthrèdes sont faciles à reconnaître par de nombreux caractères, en particulier par l’abdomen non séparé du thorax par un étranglement; elles présentent en outre un organe destiné à la ponte qui permet de comprendre l’homologie de l’aiguillon. Cet organe, qu’on appelle parfois scie pour rappeler la façon dont il est utilisé, est une tarière composée de quatre lames den-ticulées qui servent à introduire les œufs dans les tissus des plantes sur lesquelles les larves doivent vivre.
- L’origine et le développement de la tarière des Tenthrèdes sont bien faciles à comprendre si on la compare à l’oviscapte ou ovipositeur de certains insectes moins évolués, en particulier des Orthoptères Ensifères (grillons, sauterelles) qui doivent leur non d'ensifères au long appendice plus ou moins en forme de sabre qui termine l’abdomen. Cet oviscapte est formé de six valves allongées; l’ensemble constitue une longue tarière qui
- Fig. 1. — Comparaison entre l’oviscapte d’un Orthoptère en voie de développement et l’aiguillon de la larve d’abeille.
- Chez les deux : 8 st, 9 st, 8“ et 9" stérilités abdominaux. En haut, Orthoptère : v. s., valves supérieures de l’oviscapte ; v. int., valves internes ; v. i., valves inférieures. En bas, larve d’abeille : gon., gonopore ; a, anus ; s, stylets ; g, gorgeret ; gn, gaine.
- permet l’introduction des œufs dans la terre ou dans les plantes. Ces insectes ne présentant pas de métamorphoses, il est facile de suivre le développement de l’oviscapte qui grandit à chaque mue du jeune orthoptère. On constate alors que les valves proviennent de bourgeons dépendant du 8e et du 9e sternites abdominaux; le sternite donne les deux valves inférieures et le 9e les valves supérieures et internes. O11 peut observer une apparition du dard comparable au début du stade nymphal de l’abeille, alors que la nymphe est encore incluse dans la cuticule larvaire. On constate qu’il existe, comme chez les Orthoptères, trois paires de bourgeons sur les sternites abdominaux 8 et 9; ces bourgeons donneront naissance aux pièces du dard homologues des valves d’un oviscapte; ceux du 8e sternite formeront les stylets, ceux du 9e sternite, le gorgeret et la gaine (fig. 1).
- Si l’on considère maintenant les insectes adultes, on voit que la scie des Tenthrèdes est très facile à comparer à l’oviscapte des Ensifères ; ses quatre lames correspondent aux valves supérieures et internes; les valves inférieures sont larges, non coupantes et maintiennent les autres accolées, formant le fourreau (fig. 2)
- Fig. 2. — Extrémité abdominale d’une femelle de T enthrède.
- /, fourreau de la scie ; l. s., lame supérieure ; l. inf., lame inférieure.
- L’action de la scie est également absolument comparable; l’organe pénètre dans les tiges des plantes et l’œuf suit le canal formé entre les valves pour être déposé au fond du trou.
- Parlant de cette tarière assez simple, que trouve-t-on chez les Hyménoptères plus évolués ? Il faut encore considérer deux types. On divise en effet ces insectes en deux grandes catégories, dont les limites sont d’ailleurs assez peu nettes. Ce sont les Térébranls ou porte-tarière et les Aculéates ou porte-aiguillon. Les Térébrants constituent un groupe énorme, comprenant en particulier la légion innombrable des parasites (Ichneumonides, Braconides, Chalcidiens). Chez eux, la tarière est en général très allongée, de forme variable; mais ses différentes parties sont très facilement reconnaissables et comparables à celles qui composent la scie des Tenthrèdes. Cette tarière a acquis une fonction un peu différente; elle sert à introduire les œufs à l’intérieur du corps d’autres insectes dans lequel les larves de l’hyménoptère parasite se développeront. Cette spécialisation de la tarière des parasites forme un passage vers l’aiguillon des Hyménoptères supérieurs.
- On peut penser que les abeilles et les guêpes ont hérité d’ancêtres non piqueurs, un ovipositeur; mais, ayant acquis l’habitude d’élever leurs larves dans des rayons, un organe spécialisé pour la ponte ne leur était plus indispensable. L’ovi-positeur est alors devenu un instrument de défense et, pourvu d’une glande à venin, il s’est transformé en aiguillon (Snod-grass).
- Morphologie de l'aiguillon. — L’aiguillon est un appareil compliqué, qui dépend des 8e et 9e segments abdominaux. Il a été bien étudié depuis longtemps déjà, mais la description la plus complète en a été donnée dans l’excellent volume que
- p.354 - vue 357/558
-
-
-
- 355
- Fig. 3. — Appareil vulnérant de l’abeille.
- A, ensemble de l’appareil ; B, un stylet isolé ; C, extrémité du dard, fortement grossie, c, plaque carrée ; ob, plaque oblongue ; t, plaque triangulaire ; p, gorgeret ; gn, gaine; s, stylets; gl. ac., glande acide; gl.D., glande alcaline ou de Dufour ; r, réservoir à venin ; b, bulbe ; i, lobe basal du stylet formant piston.
- (D'après P. Grenier in Caullery, Biologie des Abeilles).
- Fig. 4. — Aiguillon de l’abeille ouvrière.
- c plaque carrée ; ob., plaque oblongue ; t, plaque triangulaire ; b, bulbe ; g, gorgeret ; gn, gaine ; s, stylet ; r, réservoir à venin.
- (D’après Snodgrass).
- R. E. Snodgrass a consacré à l’anatomie de l’abeille (Anatomy of lhe Honey Bee; Constable, Londres, 1956). Sans entrer dans trop de détails anatomiques, on peut indiquer que cet organe comprend deux parties principales (fig. 3 et 4).
- Une partie motrice à la basé est formée de plusieurs plaques paires qui assurent l’articulation du système avec les sclériles abdominaux. Ces plaques, au nombre de trois de chaque côté, ont reçu les noms de plaques carrées, plaques oblongues et plaques triangulaires; les plaques oblongues sont prolongées par une lame molle qui, au repos, enveloppe le dard dont elle forme la gaine.
- La seconde partie est celle qui assure l’action vulnérante; c’est le dard, formé de trois longues pièces étroitement reliées qui se terminent en une pointe aiguë. Une pièce supérieure et impaire forme un fourreau appelé gorgeret (stylet par Snodgrass) ; deux pièces inférieures très fines peuvent glisser le long d’un rail de guidage qui existe à la face inférieure du gorgeret;
- ces pièces sont appelées stylets par les auteurs français, lancets par Snodgrass. Les stylets sont des soies très fines, armées vers l’apex, à la face externe, de petites dents dirigées en arrière comme les barbes d’un harpon. Ils sont maintenus serrés contre la face inférieure du gorgeret par les sillons de ce dernier; ces sillons se prolongent vers la base, de sorte que les stylets peuvent se mouvoir en avant et en arrière par glissement dans la rainure. A sa base le gorgeret est renflé en un bulbe
- Fie. 5. — Représentation schématique de l’origine des différentes parties de l’aiguillon.
- 8 t, 9 t, 8e et 9' tergites abdominaux ; 8 st, 9 st, 8° et 9° sternites ; g, gorgeret ; gn, gaine ; s, stylet.
- (D’après IUetschel).
- dont la cavité s’ouvre à la partie inférieure et dans lequel débouchent les canaux des glandes à venin; le venin peut s’écouler depuis le bulbe par un canal qui s’étend jusqu’à l’extrémité du dard, entre le gorgeret et les stylets. Le dispositif qui permet l’entraînement du venin est des plus remarquables. Chaque stylet porte près de la base, à la face supérieure, un lobe élastique, formant valvule, à concavité dirigée en arrière; ces lobes font saillie dans la lumière du bulbe qu’ils peuvent parcourir dans toute sa longueur, jouant le rôle de pistons qui servent à projeter le poison dans le canal.
- Cette description concerne l’aiguillon de l’abeille ouvrière; elle s’applique dans ses grandes lignes à la reine. On observe cependant chez cette dernière quelques différences qui jouent un rôle important dans le fonctionnement de l’organe. La principale concerne la forme générale de l’aiguillon qui est courbé depuis la base et dont les stylets sont très faiblement barbelés à l’apex; les pièces de la base sont de forme un peu différente, plus fortes et surtout plus solidement fixées aux parois de l’abdomen (fig. C).
- Les glandes à venin. — Les glandes qui sont associées à l’appareil vulnérant sont homologues des glandes accessoires de l’appareil génital femelle des autres insectes qui servent habituellement à répandre à la base de l’oviscapte une sécrétion qui
- Fig. 6. — Aiguillon de la reine abeille.
- c, plaque carrée ; t, plaque triangulaire ; ob, plaque oblongue ; a, aiguillon ; gn, gaine.
- {D’après Snodgra9s)
- p.355 - vue 358/558
-
-
-
- ....... 356 - :•........ -----....... ' —
- permet de fixer l’œuf à un support ou de former une oothèque, comme chez les Blattes et les Manies.
- Deux glandes se trouvent à la base de l’aiguillon. La première est formée d’une paire de longs tubes grêles, fortement contournés, qui se trouvent dans la partie postérieure de l’àbdomen; ces deux tubes s’unissent en un court conduit commun qui débouche à l’extrémité antérieure du sac à venin. Cette glande, dite glande acide, sécrète surtout de l’acide formique; parmi les autres constituants de sa sécrétion on a mis en évidence l’histamine, qui provoque la réaction cutanée et le gonflement des tissus au moment de la piqûre et l’apitoxine qui constitue la partie vraiment toxique du venin.
- La deuxième glande, décrite par Dufour en i84i, est épaisse et courte, d’un blanc opaque, à épithélium épais; elle est appelée glande alcaline et s’ouvre à la base de l’aiguillon. Sa fonction est encore très discutée; certains pensent que sa sécrétion doit être mélangée à celle de la glande acide pour être active, d’autres qu’elle sert seulement comme lubrifiant ou encore qu’elle peut neutraliser les acides restant dans le canal de l’aiguillon. Pour E. Trojan (ig3o), elle a simplement conservé sa fonction primitive protectrice des œufs et sert à les coller au fond des alvéoles.
- Mécanisme de la piqûre. — Les muscles de l’aiguillon sont attachés à la base du bulbe. Quand le dard entre en action, l’appareil basal bascule en bas et en arrière sur l’articulation des plaques carrées et il prend une position presque verticale ; en même temps le dard est déprimé et sa partie postérieure est poussée hors de l’abdomen; la protraction est provoquée par une augmentation de la pression sanguine dans la région abdominale postérieure. Les stylets commencent alors des mouvements de va-et-vient, rapides et alternés, sur le gorgeret; un des stylets monte quand l’autre descend. Grâce aux lobes agissant comme des pistons, le venin est aspiré de la poche, dont la paroi ne contient pas de muscles et est refoulé vers l’extrémité de l’aiguillon. Celui-ci est donc comparable à une seringue dont le corps de pompe posséderait deux pistons accouplés, glissant l’un contre l’autre. A la rétraction, les sclérites basaux reprennent leur position de repos et le dard est replacé entre les lobes de la gaine. L’abaissement de l’ensemble de l’appareil vulnérant, qui accompagne l’oscillation de la partie basale, est produit par une paire de grands muscles plats qui s’étendent sur la base du bulbe; les mouvements des stylets sur le gorgeret sont assurés par deux paires de muscles antagonistes qui activent d’abord les plaques carrées, ensuite les plaques triangulaires et les stylets qui y sont attachés.
- Quand une abeille pique, l’insertion de l’aiguillon est probablement produite par un mouvement rapide de l’extrémité abdominale; mais la pénétration subséquente, plus profonde, est le résultat des mouvements alternés des stylets, dont les barbes recourbées maintiennent le dard en place. Ce mouvement de pénétration peut continuer, par une action réflexe, même lorsque le dard est détaché du corps de l’abeille. En même temps, le venin est déversé dans le bulbe; entraîné dans le canal, il sort par une fente ventrale près de l’apex des stylets.
- On remarquera que l’appareil basal du dard est uni aux parois de la chambre par une membrane mince et qu’une faible traction sur la pointe suffit pour l’arracher, entraînant les plaques carrées, les glandes venimeuses et même la partie postérieure du tube digestif. C’est ce qui se produit souvent quand l’abeille cherche à se dégager brusquement après la piqûre. Il a été admis par certains auteurs que la très fine membrane qui unit, les plaques basales aux parois du corps représente une place de rupture préformée et P. Rietschel (1937) considère la perte de l’aiguillon comme un véritable cas d'autotomie. L’appareil arraché continue à fonctionner par le jeu réflexe des stylets et déverse une plus grande quantité de venin dans la blessure. Il en résulterait une efficacité plus grande de l’attaque qui compenserait la mort de l’insecte. On sent dans cette explication le
- désir de réfuter toute idée opposée à la perfection mécanique de l’appareil vulnérant et à sa parfaite adaplation.
- Rôle de l'aiguillon de la reine. — Nous avons vu que l’aiguillon de la reine diffère morphologiquement par des détails-importants de celui des ouvrières. Ces différences se retrouvent dans son fonctionnement. L’absence de denticulations à l’extrémité des stylets et l’union plus solide des plaques basales avec les sclérites abdominaux font que la piqûre ne provoque jamais-l’arrachage de l’organe. D’ailleurs cette mutilation ne se produit que lorsque l’abeille pique un animal à peau épaisse tel que l’homme. Or, la reine ne semble jamais utiliser son aiguillon dans de telles conditions. On a pu montrer des photographies-d’un apiculteur qui laisse promener sur sa langue une abeille sans crainte d’une piqûre qui, dans ce cas, pourrait être mortelle; on s’aperçoit à l’examen qu’il s’agit d’une reine, inoffensive pour l’homme. Il semble en effet que le réflexe de la piqûre ne se produise chez elle qu’en présence d’une autre reine, cas qui peut se présenter vers le temps de l’essaimage.
- Le rôle de l’aiguillon de la reine comme organe défensif se-trouverait donc fortement réduit; par contre, on admet généralement qu’il joue un rôle important pendant la ponte, sa forme-spéciale et ses gaines, plus développées, formant un guide pour le dépôt de l’œuf au fond d’un alvéole du gâteau de cire de la ruche.
- Les apiculteurs auront-ils des ruches à plusieurs reines ?
- On sait depuis longtemps que deux reines ne peuvent habiter ensemble dans une ruche. Dès 1790, François Huber,. le génial observateur aveugle des abeilles, décrivait le combat sans merci que se livrent deux jeunes reines que le hasard a fait sortir au même instant de leur cellule, ou la reine féconde-d’une ruche avec une jeune femelle vierge qui vient d'éclore. On sait aussi, d’autre part, que les abeilles acceptent très difficilement l’introduction dans la ruche d’une reine provenant, d’une autre colonie. Ces sujets ont intéressé plus récemment un certain nombre de biologistes qui ont cherché à déterminer les conditions dans lesquelles une colonie d’abeilles pourrait être amenée à accepter la présence simultanée de deux reines. Un certain nombre d’essais ont été faits dans ce sens par différents expérimentateurs d’Amérique et de Russie, avec des-résultats peu concluants. C’est pourquoi la question vient d’être-reprise par l’abbé Roger Darchen qui a résumé le résultat de ses recherches dans -les Comptes Rendus de VAcadémie des: Sciences (ier février 1960).
- La méthode employée rappelle celle que les apiculteurs utilisent pour faire accepter une nouvelle reine dans une ruche orpheline. Mais ici, il s’agit non seulement de faire accepter deux reines à la ruche mais, en outre, d’obtenir de ces dernières, qu’elles renoncent à se combattre. Deux séries d’expériences-•ont été faites, les unes en cagettes vitrées, en étuve à 3o° C, avec un groupe de 5o jeunes abeilles .extraites d’un cadre d’élevage; les autres dans une ruche vitrée à cadre Dadant. Les reines étaient introduites dans une cagette analogue à celles employées par les apiculteurs, mais à deux compartiments séparés par une plaque métallique perforée d’un trou de 4 nam de diamètre. Cette séparation est retirée après une huitaine de jours et l’on observe le comportement des deux reines et des abeilles formant, la petite colonie.
- Comme il fallait s’y attendre, les résultats sont variables car les abeilles ne sont pas des insectes dont les réactions peuvent être prévues avec certitude. Il faut toutefois noter que la cohabitation a été grandement facilitée en employant des reines-dont le dard avait été sectionné; il n’y a en effet entre elles-qu’un petit combat sans issue fatale. M. Darchen avait publié
- p.356 - vue 359/558
-
-
-
- 357
- à ce sujet une note dans les Comptes Rendus de VAcadémie des Sciences (4 janvier 1960) car les tentatives de ses prédécesseurs pour effectuer cette mutilation s’étaient heurtées à une mortalité excessive, tant chez les ouvrières que chez les reines.
- M. Darchen anesthésie les abeilles non à l’anhydride carbonique comme ori le fait généralement, mais à l’éther acétique; l’opération ne doit pas durer plus de deux minutes et demie. L’abeille anesthésiée sort automatiquement le dard et son étui et il est facile de le sectionner à 1 mm environ de la pointe. L’opération est en général très bien supportée, à condition de ne pas isoler l’abeille; c’est précisément ce point qui constitue la différence entre la méthode de M. Darchen et celle de ses prédécesseurs qui isolaient l’abeille après l’opération. Aussi pense-t-il que la mortalité post-opératoire est due à l’isolement plutôt qu’à une réelle fragilité des insectes. Les reines opérées, qui sont de race italienne, sont l’objet de soins atten-
- tifs de la part des ouvrières et pondent normalement, ce qui montre que le dard n’est pas indispensable pour guider les œufs au moment de la ponte.
- En ce qui concerne les rapports avec les ouvrières, des résultats intéressants, quoique irréguliers, ont été obtenus. Après une période de préparation préalable, deux reines ont pu être acceptées par deux groupes de jeunes ouvrières vivant sur le même cadre et cette cohabitation a duré plusieurs mois.
- Le but de ces recherches est avant tout de préciser les rapports biologiques qui existent entre la reine et les ouvrières et entre les reines. Cependant l’auteur pense qu’une application pratique n’est pas exclue, qui permettrait d’obtenir des ruches à deux ou même plusieurs reines; ces ruches pourraient avoir une population et par suite un rendement bien plus importants que les ruches normales.
- Lucien Ghopard, Professeur honoraire au Muséum.
- LE RAT MUSQUÉ ET SES MÉFAITS
- Le Bulletin de la Société Zoologique de France a récemment publié d’intéressants renseignements sur le Rat musqué ('Ondatra zibethica). Ce Rongeur de la famille des Muridés, originaire d’Amérique du Nord, fut très vite recherché pour sa chair (il porte parfois le nom de « lièvre des marais ») et pour sa fourrure, oe qui lui valut son introduction en Europe.
- Le Rat musqué mesure en moyenne 60 cm, dont 25 pour la queue qui est fortement comprimée latéralement. Les oreilles sont courtes, à peine visibles. La fourrure, fauve plus ou moins foncée, est constituée de poils longs associés à un duvet court très serré, avec des reflets bleus ; le tout est solidement implanté sur un cuir particulièrement résistant. Cet animal est de mœurs surtout aquatiques.
- Les premières importations eurent lieu en Europe en igo5 dans la région de Prague. Des individus échappés colonisèrent rapidement toute l’Europe centrale grâce à leur reproduction particulièrement active. En Belgique en 1929, en Angleterre en 1927, d’autres évasions permirent le peuplement de l’Europe occidentale. En France il existait en 1932 cinq foyers : Somme, Seine-Maritime, Eure, Ardennes et région de Belfort. A l’heure actuelle presque tout© la France au nord de la Loire est envahie.
- La femelle peut mener à bien cinq portées par an, soit une trentaine de descendants. Cette multiplication est freinée par de nombreux prédateurs : putois, fouine, renard en France, vison en Amérique. Le Rat musqué est aussi très sensible aux infections microbiennes et les Salmonella ont été préconisées pour sa destruction. C’est un herbivore quasi absolu qui se plaît au milieu des roseaux, des joncs, des iris. Cet infatigable moissonneur sectionne des végétaux pendant des heures, sans les consommer. Les étangs bordés d’une végétation abondante sont donc les pôles d’attraction et les lieux d’élection de cet animal. Il peut aussi s’attaquer aux cultures : carottes, choux, navets, Graminées, mais rarement. Le Rat musqué entre victorieusement en compétition avec le Rat d’eau ou Campagnol amphibie; partout où le Rat musqué s’installe, le Rat d’eau recule ou disparaît.
- Le Rat musqué creuse de longs terriers, aux galeries compliquées qui peuvent pénétrer de plus de 12 m sous les berges, perpendiculairement aux rives. Il ne peut s’installer que dans les régions à sol suffisamment meuble et où le niveau de l’eau, assez stable, permet l’installation de chambres au sol bien sec. Dans ces chambres, il fait son nid et stationne tout le jour; il lès abandonne au crépuscule pour commencer son travail de faucardage dans les eaux environnantes,
- Fig. 1. -— Le Rat musqué (Ondatra zibethica).
- (Dessin de Paul Bahblei., extrait du Traité de Zoologie de P.-P. Chassé, t. XVII, Masson, Paris, 1955, avec l’aimable autorisation de l’éditeur).
- L’élevage de ce Rongeur en France a été un succès : les peaux se vendent de 3 à 5 NF ; dans le seul département de la Mayenne, il en est encore livré au commerce de i5 à 20 ooo par an. Cependant cet aspect heureux n’a pas tardé à se doubler d’inconvénients qui l’ont fait classer comme animal nuisible. L’élevage et le transport en sont maintenant interdits sans autorisation spéciale. Dans les étangs les frayères sont constamment troublées par les allées et venues des individus échappés et les pisciculteurs ont constaté une certaine baisse de la reproduction chez les poissons. Les canards désertent les étangs débarrassés de leur végétation, où ils ne peuvent plus nicher en sécurité. Les dégâts aux cultures semblent négligeables. Les terriers du Rat musqué ayant un toit peu épais, nombreux sont les membres cassés chez les chevaux et les bovins. Des galeries percées dans les digues provoquent parfois des écoulements d’eau intempestifs. Des dégâts considérables ont été causés en Normandie (digue des Yeys près de Carentan). Dans le marais de Dol, on a dû prendre des mesures pour prévenir une catastrophe.
- Le Rat musqué est donc activement chassé. Le poison est peu efficace. On emploie soit des cartouches de gaz asphyxiants déposées à l’entrée des terriers, soit des pièges spéciaux car l’animal n’hésite pas à se mutiler pour recouvrer sa liberté. Par ces moyens, on freine l'expansion du Rat musqué en France; mais il ne semble plus possible de faire disparaître cette espèce des régions qu’elle a envahies. La faune de France comprend désormais une espèce de plus.
- R. D.
- p.357 - vue 360/558
-
-
-
- 358
- LE CIEL EN SEPTEMBRE I960
- SOLEIL : du Ter septembre au 1er octobre (à 0h) sa déclinaison décroît de + 8°22' à — 3°6' et la durée du jour de \Èa'2fkm à 41“44m ; diamètre app. le 1er = 31'45",1 .le 30 (à 24h) = 32'0",4. — LUNE : Phases : P. L. le 5 à 14“19“, D. Q. le 12 à 22“20">, -N. L. le 20 à 23M3in, P. Q. le 28 à 4“43m ; périgée 1e- 2 à 24h, diamètre app. 32'48" ; apogée le 14 à 18h, diamètre app. 29'32" ; périgée le 29 à 22“, diamètre app. 32'22". Principale® conjonctions : avec Saturne le 1er à 8h, à 4°26' N. ; avec Mars le 13 à 10h, à 4°56' S. ; avec Uranus le 18 à 7h, à 2°45' S. ; avec Mercure le 22 à 6h, à 3° 14' N. ; avec Vénus le 22 è 22“, à 3°1' S. ; avec Neptune le 23 à 21“, à 2°31' N. ; avec Jupiter le 27 à 10“, è 5°6' N. ; avec Saturne le 28 à 14“ à 4°27' N. Principales occultations : le 9, de 65 Baleine (mag. 4,3), immersion è, 4“41m,8 ; le 12, de 89 Taureau (mag. 5,8), émersion à l“Sm,9 ; le 13, de il7 Taureau (mag. 6,0), émersion à 0hb9ln,o. — PLANETES : Mercure est inobservable ; Vénus, un peu visible le soir moins d’une heure après le coucher du
- Amateurs d’ASTRONOMIE, adhère* à la
- SOCIËTË ASTRONOMIQUE DE FRANCE
- fondée en 1887 par C. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc
- Demandez les programmes au Siège Social Hôtel des Sociétés Savantes, 28, rue Serpente, Paris-6a Permanence, tous les jours non fériés de 14 à 17 h
- Cotisations : Région Parisienne, 25 NF ; France, 20 NF ; Étranger, 30 NF ; Étudiants, 3 NF ; Droit d’inscription pour tous, 2 NF.
- Spécimen gratuit dé la revue sur demande.
- Demandez « Splendeur de l'Astronomie », les plus belles photographies astronomiques : 16 pages 13.5x20,5, tirage néogravure bleu nuit.
- 0,65 NF franco.
- Soleil ; Mars, dans le® Gémeaux de mieux en mieux visible, le 16 : diamètre pol. app. 8",2 et mag. + 0,5 ; Jupiter, dans Ophiuchus brille le soir, le 21 : coucher à 21“34m et diamètre pol. app. 35",5 ; Saturne, dans le Sagittaire se couche plus d’une heure après Jupiter, le 15, diamètre pol. app. 15",4 et axes de l’anneau : 38",@ et + 16",7 ; Uranus, près de ij; Lion réapparaît le matin avant le lever du Soleil, surtout à la fin du mois ; Neptune, dans la Balance se perd dans les brumes crépusculaires ; Vesta, dans le Sagittaire visible le soir, position le 1er : 18“24m et — 26°5' (mag. 6,7), le 14 : 18h3Iln et — 26°19' (mag. 6,8), le 21 : 18h4lm et —26°25' (mag. 7,0), le 1er octobre : lS^sâ™ et —26°24' (mag. 7,1), en conj. avec Saturne le 30 à 3° 45' S. — ETOILES V AIMABLE S : minima observables d’Algol (2ni,2-3®,5) le 14 à 3“,4, le 14 à 0h2, le 16 à 20h,9 ; minima de (3 Lyre (3m,4-4m,3) le 3 à 20h,9, le 16 à 19h,2, le 29 à 17“,5 ; maxima de ï Céphée (3m,7-4m,6) le 3 à 10“,7, le S à, 19“ 5, le 14 à 4“,3, le 19 à 13“,1, le 24 à 21“,9, le 30 à 6h,7 ; maxima de b Aigle (3i“,7-4m,4) le 4 à 23“,9, le 12 à 4“,2, le 19' à 8h,4, le 26 à 12“,6 ; maxima de U Cygne (6“,i-12m,2) le 8, de T Grande Ourse (6m,4-13ni,5) le 22, de R Cassiopée (4m,'8-il3im,6) le 25. — TEMPS SIDERAL : au méridien de Paris à 0“ (T. U.) : le 1er : 22h49m59s, le 11 : 23“29m2#, le 21 : 0h8m50s, le 1er octobre : OMS^lb8.
- Phénomènes intéressants. — Observer la surface tachée du Soleil. — Equinoxe d’automne le 23 à Oh59ra. — Lumière cendrée de la Lune, le matin, du 15 au 18. — Le 5, éclipse totale de Lune invisible en France, commencement à 8“37m,9, milieu à ll“24m,2, fin è 44“4m,6 ; grandeur : 1,425. — Le 20, éclipse partielle de Soleil, invisible en France, commencement à 2.ibgm,9( maximum à 22“59jn,6, fin le 21 à 0“49m,6 ; grandeur : 0,614. — Les planètes Jupiter et Saturne sont encore bien visible® pendant la soirée. — A la jumelle, examiner les riches champs stellaires de la Voie lactée dans le Scorpion, Ophiuchus, Sagittaire, Ecu, Aigle, Cygne, Cassiopée.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- LES LIVRES NOUVEAUX
- Aide-Mémoire Dunod : Mathématiques générales, par M. DenisPapin. Tome I. 1 vol. 10 x 15, 328 p., 101 fig. 7' édition. Dunod, Paris, 1959. Prix, relié : 6,80 NF.
- Septième édition d’un ouvrage maintenant classique. En ce qui concerne le tome I, elle diffère assez peu de la précédente, si ce n’est que le calcul des probabilités a été complété par l’étude des fonctions aléatoires et des méthodes statistiques.
- De Magnete, par William Gilbert. Traduit : du latin en anglais par P. Fleury Mottelay.
- 1 vol. 13,5 x 20,5, liv-368 p., 90 fig. Dover Publications Inc., New York, 1958. Prix :
- 2 dollars.
- Cet ouvrage est une réédition de la traduction par Mottelay du traité de Gilbert qui est te grand ouvrage du xvn8 siècle sur le magnétisme. Le De Magnete fut publié en 1600 en langue latine. 11 ne rassemblait pas seulement tout ce qui était connu sur l’électricité et le magnétisme mais il fondait une nouvelle science et donnait à Gilbert le titre de « père de l’électricité moderne ». Gilbert fut le premier à utiliser le mot électricité. Il découvrit l’effet de la chaleur sur les corps magnétiques, établit clairement la distinction entre électricité statique et magnétisme, et fut le premier à expliquer le magnétisme terrestre en considérant ia Terre comme un gigantesque aimant. Ce fut aussi un des premiers grands expérimentateurs. Le livre est plein d’intérêt et le lecteur suivra avec plaisir les explications de Gilbert sur le magnétisme et l’électricité, la pierre d’aimant et les variations du compas. Des' notes en bas de page expliquent les points qui pourraient sembler obscurs à un lecteur moderne.
- Physics of the atom, par M. Russell Wehr et James A. Richards, Jr. 1 vol. 16 x 23, xu-420 p., 125 fig. Addison-Wesley Publishing Company Inc., Reading, Mass., 1960. Prix, relié : 8,5 dollars.
- Une introduction à la physique moderne destinée aux étudiants qui ont déjà acquis des
- connaissances élémentaires en physique classique et dont le niveau mathématique est sensiblement celui de la classe de mathématique élémentaire. Le plan de l’ouvrage est calqué, pour une bonne part, sur le développement historique de la Physique atomique, de sorte que les concepts nouveaux, généralement étrangers à l’expérience quotidienne, qui sont à la base de la physique moderne s’introduisent progressivement. Le texte est vivant et agréablement illustré. Quelques problèmes font suite aux différents chapitres qüi se répartissent ainsi : conception atomique de la matière, de l’électricité, des radiations, modèles de Bohr et de Rutherford, relativité, rayons X, ondes et corpuscules, théorie des solides, radioactivité naturelle, réactions nucléaires et radioactivités artificielles, énergie nucléaire, rayons cosmiques.
- A NOS LECTEURS
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-ô®
- Atomic power. An appraisal i.ncluding Aiomic energy in économie development. 1 vol. 14 x,22,5, 151 p., 34 fig. Pergamon Press, Londres, New York, Paris, 1957. Prix, relié : 21 sh.
- Ce livre, le premier d’une série consacrée aux aspects économiques de l’énergie nucléaire, rassemble les exposés d’un certain nombre de personnalités au 11e meeting annuel du Board of Governors de l’International Bank for Reconstruction and Development, la World Bank. D’une portée très générale, il s’adresse aussi bien aux techniciens qu’aux hommes d’affaires et aux économistes. C’est la raison pour laquelle les différents exposés sont précédés d’une série de notes sur l’atome, l’énergie atomique, les radioisotopes, etc., destinées à familiariser le lecteur avec les aspects scientifiques des problèmes débattus par les conférenciers. On trouvera en annexe d’utiles renseignements sur les prix et conditions de vente des combustibles et autres matériaux utilisés dans les techniques nucléaires.
- Détecteurs de particules (compteurs et scin-tillateurs) ; mécanisme et réalisation, par
- Daniel Blanc. 1 vol. 17x25,2, 324 p., 126 fig. Masson, Paris, 1959. Prix, broché : 39 NF.
- Cet ouvrage résume une partie du cours professé par l’auteur aux étudiants du Centre de troisième cycle de Physique nucléaire de la Faculté des Sciences de Toulouse. Dans les premiers chapitres sont présentées les lignes générales du mécanisme des détecteurs fondés sur l’ionisation dans un gaz, dans l’ordre croissant des tensions nécessaires à leur fonctionnement, chambres d’ionisation, compteurs proportionnels, compteurs de Geiger-Müller et à vapeur pure, compteurs à étincelles. Les compteurs à conduction sont étudiés ensuite. Les chapitres suivants sont consacrés aux détecteurs donnant un signal lumineux, scintillateurs, compteurs à effet Cerenkov, çt leurs auxiliaires indispensables, les photomultiplicateurs. Pour chaque catégorie de détecteurs, un chapitre spécial traite de la détection des neutrons. Les problèmes technologiques liés à la réalisation pratique des détecteurs font: l’objet ; des derniers cbapi-
- se tient à la disposition d6S lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers. „
- p.358 - vue 361/558
-
-
-
- 359
- W-
- -.«'•JiL
- HAT*i®*S
- 'I , i\ A < . .v •
- 30. Rue Saint-Augustin,
- f>uiS4arvtJ jdLu, irwnde^
- cTp?
- loture Electrique
- itin. PARIS-2* - OPE. 6Ô-45#W
- très. Une importante bibliographie — 1 500 références — permet de se reporter aux mémoires originaux. Ouvrage d'un niveau élevé supposant connues les notions de physique nucléaire et de la théorie cinétique des gaz correspondant au niveau de la licence ès Sciences. On pourra reprocher à l'auteur d’avoir parfois alourdi son texte par des considérations historiques de sorte que les mécanismes de base ne sont pas toujours clairement mis en lumière. Mais cet exposé de valeur soutient mieux qu’honorablement la comparaison avec les traités anglo-saxons publiés jusqu’alors. — R. R.
- Analytical Chemistry. Sonie new techniques,
- par A. G. Jones. 1 vol. 14 x 22, vm-268 p., lig. Butterworths Scientiflc Publications, Londres, 1959. Prix, relié toile : 40 sh ; édition américaine : 7,50 dollars.
- Gomme les autres branches de la chimie, la chimie analytique évolue et trouve dans le développement de la technique diverses occasions de se moderniser. C’est ainsi que des méthodes nouvelles sont apparues comme la chromatographie gazeuse, l’emploi des échangeurs d’ions, les titrages en milieu non aqueux, la photo-inétrie de flammes, etc. ; d’autres méthodes se perfectionnent comme le dosage des gaz dans les métaux, la réfractométrie ou la spectro-photométrie différentielles, etc. Ce sont ces diverses méthodes qui sont exposées d’une façon intéressante dans cet ouvrage.
- Analystes Pocket Book, par .1. H. Ma.ier. 1 vol. 13 x 18,5, 100 p. Butterworths Scien-tific Publications, Londres, 1959. Prix, relié : 17 sh 6 d.
- Formulaire des plus pratiques pour l’analyste qui y trouvera non seulement les différents facteurs chimiques employés en gravimétrie et les équivalents des solutions titrées, mais aussi d’utiles renseignements sur la préparation des réactifs, les produits de solubilité, les indicateurs, les concentrations des acides et des bases courants, etc.
- Handbook of Chemistry and Physics, édité par Charles D. Hodgman, Robert C. Weast, Samuel M. Selby. 40e éd. 1 vol. 13 x 19, xxii-3 456 p. Chemical Rubber Publishing Co.,
- Cleveland (Ohio), 1959. Relié toile.
- Cet excellent formulaire, désigné dans les laboratoires par le nom du rédacteur en chef, le Hodgman, connaît donc sa 40e édition (1958-1959) ; chaque édition a perfectionné ce travail considérable où chimiste et physicien ont de fortes chances de trouver le renseignement cherché, qu’il s’agisse de données mathématiques, de constantes physiques ou chimiques, de données cristallographiques, de renseignements sur les systèmes d'unités, etc. Sur papier indien très léger l’ouvrage est excellemment présenté.
- Les Réactions électrochimiques (Les méthodes électrochimiques d’analyse), par G. Char-lot, Mme J. Badoz-Lamblïng et B. Trémillon. 1 vol. 17 x 25, 396 p., 407 flg. Masson, Paris, 1959. Prix, broché : 60 NF ; cartonné toile : 68 NF.
- Les ouvrages du professeur Chariot ont toujours connu un très grand retentissement parmi les analystes. Il nous avait déjà donné, il y a quelques années, « L’analyse des réactions en solution », et « L’analyse quantitative minérale » dont les nombreuses éditions ont amplement démontré le succès auprès des chercheurs. Cette fois le professeur Chariot et ses collaborateurs ont choisi le thème des réactions électrochimiques comblant ainsi une grave lacune en raison du manque de coordination que l’on i-encontre en généralentre les différents chapitres des ouvrages consacrés à ce domaine délicat. Disons tout d’abord que l’aspect proprement physico-chimique des problèmes (thermodyna-
- mique, mécanismes) n’a pas été abordé, pas plus d’ailleurs que l’électrochimie industrielle qui opère dans des conditions parfois très différentes des conditions idéales réalisées en général dans le cas des méthodes électrochimiques d'analyse. Par contre, les auteurs ont développé une systématique des réactions électrochimiques en utilisant les courbes intensité-potentiel qui les caractérisent souvent d’une- manière simple. Gette systématique permet ensuite d’aborder d'une façon nouvelle et toujours avec le maximum d’efficacité les méthodes d’analyse. Parmi les chapitres les plus importants de cet ouvrage on peut' noter : les réactions électrochimiques qualitatives et quantitatives et les courbes intensité-potentiel au cours des réactions chimiques, le cas des réactions lentes, l’influence des facteurs physiques sur les phénomènes électrochimiques, la détermination expérimentale des courbes potentiel-courant. Puis viennent les applications de ces considérations générales à la potentiométrie, à l’ampérométrie, à la cou-lométrie. Les méthodes électrochimiques récentes telles que la chronopotentiométrie, la chrono-ampérométrie, les diverses méthodes polarogra-phiques oscîllographiques et alternatives et la polarographie par redissolution anodique font l’objet d’un chapitre spécial, de même que les solvants variés. Une part importante a été consacrée à l’appareillage. Peut-être reprochera-t-on parfois aux auteurs un excès de concision et l’emploi de notations quelque peu compliquées dans certains chapitres mais ces faits n’enlèvent rien à un ouvrage dont tout est neuf et remarquablement exposé. Le professeur Chariot et ses collaborateurs ont mené à bien une œuvre considérable et l’on ne saurait trop recommander ce livre à tous ceux qui, à un titre quelconque, s’intéressent à cette discipline. — R. R.
- Mécanismes électroniques en chimie organique, par Marc Julia. Préface de Marcel Delépine, de l’Institut. 1 vol. 16 x 25, 99 p., flg. Gauthier-Villars, Paris, 1960. Pràx : 16 NF.
- LA NATURE PLASTIFIÉE
- ENROBAGE DE SPÉCIMENS BIOLOGIQUES
- dans résine artificielle claire comme du cristal
- CHEZ VOUS
- Demandez renseignements pour colis d’essai avec instructions
- Joindre enveloppe timbrée avec adresse S.V.P
- INTERNATIONAL PLASTIC RESEARCH B. P. 03 CONTES (A.-M.)
- L’étude des mécanismes de réaction en chimie organique est suffisamment avancée pour qu’un certain nombre de notions soient considérées comme classiques. Le but de cet ouvrage est d’aider ceux qui voudront acquérir les bases fondamentales de ce domaine de la chimie qui permet de comprendre l’influence des différents facteurs structuraux électroniques ou stériques, nature du solvant, qui influencent les réactions. Il s’adresse plus spécialement aux étudiants vers la fin de leur licence, c’est-à-dire ayant déjà étudié la chimie organique, ou à ceux qui, déjà licenciés, veulent se familiariser avec ces notions quelque peu nouvelles.
- Métaux non ferreux. Cuivre, zinc, plomb, étain, nickel, par Robert Gadeau. 1 vol. 11,5 x 16,5, 180 p., 20 fig. Collection Armand Colin, Paris, 1959. Prix, broché : 4,50 NF.
- Auteur, dans la même collection, d’un précédent ouvrage sur l’aluminium, R. Gadeau résume dans le présent travail nos connaissances essentielles sur les cinq métaux non ferreux les plus importants : cuivre, zinc, plomb, étain et nickel. Chaque monographie comporte un historique, l’étude des minerais, l’exposé de la préparation du métal, de sa métallurgie et de sou raffinage, puis ses propriétés et les divers alliages auxquels il donne naissance ; l’auteur passe ensuite en revue la fonderie du métal pur et de ses alliages, leur transformation en demi-produits et leur mise en œuvre (déformation plastique, soudage et traitements des surfaces), enfin leurs applications. Des données statistiques intéressantes complètent ce travail où l’auteur a su se limiter aux faits essentiels.
- Flore de l’Afrique du Nord (Maroc, Algérie, 7’unme, Tripolitaine, Cyrénaïque et Sahara), par René Maire, membre de l’Institut, professeur à l’Université d’Alger ; publiée par les soins de Pierre Quézel, professeur à l’Université d’Alger. Vol. VI. Monocotyledonae Liliales : Amarillidaceae, Dioscoreaceae, Iri-dacae ; Scitaminales ; Gynandrales. Avec Supplément aux tomes I à VI, par P. Quézel. 1 vol. 16,5 x 25, 400 p., 198 fig. Paul Leche-valier, Paris, 1959. Prix : 50 NF.
- Poursuivant la publication de cet important ouvrage d’après les notes laissées par le regretté professeur René Maire, M. Pierre Quézel donne dans ce sixième volume la fin des Monocotylé-dones. Il y a ajouté un supplément qui fait le point sur la connaissance actuelle des Mono-cotylcdones en Afrique du Nord et au Sahara. L’ouvrage constituera la base des études botaniques dans la région considérée.
- Conservation de la vie par le froid, par Louis Rey. Préface de Jean Rostand, de F Académie française. 1 vol. 17,5 x 24, 168 p.,
- 83 fig. Actualités scientifiques et industrielles. Hermann, Paris, 1960. Prix : 27 NF.
- Quand le moyen aura été trouvé de pratiquer couramment des greffes de tissu ou d’organe d’individu à individu, il faudra disposer de la possibilité de conserver intacts les futurs greffons en vue de leur utilisation ultérieure. Les expériences de Paul Becquerel ont prouvé que des graines, des spores, de petits animaux comme les Rotifères et les Tardigrades, pouvaient supporter d’être refroidis jusqu’au voisinage du zéro absolu. M. Louis Rey a étendu ces expériences aux Vertébrés supérieurs. Un fragment de tissu cardiaque d’embryon de poulet, et même un cœur entier d’embryon, peuvent être gardés très longtemps à la température de l’azote liquide (—196°) en état de « vie suspendue ». Pourvu qu’ils soient imprégnés d’une solution convenable de glycérol et qu’ils soient dégelés rapidement, ils reprennent vie sans altération. Dans son laboratoire de l’École normale supérieure, M. Louis Rey a pu étudier en détail les conditions optimales d’une telle conservation par le froid, et éclaircir les raisons des vertus protectrices du glycérol. Ces admirables expériences lui ont valu le prix Pelman de Biologie en 1958.
- Zoologie. Tome II : Procordés et Vertébrés, par H. Boue et R. Ghanton. 1 vol. 15 x 21, 583 p., 589 fig. Doin, Paris, 1959. Prix, broché : 55 NF.
- Ce livre est un élément de la collection Biologie destinée à l’usage des candidats aux grandes écoles biologiques, aux écoles normales supérieures et aux concours de recrutement de l’enseignement du second degré. Satisfaire un pareil éventail de besoins* à des niveaux si différents semble une gageure. Le présent - volume (fascicule 1 du tome lî) traite des Procordés (fort
- p.359 - vue 362/558
-
-
-
- 360
- longuement) et des Vertébrés (à l'exclusion des Mammifères).
- Ils n'étaient pas dans l'arche, par Herbert AVendt. Traduit de l'allemand par A. Pou-getoux. 1 vol. 14 x 21, 448 p., 122 fig. in texte, 58 planches hors texte. Denoël, Paris, 1959. Prix : 16,50 NF.
- Aborder la zoologie par le biais de l’histoire est un moyen ingénieux d'attirer à cette science ceux que rebuteraient la classification et l’anatomie comparée. H. Wendt en a usé avec une incontestable virtuosité, n’hésitant pas à faire intervenir la légende, les récits ou les descriptions d’auteurs anciens, de navigateurs imaginatifs. La licorne, les sirènes, le yéti apparaissent tour à tour, parmi d’autres espèces qui attendent ou ont finalement trouvé leur véritable définition : curieux carrousel où les données zoologiques et paléontologiques prennent tout leur relief, au delà des fantaisies et des observations naïves. Remarquable iconographie, puisée dans les peintures rupestres, les vases grecs, les dessins chinois, les miniatures du moyen âge.
- Les plus beaux poissons exotiques, par H. et M.-L. Bauchot. Plus de 100 photos en couleurs de B. Villaret, G. Wolfsheimer, A. Van den Nieuwenhuizen, L. E. Perkins et G. Richard. 1 vol. 21 x 27,5, 96 p. Larousse, Paris, 1959. Prix, cart. ; 23 TNF.
- Très bel ouvrage de la collection Nature et Beauté. Le texte, assez court, décrit succinctement le monde si vaste des Poissons, leurs divers habitats et leurs adaptations variées. Mais les images nous présentent surtout les poissons les plus colorés ou les plus étranges.
- Passeport pour l'Océan, par A. Malkus. Traduit de l’anglais par A. de Perrinelle et R. Foueré. 1 vol. 15,5 x 21, 222 p., 16 photos. Collection Découvertes. Marne, Paris, 1959. Prix : 9,60 TNF.
- Ce livre, destiné à la jeunesse, est une sorte d’anthologie de la mer, présentée sous une forme aimable et claire. On y trouve successivement : un résumé des théories de la naissance des océans, une description physique de cette masse liquide, l’histoire de son exploration, les espèces les plus spectaculaires de sa faune et quelques indications sur l’exploitation de ses richesses.
- Géologie de la région parisienne, par
- R. Soyer et A. Cailleux. 1 vol. 11 x 17, 128 p. Coll. Que sais-je ? Presses Universitaires de France, Paris, 1960. Prix, broché : 2 NF.
- ha région parisienne telle que l’entendent les auteurs s’étend à 30 km environ autour de Paris. Pour nous faire connaître sa structure géologique, ils développent tout d'abord quelques généralités sur le bassin de Paris, puis plus particulièrement sur les régions naturelles de L’Ile-de-France. Mais le corps de l’ouvrage est consacré à la série stratigraphique qui est prise à partir du socle cristallin et des terrains primaires puisque ceux-ci ont été atteints au fond de certains sondages pétroliers du bassin de Paris. Les faciès des terrains secondaires et tertiaires sont décrits en détail et des listes de fossiles sont fournies le cas échéant pour chaque horizon. En outre, la géologie appliquée n’est pas négligée, depuis les matériaux de construction tirés du sous-sol jusqu’au pétrole. Aide-mémoire commode (il contient même un index des localités) auquel ne manquent que quelques coupes schématiques pour être un parfait vade-mecum du promeneur géologue aux environs de Paris.
- Les animaux préhistoriques, par Josef Augusta. 1 vol. 26 x 35, 164 p., 60 illustrations en couleurs de Zdenek Burian. La Farandole, Paris, 1959. Prix, relié toile sous jaquette en couleurs : 28,50 TNF.
- L’auteur dresse un tableau suggestif de l’évolution de la vie à travers les époques géologiques, puis il développe séparément L’histoire du règne végétal et celle du règne animal. Ges données générales préparent à la compréhension des aquarelles magnifiques où sont donnés des tableaux de la vie à tous les âges de la Terre, au sein des océans comme sur les continents, qu’accompagnent des légendes copieuses
- et intéressantes. Sans doute un peu d'imagination a présidé à ces reconstitutions, et on se demande si vraiment le Smilodon (le tigre aux dents en sabre) s’est jamais attaqué à des éléphants. Mais des critiques de détail ne sauraient diminuer l’intérêt de ce superbe volume.
- Encyclopédie de la vie sauvage, par Rutherford Platt et le personnel du studio Walt Disney. Préface de Walt Disney. Texte français de Denis-François. 1 vol. 21 x 28,5, 176 p., illustr. en couleurs. Hachette, Paris, 1959. Prix, cartonné : 18,50 NF.
- fous ceux qui ont vu les films de la série « C’est la vie » contempleront et liront avec plaisir toutes les pages de ce bel album où se retrouvent les meilleures images de ces bandes : lies merveilles de l’Arctique, la Montagne forteresse, la Grande Prairie, les Miracles du Désert, Grandes Aventures des petits mondes, le Grand Marais, l’Afrique mystérieuse. Pour restituer le mouvement de ces images, Denis-François a .suivi dans son texte, pas à pas, les films dont elles sont tirées. Un joli cadeau pour de jeunes naturalistes.
- Les cancers, par F. Rigolage, docteur en médecine. 1 vol. 15 x 20, 408 p. N. Boubée, Paris, 1959. Prix : 32 NF.
- Dans ce livre un peu touffu et qui comporte quelques longueurs, l’autour a voulu faire, pour le non-spécialiste, mais peut-être aussi pour le médecin, une revue générale de tout ce qui concerne le cancer, ou plutôt les cancers. Il attribue une grande importance à des aspects souvent négligés : rapport du cancer avec le « terrain », avec les fonctions endocriniennes, etc. Une « théorie chimique » du cancer lui parait la plus appropriée. Il insiste sur l’utilité d’un diagnostic précoce et sur celle d’un bon état général. Si ses idées peuvent être discutées, ses recommandations paraissent sages.
- Toxine et antitoxine diphtériques ; étude immunologique, par Edgard H Relyveud. 1 vol. 17,5 x 24, 164 p., 58 fig. Actualités scientifiques et industrielles. Hermann, Paris, 1959. Prix : 24 NF.
- L’auteur, assistant à l'Institut Pasteur, a fait une étude très approfondie de la préparation de la toxine diphtérique de façon à réduire au minimum les autres protéines. Il a mis en évidence plusieurs motifs antigéniques distincts sur la molécule de toxine et les divers anticorps correspondants dans les sérums andidiphtériques. Son ouvrage traite de la préparation et de la purification de la toxine, des analyses immunologiques, de l’hyperimmunisation des chevaux avec l’anatoxine purifiée, de la réaction toxine-antitoxine, des groupements spécifiques dans le motif antigénique et des anticorps correspondants.
- Géographie Universelle Larousse. Tome II : Afrique, Asie péninsulaire, Océanie, par Pierre Deffontaines avec la collaboration de Mariel Jean-Brunhes Delamarre et de 62 spécialistes. 1 vol. 21 x 30, 392 p., 621 ill. en noir dont 55 cartes, 32 h. t. en couleurs dont 5 doubles cartes en relief. Larousse, Paris, 1959. Prix, relié : 75 NF.
- Avec ce tome II, consacré à l'Afrique, à l’Asie péninsulaire et à l’Océanie, Larousse poursuit l'effort entamé de façon spectaculaire depuis la parution du tome I. Ce nouveau volume traite de régions en pleine transformation et que nous avons intérêt à mieux connaître. On notera particulièrement les chapitres consacrés à l'Inde, à l’Afrique Noire, à l’Australasie ; mais l’ensemble témoigne d’une haute connaissance des problèmes économiques et humains qui se posent à propos des régions sous-développées de la planète. Cette « connaissance de l'Homme » mérite d'être soulignée et appréciée, car c’est elle qui est le critère de la vraie géographie : l’action de l’homme sur la nature, la réaction de celle-ci forment la trame millénaire de toute notre histoire. Illustrations magnifiques, aussi bien les cartes (à la méthode nouvelle et intéressante) que les photos en couleurs : on garde longtemps la vision de l’oasis de Béni-Abbés.
- Les Alpes à vol d'oiseau. De la Côte cL’Azur d la Forêt viennoise. 1 vol. 24,5 x 30,5, 54 pages de texte et 92 photographies h. t. dont 9 en couleurs, Rümmerly et Frey, Berne, 1959. Prix : 39 francs suisses.
- Les s publications de géographie aérienne se multiplient, et nous leur avons récemment consacré tout un article dans nos colonnes (novembre 1959). Le bel ouvrage des Editions Rttm-merly et Frey nous est parvenu trop tard pour que nous ayons pu le recenser avec les autres, mais nous attirons l’attention sur l’exceptionnel apport qu’il représente. On sait que R. et F. sont spécialisés dans les éditions géographiques, et notamment la publication de cartes. On ne peut que les féliciter d'avoir élargi leur horizon et de s’orienter vers la publication de véritables atlas photographiques aériens : que ne donneraient pas de tels atlas consacrés, par exemple, à l’Europe danubienne, à la Scandinavie, aux États-Unis, au monde polaire... ? Tel qu’il se présente, celui-ci fournit 83 photos (grand format) en noir et 9 photos en couleurs, prises par les opérateurs de Swissair. Intelligemment commentées, ces vues donnent du monde alpestre une série d’images saisissantes, qui seront pour les géographes d’un précieux secours. — P. W.
- Islam d'Espagne. Une rencontre de l’Orient et de l’Occident, par Henri Terrasse. 1 vol.
- 14 x 20,5, 299 p., 50 ill. h. t., 65 ill. dans le texte dont 42 dessins de Jean Hainaut et 17 de Georges Marçais. Coll. Civilisations d’hier et d’aujourd’hui. Plon, Paris, 1959. Prix
- 15 NF.
- Le célèbre islamisant qu’est Henri Terrasse nous apporte ici une étude lucide sur cet Islam espagnol qui a si profondément marqué la péninsule ibérique. Au point de rencontre de deux civilisations, l’Espagne a gardé des sept siècles d’occupation musulmane une empreinte profonde, particulièrement dans le domaine artistique : on appréciera par exemple les pages consacrées à l’art mudéjar (les mudéjars étaient les musulmans qui acceptaient de vivre sous le régime chrétien, et qui généralement ne furent pas maltraités). Au total, cet ouvrage ouvre des vues nouvelles sur la féconde symbiose qui associa pendant le Moyen Age espagnol l’Orient et l’Occident. Un livre de vulgarisation au bon sens du terme, comme nous en manquions précisément.
- Le vol des avions, par Jean Renaudïe. 1 vol. 11,5 x 17,5, 128 p., 40 fig. Coll. Que sais-je ?. Presses Universitaires de France, Paris, 1959. Prix : 2 NF.
- Après un court rappel des bases de l’aérodynamique et des différents types de propulseurs utilisés, l’auteur passe en revue chaque cas de vol : vol horizontal, montée, descente, décollage et atterrissage. Il termine par quelques aperçus sur les essais en vol. Les différents phénomènes sont présentés surtout dans leur réalité physique plutôt que sous une forme mathématique rigide.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- CONSULTATIONS TECHNIQUES pour la lutte contre le bruit : Isolation phonique, Correction acoustique, Vibrations.
- R. GRUZELLE, Ingénieur-Conseil Expert, 8, rue des Moines, Paris-17#. MAR. 92-07.
- RECHERCHE Carte géologique de la région de Falaise n° 45, édition Ch. Béranger. J. MALOU, les Rochers, Falaise (Calvados).
- Dans notre numéro d'octobre
- L’Actualité instrumentale
- L'Exposition de Physique
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 3e trimestre i960, n° 3528. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A, (3lOÔ66), LAVAL, NQ 4l37, — 8-1960.
- p.360 - vue 363/558
-
-
-
- N° 3305
- Septembre I960
- LA NATURE
- Une population primitive à Madagascar :
- LES ANTANDROY
- 1. La vie au village — Les bœufs
- A l'extrême sud de Madagascar, dans le décor aride d’une zone subdésertique, l’Androy (D, territoire de 20 000 km2, s’ouvre sur l’Océan Indien par une côte inhospitalière; le cap Sainte-Marie, battu des vents, en est l’image la plus sauvage et la plus tourmentée. Deux postes, Békily et Tsivory, limitent au nord son extension à la frontière du pays Bara. Deux lleuves, le Mandraré et la Ménarandra, forment ses frontières naturelles à l’est et à l’ouest, mais ceci n’empêche que l’Androy est la région de l’île la plus pauvre en points d’eau fl la sécheresse y dure huit mois de l’année.
- Quand on pense à l’Androy, on évoque tout de suite sa \égélation d’épineux, ses plantes à latex, ses arbres sans feuilles aux formes étranges, toute une flore qui s’est adaptée au manque d’eau et qui constitue ses paysages si particuliers. La forêt des fantsilolsy (2) et des famata (fîg. 3 et 5) donne à celle région son caractère Je plus original.
- Mais l’Androy c’est aussi les terrains caillouteux du plateau central, les scintillements des quartz roses et des micas, les vastes étendues ponctuées de termitières et du vert vif des sakoa, la forêt-parc de la région d’Ampanihy avec ses baobabs, géants d’un autre âge; c’est encore les ravins desséchés qui deviennent torrents inter-milieu ts à la saison des pluies, les terres sablonneuses de la zone côtière, la végétation déformée par le vent, mais aussi les champs de sisal de la vallée du Mandraré, les troupeaux de bœufs qu’011 rencontre partout et les villages perdus loin des pistes, derrière une haie d'agaves. Certains de ces villages, tels ceux de la région de Békily comme Androidrov, ou encore ceux de la région de Jaffaro, retranchés au milieu d’un désert de pierres ou dans une forêt, sont d’accès peu facile.
- 1. Audrey : pays des épines. Antandroy : du pays de l’Androy.
- 2. Aroir à la fin de cet article une note explicative sur les végétaux cités par l’auteur.
- Enfin, il est encore deux images inséparables de l’Androy : la piste, symbole rassurant de vie et de présence humaines dans ces paysages souvent désertiques dont elle est l’un des éléments essentiels, en est une; les tombeaux, massifs quadrilatères de pierres, ornés souvent de cornes et de mâts sculptés nommés alolao, en sont une autre aussi familière (fig. 6 et 7).
- Jusqu’en 1928, les villages disparaissaient derrière les haies géantes des rakaita (cactus) (fig. 2) qui couvraient l’Androy et qui constituaient une nourriture d’appoint pour les bêtes et les gens en période de sécheresse. La destruction de tous les cactus par une cochenille modifia en quelques années l’aspect de l’Androy et priva l’extrême sud de Madagascar d’un de ses caractères défensifs. La disparition des rakaita engendra aussi des perturbations économiques et sociales et les disettes qui suivirent alors furent la cause des premières émigrations à travers l’île.
- La population. — Dans ce décor vit la population la plus primitive de l’île, mais aussi la plus robuste. La particularité du climat de l’Androy, de sa flore adaptée au manque d’eau, la préserve des contacts extérieurs et elle a vécu longtemps retran-
- Fig. 1. — Carte de l’Androy.
- p.361 - vue 364/558
-
-
-
- 362
- Fig. 2, 3 et 4. — A gauche : Rakaita (cactus) au bord d’une piste. — Au milieu : Fantsilotsy dans une forêt d’épineux.
- A droite : Piste bordée de baobabs.
- chée derrière ses épines. Cette population reste d’ailleurs très attachée à son pays; les rigueurs du climat de cette zone subdésertique et les disettes qui s’ensuivent parfois peuvent pousser périodiquement les Antandroy hors de leur habitat, l’attachement au pays d’origine les y ramène tôt ou tard. Le caractère môme de l’Antandroy n’est pas affecté par tant de conditions hostiles et il semblerait plutôt que celles-ci aient un rôle tonifiant sur la personnalité des individus. L’Antandroy est gai, ouvert, orgueilleux de sa race et de son pays qu’il regrette dès qu’il en est éloigné, quel que soit l’endroit où il se trouve. La verte Nossi-Bé ne peut définitivement le conquérir ni même le distraire du nostalgique regret de son pays d’épines.
- Toute l’existence de l’Antandroy se passe dehors, en contact direct avec la nature. Sa case n’est qu’un abri pour le repos. Aussi la vie au grand air, une longue pratique de la marche lui ont donné un corps robuste et ses gestes, qui ne connaissent ni l’entrave du vêtement ni la limitation de l’espace, ont une aisance que nous pourrions lui envier. La femme a un beau port de tête, dû à sa façon de porter les fardeaux qui développe
- ijl
- Fig. 5. — Un famata, arbre sans feuilles.
- la musculature du cou et des épaules sans la rendre masculine.
- Dans l’ensemble, l’Antandroy est plus grand que la normale, la peau est plus ou moins foncée. Certains ont une pigmentation relativement claire, avec des yeux gris vert dans un visage ovale plus régulier que le type malgache courant : visage plutôt large, pommettes saillantes, narines assez ouvertes, bouche plus lippue.
- L’Antandroy porte les cheveux courts; la femme divise les siens en nombreuses tresses formant plusieurs petits chignons autour de la tête (fig. g et 12). En période de deuil, la femme se coupe les cheveux à ras (lig. 8) et l’homme laisse pousser cheveux et barbe, alors qu’en temps normal il s’épile soigneusement tout le corps avec une petite pince qu’on lui voit fréquemment suspendue au cou.
- Assez souvent, nous avons rencontré des femmes qui portaient des tatouages sur le visage : points sur le front et les joues, quelquefois la croix antandroy au milieu du front entre les deux yeux.
- L’Antandroy vit quasiment nu. Le « salaka « qui l’habille, sorte de pagne fait d’une bande de tissu de coton de 20 cm de large sur près de 3 m de long, passe entre ses jambes et s’enroule autour de ses hanches, un des pans retombant devant, l’autre dans le dos (fig. n). Les extrémités du salaka sont ornées de dessins géométriques de couleurs rouge et noire tissés sur quelques centimètres. A moins que l’Antandroy 11e porte le chapeau en peau de bœuf, de chèvre ou de mouton qui rappelle par sa forme la bosse du zébu, il a le plus souvent un petit chapeau conique en vannerie, orné de fils de coton noir et rouge. Quand la température est fraîche, il s’enroule dans une grande pièce de cotonnade qui, la nuit, lui sert de couverture.
- La femme a pour tout vêtement le « sikina », tissu de coton écru qu’elle roule serré au niveau de la poitrine (fig. 12), rarement en dessous, et qui la couvre jusqu’à mi-mollet. Pourtant une évolution est sensible dans les centres et dans les villages des concessions où les femmes commencent à s’habiller de cotonnades vives et portent parfois des vêtements à l’européenne et où quelques hommes adoptent le short.
- p.362 - vue 365/558
-
-
-
- 363
- Fig. 6 et 7. — Image familière de l’Androy : les tombeaux. Des alolao ornent le tombeau de droite.
- Les femmes ne portent généralement pas de chaussures. Les hommes ont assez souvent des sandales taillées au couteau dans une peau de bœuf; les poils sont en dessous de la semelle qui est arrondie vers le talon et carrée du bout pour protéger les orteils.
- Hommes et femmes portent des bracelets d’argent; ceux des femmes sont plats, plus ou moins larges, ornés d’éléments géométriques; l’homme a fréquemment, à l’un des avant-bras, un anneau rond non fermé dont les extrémités, plus épaisses, sont ciselés. Les colliers sont en faveur chez les deux sexes : perles d’argent de différentes grosseurs pour les femmes; parfois d’autres éléments viennent s’intercaler entre ces perles d’argent : cornaline, ou bouts de bois qui sont des amulettes. Le collier masculin est moins une parure qu’une manière pratique de porter les talismans qui protègent et guérissent; il ,se réduit parfois à un fil de coton auquel est suspendue la pince à épiler, ou bien un bout de bois, ou encore une pierre quelconque.
- Jusqu’à deux ans, l’enfant vit suspendu dans le dos de sa mère, enveloppé dans un repli du sikina (fig. io) ; il ne porte le salaka ou le sikina que vers cinq ou six ans.
- Le village et Vhabitation. — Le nom du village évoque souvent une particularité du pays, faisant allusion à la végétation (A.ndroy : pays des épines), à une rivière proche, à la
- nature du sol; ou encore il peut traduire une préoccupation des habilanLs, comme Ankobo qui évoque les trous creusés pour prendre au piège les sangliers qui viennent dévaster les cultures. Il rappelle parfois aussi un fait historique comme le passage d’une migration; ainsi pour Andalatanosy : les Anta-nosy donnèrent leur nom à ce village qui se trouvait être sur leur route lorsqu’ils émigrèrent de la région de ForL-Daupliin vers celle de Tuléar.
- Les villages ont souvent une stabilité toute relative et ils se déplacent en partie ou en totalité pour les motifs les plus divers. Les bœufs, nous le verrons, jouent un très grand rôle dans la vie des Antandroy; en général, ce sont les bœufs qui déterminent le plus souvent l’exode d’un village ou sa division. A Bedona et à Antsihanamasy, les villages se sont scindés pour éviter les batailles entre les taureaux et les querelles entre les propriétaires qui en résultaient. Les dissentiments peuvent naître aussi parce que les cultures sont broutées par les bœufs d’un voisin, ce qui entraîne le déplacement de toutes les cases d’une famille et la naissance à quelque distance de là d’un nouveau hameau. Parfois encore, ce sont les transhumances annuelles à la saison sèche qui vident un village dans sa presque totalité et provoquent la création d’un hameau dans une région dite de pâturages.
- Chaque village a sa ceinture d’épines; il est circonscrit par les aloès qui ont remplacé les remparts de cactus derrière
- Fig. 8 et 9. — Coiffures de femmes antandroy : à gauche, en période de deuil, les cheveux sont coupés ras ; an milieu, divisés en nombreuses tresses, les cheveux forment plusieurs petits chignons autour de la tête. — Fig. 10 fà droite). — Femme portant son enfant
- suspendu dans son 'dos.
- p.363 - vue 366/558
-
-
-
- 364
- Fig. 11 (à gauche). — Antandroy revenant du marché. Il porte le « salaka » et le petit chapeau conique en vannerie. Il tient dans la main droite sa fronde dont il se sépare rarement et dont il se sert avec une grande habileté. Le bracelet d'argent qui orne son poignet gauche est le bijou traditionnel de VAntandroy. — Fig. 12 (à droite). — Le « sikina » est le vêtement des femmes de l’Androy.
- lesquels s’abritaient les cases il y a presque trente ans et qui subsistent encore ici et là, comme à Androidroy ; ils font imaginer la physionomie des villages antandroy avant la destruction des rakaita par la cochenille. Cette ceinture d’épines est un moyen de défense contre les intrus; elle permet une surveillance plus facile des biens du village, en particulier des boeufs. Quelques passages permettent de pénétrer dans ces enceintes épineuses et fréquemment, à l’intérieur, des lignes d’agaves courent entre les cases pour délimiter les quartiers formés par les habitations d’une même famille et son parc à bœufs.
- La topographie du village affecte une grande fantaisie. Ici, les cases sont groupées par trois ou quatre, chaque groupe séparé par une distance de quelques centaines de mètres: ailleurs, elles sont rangées autour d’un espace libre où souvent est planté un arbre, kily ou sakoa, et qui est en quelque sorte la place du village (fig. 18) où se réunissent les groupes pour bavarder ou faire la sieste. A proximité, quelquefois même à l’intérieur du village, on trouve certaines cultures comme le maïs, protégées par des haies d’aloès ou de rakaita.
- Souvent, un seul parc rassemble tous les bœufs du village. Dans ce cas, le parc est situé vers le centre et toutes les cases
- p.364 - vue 367/558
-
-
-
- Fig. 15. — Un grenier monté sur pilotis dans un village de forêt.
- semblent en défendre l’entrée. Le parc à bœufs est entouré de barrières grossièrement faites de branches entrelacées ou encore d’aloès.
- Dans chaque village on trouve un ou plusieurs greniers sur pilotis (fig. i5) qui rappellent par leur style les cases d’habitation et qui sont destinés à préserver les provisions de l’attaque des bêtes.
- Avec son unique pièce, l’habitation antandroy nous offre du nord au sud le même dessin ; elle ne montre quelque variété que dans les éléments employés pour sa construction. L’Antandroy utilise les matériaux qu’il trouve sur place : bois de fantsilotsy dans les régions où la forêt est proche; terre et chaume, hampes d’agaves ou roseaux ailleurs. La zone côtière, plus 'riche, a des cases plus élevées que celles des villages pauvres de la région du plateau.
- L’habitation n’a aucun luxe; son aspect sévère est parfois atténué par des dessins géométriques très simples sculptés au couteau sur l’encadrement de la porte (fig. 17) et même sur le pignon et qui constituent la seule recherche de décoration. Si l’unique pièce de la case a parfois trois portes, elle n’a jamais de fenêtre. Le sol de terre battue est recouvert de nattes; il n’y a pas de meubles; les nattes sur lesquelles on dort sont roulées et appuyées à la paroi Est. Le plus souvent la cuisine se fait à l’intérieur de la case, par terre; aucune ouverture de dégagement n’est prévue pour la fumée qui s’échappe par la porte et filtre à travers le chaume du toit; aussi l’intérieur de la case est noir de suie.
- La nourriture. — Le manioc et les laitages sont la base de la nourriture de l’Antandroy. Les racines de manioc sont bouillies à l’eau comme les patates, ou encore découpées en rondelles et cuites dans du lait. Le maïs est pilé et cuit quelquefois dans du lait, mais en général les céréales sont bouillies à l’eau. La graisse n’est jamais utilisée pour la cuisson des aliments.
- La viande reste une nourriture d’exception. Le bœuf est consommé surtout au moment des funérailles; la chèvre et le mouton, et à défaut la volaille, dans des circonstances marquantes comme les naissances, les mariages, la visite d’un parent ou d’un hôte.
- Des fruits sauvages viennent compléter cette nourriture fru-
- gale : fruits de « lamoty » dont l’arbrisseau est toujours respecté lors du défrichement des terres, fruits des rakaita, du kily et du sakoa. Le miel est recherché dans la forêt et quelques Antandroy ont des ruches faites d’un tronc d’arbre évidé où une fente permet la circulation des abeilles (fig. 16). Les troncs sont posés horizontalement, à 1 m du sol environ, sur deux branches entrecroisées. Le miel est une nourriture noble qu’on offre parfois aux hôtes de marque.
- L’Antandroy chasse parfois des pintades, des hérissons et consomme à l’occasion la viande des sangliers qu’il a tués, mais il n’élève pas de porc car cette viande est « fady » (interdite) pour lui.
- Les repas sont variables en fréquence et en composition suivant la saison, les récoltes, la pénurie ou l’abondance des nourritures. L’Antandroy mange quand il peut, il supporte des privations très dures avec une apparente sérénité. C’est qu’en effet la nourriture est réduite à un minimum vers le mois d’octobre. Le lait, consommé surtout sous forme de lait caillé, fait défaut car, trop peu nourries, les vaches n’en donnent plus. Les greniers sont vides car l’Antandroy, imprévoyant de nature, a consommé et vendu trop facilement ses récoltes sans souci du lendemain. A défaut d’antaka (espèce de haricot très dur qui constitue une nourriture assez grossière), de manioc, de maïs ou de voanemba (légumineuse), il recherche toute une nourriture de remplacement : nourriture pauvre, composée surtout de racines et de tubercules aqueux, fangitse et autres, articles de rakaita à l’occasion. Les amandes de sakoa deviennent un élément essentiel de sa nourriture et les fruits du tamarinier sont aussi une nourriture d’appoint.
- Le problème de Veau. — L’eau est le problème majeur pour l’Androy et les villages s’approvisionnent où ils peuvent. C’est la principale occupation des femmes de la recueillir précieusement où qu’elle se trouve et de quelque manière qu’elle se présente, en dehors des rivières, des mares et des puits : rosée, pluie, eaux de ruissellement dans les ornières des pistes. Cette eau n’a ni fraîcheur ni limpidité, et celle qui vient des puits est assez souvent saumâtre.
- Une enquête effectuée en 1967 et qui a porté sur m villages tirés au sort, a révélé que 37 d’entre eux avaient la possibilité d’avoir l’eau d’un puits quand il n’est pas à sec, qu’il se trouve
- Fig. 16. — Ruches faites de troncs d’arbres évidés.
- p.365 - vue 368/558
-
-
-
- 366
- dans le village ou distant de quelques kilomètres. Une douzaine de villages puisaient l’eau dans des mares qui servent à la fois de baignade et d’abreuvoir pour les boeufs.
- Nombre de villages sont installés non loin d’un « sakasaka »; rivière pour les autochtones, ce n’est en réalité qu’un ravin desséché, trace du parcours des eaux qui dévalent suivant une ligne de pente du terrain, au moment des fortes pluies; les torrents, sur leur passage, creusent ce lit qui reste à sec la plupart du temps.
- Le Mandraré, la Ménarandra et la Manambovo alimentent en eau beaucoup de villages proches ou éloignés de leurs rives, encore que la Ménarandra n’ait guère d’eau pendant les derniers mois de la saison sèche et que la Manambovo soit à sec les trois quarts de l’année. Mais les sables gardent quand même suffisamment d’eau et on obtient cette eau en creusant des trous dans le thalweg où les femmes la recueillent patiemment avec une petite calebasse à mesure que les trous se remplissent.
- Nous avons dit que les femmes s’occupaient de l’approvisionnement en eau ; elles partent souvent dès le matin et reviennent généralement aux heures chaudes de la journée, quelquefois même dans l’après-midi pour les villages les plus déshérités car les distances sont parfois très grandes et l’attente au puits interminable; il ne faut pas moins de temps quand l’eau est puisée dans le thalweg avec une petite calebasse.
- Nikoly s’approvisionne en eau à la Manambovo distante de io km; les femmes partent à 6 heures du matin et ne reviennent que vers n heures. Analapamata, Ambaro et Anteny semblent être parmi les villages les plus déshérités; les femmes partent très tôt le matin et ne rentrent qu’à la fin de l’après-midi.
- Quand il pleut, tous les récipients des villages sont sortis afin de recueillir « l’eau à boire ». Mais l’eau des flaques n’est pas dédaignée pour autant et nous avons vu les femmes, accroupies sur les pistes après une pluie, recueillir avec soin dans le creux des routes cette eau rouge de terre et remplir de grandes barriques placées sur le bord du chemin et qui constitueront des réserves. Ces réserves sont parfois naturelles, formées par l’eau de pluie qui s’accumule dans les creux des rochers, petites cavités que les autochtones connaissent et qu’on appelle « rano-vato ». Les trous d’un baobab peuvent aussi servir de réservoirs.
- Pour purifier l’eau lorsqu’elle est sale, l’Antandroy jette dans celle-ci des branches écrasées de « rohondrono » (encore appelé ce arbre-saucisse ») qui entraînent toutes les impuretés au fond.
- Il faut avoir séjourné en Androy à la fin de la saison sèche, au moment où la terre, les bêtes et les hommes aspirent si fort après la pluie que l’Androy n’est plus que l’expression de ce désir et de cette attente douloureuse, pour connaître à quel point la sécheresse est synonyme de vie précaire. Le soi a cessé de nourrir les troupeaux et les gens; les bœufs efflanqués montent vers le Nord à la recherche d’une herbe rare et tout le pays est touché par la famine. Parfois la situation est telle que les habitants se résignent à quitter le pays. Aussi la saison des pluies est-elle attendue comme une résurrection et, pour la hâter, 1’ « om-biasy » (sorcier) est consulté; des sacrifices sont faits pour amener la pluie qui, en permettant les semailles, mettra une fin prochaine à la disette.
- Les cultures. — La période d’activité qu’exigent les cultures est le travail normal de tout Antandrov qui attend avec
- Fig. 17 et 18. — A gauche : Case de la région d’Ambowombe.
- A droite : La place d’un village avec son arbre et les cases groupées autour.
- p.366 - vue 369/558
-
-
-
- 367
- Fig. 19. — Un troupeau de bœufs.
- impatience les premières pluies pour semer. Quelque temps auparavant, il a préparé Je terrain par un léger labour à l’an-gady (sorte de bêche légère), travail qu’il effectue accroupi. Les semailles sont faites au début de décembre. À la première pluie, tout le village court aux champs, les hommes creusant les trous que les femmes rebouchent du pied en tassant la terre sur les graines qu’elles y ont déposées.
- Les boutures de manioc et de patates sont plantées après toutes les autres cultures : maïs, voazava (pastèque), voanemba, antaka et courges. Souvent les Antandroy n’attendent pas la complète maturité; ils cueillent une partie du maïs vert et ils prélèvent dans les plants de manioc et de patates quelques racines et quelques tubercules bien avant le temps de la récolte.
- Les cultures ne réclament d’autres soins que le sarclage de temps en temps. Mais en période de maturation, les propriétaires sont obligés de lutter contre de multiples ennemis : perroquets, pintades, corbeaux et toutes espèces d’oiseaux granivores. Il appartient aux femmes et aux enfants de garder les champs dans la journée en éloignant les oiseaux par des cris ou encore par tous autres bruits ou moyens : vieilles calebasses que l’on entrechoque, plaques de mica qui scintillent. Les sangliers et même les chiens viennent aussi ravager les cultures; les chiens s’attaquent surtout au maïs. Ce sont les hommes qui gardent les champs la nuit avec des pièges et la sagaie pour les défendre contre les sangliers qui fouissent la terre pour déterrer manioc et patates. L’administration se charge de détruire les sauterelles et la lutte antiacridienne semble avoir été efficace ces dernières années.
- Les récoltes sont conservées à l’abri des rats, soit dans des greniers pour les patates et le manioc, soit dans des soubiques (sacs ou boîtes tressés) quand il s’agit de graines comme le mil ou le voanemba. Les épis de maïs sont suspendus dans la case ou dehors à une longue perche plantée verticalement dans le sol. Les courges et les voazava se gardent pendant un ou deux mois dans des sortes de silos.
- Les graines destinées à la semence sont mises à part dans un grenier collectif. Le chef du village est responsable vis-à-vis de l’administration de cette mesure de prévoyance.
- Les champs sont la propriété d’une famille; ils sont situés à des distances variables du village. Une famille a souvent plusieurs champs qui se trouvent quelquefois très éloignés les uns des autres afin que les chances de récolte ne se trouvent pas toutes compromises s’il survient un cataclysme, un vol de sauterelles par exemple, ou une sécheresse plus grande qui affecte
- un lieu tandis qu’un autre est préservé. Si un champ cesse d’être cultivé pendant plusieurs années par une famille, il peut être pris par une autre; le droit de propriété est retiré à celui qui laisse sa terre en friche. Les endroits les plus fertiles, comme les berges des fleuves, les fonds humides, sont très recherchés et par suite délimités par la collectivité.
- L’élevage et les bœufs. — Il ne faut pas se méprendre sur le terme « élevage ». Les Antandroy ne se préoccupent guère de soigner les bêtes, encore moins de les sélectionner; ils se contentent de leur construire un parc et de les mener vers les lieux de pâturage.
- La saison sèche occasionne de grosses pertes de bétail. Les moutons, par surcroît, ont un ennemi dans les chiens sauvages qui pullulent dans la brousse et dans les villages et qui constituent dans la forêt de vraies meutes affamées qui s’attaquent aussi aux cultures.
- Quant aux volailles, on se borne à les faire rentrer le soir dans des abris qui les protègent des l’apaces et des carnivores. Ces abris sont des constructions très ingénieuses qui offrent la plus grande variété de formes et de matériaux : troncs d’arbres évi-dés formant la toiture, constructions de pierres plates, ailleurs sortes de petites cases en bois et en branches serrées et liées ensemble.
- Mais le bœuf occupe une place à part dans l’élevage. Il est pour l’Antandroy son bien le plus précieux, son souci constant, sa fierté et son ambition. Le bœuf symbolise à la fois la puissance terrestre et les valeurs spirituelles, et tous les efforts de l’Antandroy tendent à accroître le nombre de ses bœufs qui ont un rôle quasi sacré dans le sacrifice. C’est ce désir d’augmenter son troupeau qui le pousse à cultiver au delà de ses besoins ou encore à travailler comme salarié pendant quelque temps afin de pouvoir acheter des bœufs. C’est en ce sens que le bœuf aurait une incidence sur l’économie du pays comme stimulant à l’effort et au travail.
- Les bœufs paissent partout où il y a quelque herbe à brouter, si sèche, si maigre qu’elle soit. Il leur ari'ive même de s’égarer dans les cultures, ce qui engendre des conflits entre les possesseurs des champs et les propriétaires des troupeaux. Quand l’herbe se raréfie en Androy, les troupeaux vont plus au nord, dans la région de Bekily et de Betioky. Les terrains de pâturage sont communs à un clan et chaque année, à la saison sèche, le troupeau reprend le même trajet à travers la brousse. A l’origine, une entente entre les gens du lieu et ceux qui viennent pour la
- p.367 - vue 370/558
-
-
-
- 368
- saison sèche a délimité les zones de pâturage dont les immigrants saisonniers peuvent disposer.
- Ainsi l’Ântandroy va derrière ses bœufs, poursuivant son rêve de voir augmenter leur nombre. Son seul souci est de ne pas les laisser s’égarer ou de ne pas se les faire dérober, de les parquer le soir venu et de traire les vaches car c’est à l’homme que revient cette tâche.
- Ge demi-nomadisme, imposé en tout temps par les troupeaux
- pour la recherche de l’herbe, ne déplaît pas à l’Antandroy qui aime marcher pendant des jours, visitant les uns et les autres tout en cherchant des terrains de pâture.
- (à suivre). Suzanne Frère.
- Toutes les photographies qui illustrent cet article, sauf la figure 9, ont été prises par l’auteur et sont extraites de son ouvrage Panorama de l’Androy (Aframpe, Paris, 1958).
- Quelques végétaux de l’Androy
- Nous devons à notre collaborateur M. Raymond Decary, qui a vécu cinq années parmi les Antandroy, les quelques renseignements complémentaires suivants, d’ordre botanique.
- Le kily, appelé aussi madiro, est une Légumineuse, Tamarin-dus indica Lin. Ge bel arbre est, malgré son nom, considéré comme originaire d’Afrique tropicale. Pour notre part, nous penchons pour une origine malgache; les forêts-galeries qu’il forme dans le Sud de Madagascar semblent indiquer qu’il fut toujours spontané dans cette partie de l’île. Fruit comestible mais très acide. Pour empêcher qu’il n’agace les dents, les Antandroy le broient parfois avec de la cendre et en font de petites pelotes qu’ils avalent. Ils cuisent aussi la pulpe pétrie avec de la cendre, dans le sol chauffé très fortement, et obtiennent une sorte de pain dont ils peuvent se nourrir en cas de disette. Les graines plates contenues dans le fruit servent pour un' certain mode de divination, le sikily (appelé sikidy ailleurs), encore pratiqué dans tout Madagascar.
- Le sakoa (Sclerocarya caffra Sonder) est une Anacardiacée des domaines occidental et sud-occidental. Cet arbre, au port de pommier, possède une drupe acidulée, comestible, pouvant donner une sorte de cidre agréable. Il fournit aussi une huile siccative (non utilisée), une gomme peu adhésive et un peu de tanin. La graine huileuse est brisée à coups de pierre et consommée pendant les disettes.
- L’antaka et le voanemba sont deux Légumineuses alimentaires. La première, dénommée aussi voamahy, est le Lablab vulgaris Savi. Planté dans toute l’île, mais surtout dans le Sud, il donne des floraisons blanches de toute beauté. L ’antaka vient à maturité en juillet-août. La fin de floraison correspond à la fin de mai ou au commencement de juin, époque appelée pour cette raison volanantaka ou mandriakantaka (vola, mois, lune; mandriaka, s’épanouir).
- Le voanemba (Vigna sinensis End.) est cultivé par les Antandroy et les Mahafaly à l’égal de Yanlaka. Importé sans doute d’Afrique par les Arabes, comme 1 ’antaka, il porte le nom créole de Voëme. Se cultive fréquemment en association avec le maïs, celui-ci étant déjà arraché quand le voanemba fleurit. A ce groupement viennent parfois s’ajouter calebasses ou pastèques.
- Les céréales ou graminées cultivées dans le Sud sont 1 ’ampemba (Andropogon sorghum Lin.), et le tsako ou maïs. Le riz ne l’est pas, si ce n’est aux frontières Nord et Est de l’Androy, où on trouve de l’eau.
- La pastèque connue sous le nom de voazava est encore mal déterminée botaniquement. Elle est voisine du voatango, qui est une autre Cucurbitacée, à chair plus parfumée et légèrement rougeâtre. Le voazava est insipide mais contient énormément d’eau. Il est semé sans le moindre soin et se reproduit souvent spontanément. Mûrissant fin janvier et début février, il constitue pendant un mois une importante partie de l’alimentation. Avec la citrouille ou taboara, il permet, dans la série des cultures vivrières, une soudure qui, sans eux, serait parfois difficile.
- L’Alluaudia procera Drake est un arbre connu des autochtones sous le nom vernaculaire de fantsiholitra (peau épineuse) ;
- les Européens déforment ce nom en fantsilotsy ou fantsilosy. Cette Didieréacée est un arbre haut d’une douzaine de mètres, qui forme sur les sables de véritables forêts. Tronc couvert d’épines, à branches ascendantes, non ramifiées, avec très petites feuilles; floraison en touffes au sommet des branches. Ce xérophyte est une des caractéristiques de l’Androy. Son bois tendre est très employé par les Européens pour la confection des bardeaux de toitures, et par les indigènes pour fournir les planches de la case elle-même. Une exploitation abusive a fait diminuer les beaux peuplements.
- Une autre Didieréacée, également abondante, est le rondro-roho (et non rohondrono) (Alluaudia dumosa Drake). C’est un arbre haut de 4 à 6 m, rameux depuis la base, appelé arbre-saucisse par les Européens. Ses rameaux gris s’articulent comme des chapelets de charcuterie, et leur intérieur montre une « chair » molle et rougeâtre. L’espèce est aphylle et sans utilisation.
- Les Euphorbes arborescentes, caractéristiques de la végétation aphylle et xérophytique de l’extrême Sud malgache, sont connues sous le nom collectif de famata. Ceux-ci forment de très importants peuplements, parfois difficiles à pénétrer en raison de leur latex caustique ou vénéneux. Ces Euphorbes, qui appartiennent à la section des Tirucalli, sont représentées par une douzaine d’espèces. A ce groupe appartient le célèbre intisy (Euphorbia intisy Drake), qui est la seule espèce caout-choutifère; le latex des autres espèces est sans utilisation, jusqu’à ce jour du moins.
- Le fangitse ou fangitsy est un Dioscorea. De son tubercule, qui est très gros, on retire jusqu’à 2 litres d’eau. Flacourt écrit en 1658, non sans exagération, que ces racines sont quelquefois « plus grosses qu’un homme »; Robert Drury, en 1701, les signale aussi dans le récit de ses aventures.
- Le rakaita ou raiketa est un Opuntia qui couvrait autrefois d’immenses superficies en Androy, qu’il rendait presque impénétrable en raison de ses épines acérées. Les cartes, alors, indiquaient la contrée comme « zone cactée ». Il s’agissait de l’Opuntia Dillenii Ifaw., qui fut introduit de la Réunion à Fort-Dauphin au xvme siècle, et se multiplia de façon prodigieuse. Il fournissait aux habitants ses fruits comestibles et l’eau de son tronc pilé, et aux bœufs une nourriture aqueuse, après que les épines eussent été brûlées, à l’aide de broussailles qu’on entremêlait et incendiait. En 1924, une cochenille parasite venue de la Réunion, où elle vivait sur Opuntia tuna, mais sans le détruire, apparut d’abord à Tananarive, où elle fit périr les cactus de cette ville. Introduite volontairement à Tuléar, elle gagna le Mahafaly puis l’Androy; elle se multiplia de façon fantastique et, en 1928, toutes les raiketa avaient disparu. Cette destruction soudaine est certainement le phénomène biologique le plus curieux auquel on ait assisté dans la Grande Ile. Elle a complètement modifié l’aspect du pays. L’année de la disparition des raiketa, on a estimé que 10 000 bœufs étaient morts de faim. Ces cactus ne repoussant pas, car il reste toujours quelques cochenilles pour les détruire, on a tenté, et moi-même le premier, des plantations de cactus inermes comestibles pour les bœufs et non sujets aux atteintes de la cochenille; mais le résultat a été assez médiocre. R. D.
- p.368 - vue 371/558
-
-
-
- Le Zinjanthrope et les données actuelles du problème des origines de l’Homme
- Le 17 juillet 1959, Mme Leakey et le docteur L. S. B. Lea-key, du Coryndon Muséum de Nairobi (Kenya), découvraient dans la couche 1 du célèbre gisement d’Oldoway, au Tanganyka, le crâne d'un Hominidé Dès proche parent des Australopithèques, dans lesquels, au moment de leur découverte en 1925, certains n’avaient voulu voir que des Singes Anthropoïdes n’ayant que quelques vagues traits humains. Or le nouveau fossile, que M. Leakey a appelé Zinjanthropus Boisei, était accompagné d’une industrie et de restes d’animaux manifestement chassés par lui. Dans l’article qu’on va lire, M. Camille Ararn-bourg, professeur honoraire au Muséum, à qui l’on doit la découverte d’un autre fossile humain de grande importance, VAtlanthrope, situe la nouvelle découverte dans le cadre général de la paléontologie humaine.
- Au cours de ces dernières années, la Paléontologie humaine et la Préhistoire se sont enrichies d’un certain nombre de découvertes importantes, à la lumière desquelles le problème de nos origines apparaît désormais sous un jour que nous allons essayer de préciser.
- Pendant longtemps, l’interprétation des documents humanoïdes fossiles, peu à peu découverts, s’est trouvée soumise à Pinfluence de deux tendances diamétralement opposées : l’une traditionaliste, admettant a priori pour l’Homme, une origine extra-naturelle, une « création » indépendante, rejetait toute possibilité d’une ascendance préhumaine; l’autre, au contraire, acceptant, plus ou moins implicitement, le slogan pseudo-darwinien « l’Homme descend du Singe », s’efforcait à retrouver et à mettre en évidence, chez nos ancêtres présumés, les traits « simiens » qui devaient caractériser le chaînon manquant, le missing link de la série Anthropomorphes-IIomme.
- La première tendance n'a pu résister aux données objectives de la Science et la réalité d’une paléontologie humaine concernant l’évolution physique de l’Homme n’est plus mise en doute : pour Teilhard de Chardin et ses disciples, par exemple, l’Homme apparaît comme l’aboutissement suprême de l’Évolution de la Vie dont tous les stades antérieurs n’auraient été que préparatoires à sa venue et à l’avènement de l’Esprit.
- Par contre, la seconde tendance n’a cessé, depuis plus d’un demi-siècle, de dominer plus ou moins consciemment la plupart des interprétations des fossiles humains progressivement mis au jour, chez lesquels on a voulu successivement reconnaître le missing link attendu ! C’est à cette tendance que nous devons les reconstitutions plus ou moins caricaturales de 1’ « Homme de Néanderthal ». C’est à elle aussi que nous devons l’énorme mystification de Piltdown.
- On peut dire aussi que les théories polyphylétiques, ainsi que les préjugés racistes qui n’ont pas encore cessé de troubler l’Humanité ne sont pas sans rapports avec cette conception.
- Faisant abstraction de tout empirisme, nous chercherons à interpréter simplement d’après les lois générales de l’Évolution les données de paléontologie humaine actuellement acquises.
- ♦
- * *
- Nous pouvons immédiatement dire que l’idée de l’origine simienne directe de l’Homme est une notion actuellement péri-
- Fig. 1. — Vue latérale du crâne du Zinjanthrope.
- Selon le docteur L. S. B. Leakey, les caractères humanoïdes de ce crâne sont plus accusés que chez les autres Àustralopithéciens : forme générale, position de l’inion, trou occipital encore plus rond et plus horizontal, dimension et forme des mastoïdes, os du nez, profondeur du palais, conformation de l’os malaire, régression des canines, elc. Les animaux qui accompagnaient ce fossile (oiseaux, batraciens, reptiles, rongeurs, antilopes, suidés) sont des espèces de petite taille ou de très jeunes individus d’espèces plus grandes : le Zinjanthrope ne pouvait ou ne savait s’attaquer à de grands animaux. On pourrait supposer, comme on l’a fait pour le Sinanthrope de Pékin, qu’il fut lui-même la proie d’un homme plus évolué. Mais M. Leakey observe que tous les os d’animaux, visiblement, ont été brisés avec intention, alors que le crâne du Zinjanthrope était au contraire intact au moment de son enfouissement. Auteur de l’industrie pré-chelléenne d’Oldoway, c'était donc un omnivore, ce qui est encore un caractère humain.
- (Photo L. S. B. Leakey).
- mée. Toutes nos acquisitions récentes tendent à démontrer que, loin d’être un « grand Singe perfectionné », il est l’aboutissement d’un rameau évolutif particulier, détaché probablement depuis le début de l’époque tertiaire, c’est-à-dire depuis plus de 5o millions d’années, du tronc commun à tous les Primates et qui n’a cessé d’évoluer pour son compte au même titre que les autres rameaux de même origine : Lémuriens, Singes cynomor-phes et Singes anthropomorphes.
- Chacun de ces rameaux correspond au développement progressif d’une « spécialisation » particulière. Les Lémuriens sont les moins différenciés et certains d’entre eux sont demeurés assez près du type synthétique original. Ce sont de petits animaux forestiers et à mœurs nocturnes, chez lesquels le crâne est relativement volumineux et la face peu développée; leurs membres sont d’un type généralisé sans spécialisation particulière.
- Les Cynomorphes sont les Singes ordinaires de l’Ancien Monde, grimpeurs ou marcheurs, quadrupèdes plantigrades munis d’un long appendice caudal. Leur face est plus ou moins allongée, leur denture robuste, avec canines saillantes, leur habitat généralement forestier.
- p.369 - vue 372/558
-
-
-
- 370
- Les Anthropomorphes sont les « Singes supérieurs », dépourvus d’appendice caudal, quadrupèdes, mais en partie digitigrades; leur face est allongée, prédominante par rapport au reste du crâne; leur denture puissante, à la fois broyeuse et coupante, est munie d’énormes canines, qui sont aussi des armes de défense. Leur tronc et leurs membres postérieurs sont -cqùrts, tandis que leurs membres antérieurs, démesurément allongés, sont essentiellement adaptés à la progression par « brachiation » dans les arbres qui sont l’habitat essentiel de ces animaux. Toutes leurs caractéristiques squelettiques et anatomiques correspondent à l’adaptation étroite à ce mode de vie, mais leur nature quadrupède s’affirme dans la structure typique de leur bassin et de leur colonne vertébrale et l’on sait que la possibilité de se dresser momentanément sur leurs membres postérieurs n’est qu’une attitude occasionnelle et n’a rien à voir avec la bipédie humaine.
- Le squelette humain correspond à une adaptation fonctionnelle totalement différente de celle des Anthropomorphes et à l’opposé même de cette dernière.
- "'Chez l’Homme, en effet, les membres antérieurs sont courts, tandis que le tronc est allongé et les membres postérieurs prédominants. En outre, le bassin, bien différent structuralement de celui des Anthropomorphes, de même que la colonne vertébrale 6,drre.spondent-; à la bipédie absolue et à l’attitude normalement dressée, caràdtéHstiques des Hommes. On sait enfin que le crâne cérébral volumineux est associé à une face courte dans laquelle les mâchoires sont réduites, ainsi que la denture où notamment les canines ne dépassent pas, en volume, les autres dents.
- \
- Des premiers Primates à l'Oréopithèque. — Ainsi qu’il a été dit plus haut, les premiers Primates fossiles apparaissent au début de la période tertiaire. Ce sont des formes de petite taille à caractères lémuroïdes dont les restes se rencontrent dans l’Eocène de l’Amérique et de l’Europe où ils ont persisté jusqu’au cours de l’Oligocène.
- Ces fossiles attestent l’apparition précoce du type Primate, mais aucun d’entre eux ne peut être considéré comme à l’origine directe des divers rameaux actuels; ce n’est qu’à partir de l’Oligocène (4a millions d’années environ) que s’affirme la séparation de ces derniers."On a rencontré en effet, dès le début de cette époque, dans les gisements égyptiens du Fayoum, les restes malheureusement très rares de petits Primates, dont certains (.Propliopithecus) sont déjà très voisins des Gibbons dont ils paraissent être les précurseurs directs. A leur côté, un autre petit fossile de la taille d’un Ouistiti (Parapithecus) est moins différencié et encore voisin, à certains égards, des Lémuriens; sa mâchoire inférieure courte, à branches largement divergentes en V, implique une face très peu prognathe et un crâne relativement large; sa formule dentaire est déjà celle des Anthropomorphes et des Hommes, de même que la structure des molaires; les canines et les incisives sont très petites.
- D’autres fossiles du même gisement se rapportent à de petits Singes ayant déjà les caractères de véritables Cynomorphes.
- On peut donc penser que, vers le début de l’Oligocène, les deux rameaux, Anthropomorphes et Cynomorphes, étaient déjà en voie.,de différenciation.
- Ceci est confirmé par les découvertes de Leakey dans les gisements du Miocène inférieur (3o millions d’années) du lac Victoria, où ce préhistorien a mis au jour toute une série de Primates fossiles : Lémuriens, Cynomorphes et surtout Anthropomorphes. Parmi ces derniers, à côté de Gibbons typiques, se trouvent de grandes formes telles que Proconsul on Sivapithecus qui sont des Pongidés typiques (on sait que la famille des Pongidés comprend les grands Anthropomorphes, Chimpanzé, Gorille, Orang-Outang ; les Gibbons constituent la famille des Hyloba-tidés).
- Les caractéristiques essentielles propres aux Anthropomorphes étaient donc déjà acquises il y a 3o millions d’années.
- Il est, dans ces conditions, inadmissible que le rameau humain ait pu se détacher, par la suite, d’organismes aussi hautement spécialisés déjà que les Anthropomorphes du Miocène. Tout ce que nous savons aujourd’hui des processus évolutifs s’oppose à une telle conception et démontre que la séparation du rameau humain est certainement antérieure à cette époque; elle remonte vraisemblablement, elle aussi, au moment où le stock lémuroïde primitif était en voie de différenciation, c’est-à-dire à l’Oligocène. A ce point de vue, le petit Parapithecus du Fayoum réunit assez bien les potentialités que l’on peut imaginer au départ chez un ancêtre éventuel de ce rameau.
- Cependant l’existence d’Hominiens fossiles antérieurs à l’Époque quaternaire est demeurée longtemps problématique.
- Mais, au cours de ces dernières années, l’exploitation de mines de lignite du Miocène supérieur de Toscane (i2 millions d’années environ) a permis au professeur Ilurzeler, du Muséum de Bâle, d’y recueillir les éléments d’un squelette entier d’un Primate assez énigmatique nommé Oreopiihecus Batnboli. L’étude en cours de ce fossile a permis dès maintenant au docteur Ilurzeler de préciser qu’il s’agissait d’un être humanoïde par les caractères de son crâne, de sa face, de sa denture, ainsi que par ceux de son bassin, mais dont les membres antérieurs allongés, comme ceux des Anthropomorphes, étaient ceux d’un ce brachiateur » adapté à la vie arboricole. L’auteur de cette découverte pense, à juste titre, que VOreopithecus est un Hominien, représentant d’une lignée aberrante adaptée à la vie arboricole, mais que cette spécialisation trop étroite exclut de l’ascendance directe de l’Homme, et qui est demeuré sans descendance.
- Ce fossile apporte donc la preuve de l’évolution indépendante du rameau hominien et, aussi, que cette évolution n’a point été linéaire, mais qu’elle a procédé, comme chez tous les êtres vivants, selon le mode buissonnant qui lui est habituel.
- Les Australopithèques et le Zinjanthrope. — Après ce jalon planté au milieu de l’Êre tertiaire, il faut arriver au début du Quaternaire (1 million d’années environ) pour trouver les premiers vestiges d’une présence que l’on puisse vraiment qualifier d’humaine, et, à partir de cette époque, les données de l’Archéologie préhistorique et celles de la Paléontologie humaine vont se compléter harmonieusement pour mettre en évidence et pour préciser l’étroit parallélisme qui existe entre la montée du psychisme et l’évolution physique des Hommes.
- C’est, en effet, dans les plus anciens niveaux du Quaternaire, ceux qui appartiennent à l’étage villafranchien (800000 à
- ’rJSi
- Fig. 2. — La « Pebble Culture » d’Oldaway.
- La « Pebble Culture », la plus ancienne et la plus rudimentaire des industries connues (dès le Villafranchien, début du Quaternaire), groupe des galets grossièrement taillés à une extrémité, dont on distingue plusieurs types selon les régions. M. Leakey a appelé Oldowayen le type trouvé dans la couche I d’Oldoway (Tanganyka). C’est à des galets de ce type que le Zinjanthrope a été trouvé associé et on peut donc attribuer l’invention de la Pebble Culture aux Australopithéciens. Cette industrie se continue dans la couche II d’Oldoway où elle évolue vers l’industrie chelléenne attribuée aux Pithécanthropiens. Ainsi se marque, parallèlement à l’évolution anatomique du rameau humain, l’évolution de sa culture.
- (H- -Alimen, Préhistoire de l'Afrique, Boubée, 1955, d’après K. P. Oakley).
- p.370 - vue 373/558
-
-
-
- ï ooo ooo d’années environ), qu’ont été recueillis à la fois les restes des plus vieilles industries humaines et ceux de leurs premiers artisans.
- On connaissait depuis plusieurs années la présence, en Afrique, dans des gisements de cet âge, de fossiles humanoïdes, les Australopithèques, dont la véritable nature faisait récemment encore l’objet de controverses serrées.
- Bien qu’appartenant morphologiquement à plusieurs types (deux vraisemblablement : Australopithecus et Paranlhropus), ces êtres présentent en commun un ensemble de caractères qui les rattache sans conteste au rameau humain : leur bipédie absolue, d’abord, attestée par la structure de leur bassin, leur denture dont les canines et les incisives sont réduites, leur face peu prognathe, enfin leur capacité endocrânienne qui, bien que plus faible que celle des Hommes, est supérieure, cependant, à taille égale, à celle des Anthropomorphes.
- A ces caractères, que l’on peut qualifier de fondamentaux, en sont associés d’autres, qui, absents chez les Hommes actuels, sont communs à beaucoup de Primates et sont le fait soit de survivances ancestrales, soit de réactions fonctionnelles, comme la dolichocéphalie (allongement du crâne par rapport à sa largeur), les proportions de la face par rapport au crâne cérébral, le volume et la puissance de certaines insertions musculaires, la présence d’une crête sagittale, etc.
- Parallèlement à ces fossiles, on connaissait aussi, en Afrique, dans des niveaux chronologiquement de même âge, la plus primitive de toutes les industries lithiques, la « Pebble Culture » ou « industrie du galet », dont les principaux types sont de simples galets de rivière qui ont été grossièrement éclatés pour déterminer un tranchant, une pointe, ou une série de facettes à arêtes vives. Il était logique de rapprocher cette Pebble Culture, que l’on rencontre aux mêmes niveaux dans toute l’Afrique, depuis Le Cap jusqu’à la Méditerranée, des Australopithèques leurs contemporains. Malheureusement la logique ne prévaut pas toujours... et pour nombre de naturalistes, les Australopithèques demeuraient des Anthropomorphes aberrants, hors de la lignée humaine.
- Mais l’été dernier, le docteur Leakey, procédant au Tanga-nyka à de nouvelles fouilles dans le célèbre gisement d’Oldoway, découvrit dans son niveau le plus inférieur, à faune villafran-chienne, le crâne magnifiquement conservé d’un Australopithèque incontestable, associé à de la « Pebble Culture » non moins incontestable, et à des ossements brisés de petits animaux, restes probables de repas. Ce crâne rappelle beaucoup,par ses dimensions et par ses caractères, celui de Paranthropus robustus des grottes du Transvaal.
- Très aplati dans sa région frontale, comme Paranthropus, il possède une face massive, avec une denture puissante dans sa partie broyeuse (prémolaires et molaires), mais réduite dans sa partie coupante (incisives et canines); une forte crête sagittale correspond à la musculature en rapport avec un tel appareil masticateur. La face occipitale et l’orientation du foramen magnum sont ceux d’êtres normalement bipèdes; divers autres caractères humains alliés à d’autres plus « primitifs » se retrouvent chez ce fossile comme chez ses autres congénères. Toutefois, l’identité n’étant absolue avec aucun d’entre eux, le docteur Leakey l’a provisoirement nommé Zinjanthropus Boisei (Zinj étant l’ancien nom indigène de la région d’où il provient). Cette découverte confirme donc d’abord la nature humaine des Australopithèques qui, avec la Pebble Culture, se trouvent être les premiers, et combien frustes, véritables Homo faber.
- Cette industrie (fig. 2) est l’indice, chez ces artisans, d’un minimum de besoins, et, selon une remarque judicieuse de Leakey, le Zinjanthropus, et avec lui les Australopithèques en général, pourraient correspondre au stade de l’évolution humaine où, cessant d’être exclusivement des broyeurs de nourriture végétarienne grossière, comme l’attestent leurs puissantes molaires, nos ancêtres, en inventant l’arme et l’outil,
- Fig. 3. — Le crâne du Zinjanthrope, face occipitale.
- On voit au sommet du crâne la crête sagittale qui dénote la puissance des muscles insérés dans cette région.
- (Photo L. S. B. Leakey).
- seraient devenus des chasseurs, se libérant ainsi des contraintes d’un biotope trop étroitement limité.
- Des Pithécanthropiens à l'Homo sapiens. — Un nouveau stade de l’Évolution humaine, dont la longévité couvre tout le Pléistocène moyen (depuis 45o ooo ans), est fourni par le groupe des Pithécanthropiens. La découverte de Ternifine (Algérie) a montré qu’ils étaient les auteurs des industries à « bifaces » ou chelléo-acheuléennes (x), si répandues dans toute l’Afrique et en Europe, où Boucher de Perthes les avait découvertes il y a plus d’un siècle.
- On connaît depuis longtemps, par les découvertes à Java, de Dubois (1891) puis de von Kœnigwald (depuis xg36), par celles de D. Black (1927) aux environs de Pékin, les caractères de ces fossiles, Pithécanthrope et Sinanthrope, dont la nature homi-nienne, d’abord contestée, n’est plus aujourd’hui mise en doute. Leur crâne, bien que présentant encore un certain nombre de caractères primitifs, se rapproche beaucoup de celui de l’Homme : sa capacité se situe au voisinage des minimums humains actuels. Leur denture, malgré certains détails primitifs de structure, est nettement humaine par la réduction de sa partie tranchante et la faiblesse des canines, mais elle est encore robuste dans sa partie broyeuse.
- Depuis la découverte à Ternifine, en Algérie, puis à Casablanca, au Maroc, du Pithécanthropien africain, l’Atlanthropus, l’extension de ce groupe, comme celle des industries à bifaces, à l’ensemble du Vieux Monde, ne paraît pas douteuse, et il est vraisemblable que les « Prénéanderthaliens » tels que 1’ « Homme » de Mauer, celui de Steinheim, celui de Mont-maurin, en soient, en Europe, les représentants.
- L’industrie à bifaces, qui couvre toute l’Afrique, l’Europe et
- 1. Voir : L’Atlanthrope de Ternifine, par Camille Arambotjhg, La Nature novembre 1954, p. 401-404.
- p.371 - vue 374/558
-
-
-
- 372
- Tableau I. — Stades de l’évolution humaine au cours de l’ère quaternaire
- Divisions Glaciations Industries Stades évolutifs Age
- du Quaternaire eurasiatiques préhistoriques humains en millénaires
- Holocène Post-glaciaire Néolithique Actuel Homo sapiens 10
- 1 supérieur Würm Paléolithique supérieur Homo sapiens fossilis 4 o
- Levalloiso-moustérien Néanderthaliens i5o
- Pléistocène < J moyen Riss Mindel Chellèo-acheuléen Pithécanthropiens 5oo
- ( inférieur . Günz Pebble Culture Australopithéciens 800-1 ooo
- une partie du Sud de l’Asie, correspond à un mode de vie encore primitif, et à des besoins limités. Elle est l’indice d’un psychisme encore assez fruste, en accord avec le faible volume et la structure primitive de l’endocrâne des Pithécanthropiens.
- A partir du Pléistocèiï'e moyen (i5o ooo ans environ) qui débute avec l’interglaciaire Riss-Würm, le progrès de l’évolution humaine se manifeste, sur le plan physique, par l’apparition des Néanderthaliens et, sur le plan psychique, par celui des industries sur lames levalloiso-moustériennes dont ces derniers sont les artisans. On a beaucoup calomnié les Néanderthaliens en les présentant comme des êtres extrêmement primitifs, incomplètement redressés, à faciès bestial et que l’on a même parfois jugés indignes de figurer dans l’ascendance de l'Homo sapiens! En réalité, à mesure que se multipliaient les découvertes, les Néanderthaliens sont apparus comme formant un groupe multiforme déjà très proche de l’H. sapiens, mais avec diverses variantes raciales, géographiques ou individuelles, comme il s’en trouve dans toutes les populations d’êtres vivants.
- Cérébralement leurs structures endocrâniennes révèlent, malgré un volume comparable à celui d’H. sapiens, un développement moins accentué des régions frontales et des zones correspondant aux centres d’association, ce qui est par conséquent l’indice d’un mécanisme psychique moins efficace que celui des Hommes actuels. C’est ce que confirme la nature des industries ilevalloiso-moustériennes qui, bien que correspondant par leur nature et par leur variété à des besoins plus complexes et à des modes de vie moins primitifs que ceux des Pithécanthropiens, sont loin cependant d’atteindre la diversité et la perfection de celles qui accompagneront la venue de l’H. sapiens.
- On sait que ce dernier, apparu il y a une quarantaine de mille ans avec les industries du Paléolithique supérieur, est physiquement identique à ses descendants actuels; mais ses premiers représentants ne manifestent pas encore de différenciations raciales aussi accentuées qu'actuellement : la plupart, en effet, offrent un assemblage de caractères que l’on retrouve actuellement plus ou moins dispersés entre divers types, sans qu’on puisse rattacher directement avec certitude aucun d’entre eux à l’une de nos « races » actuelles. Il semble que cet ensemble d’Homo sapiens fossilis formait un groupe relativement homogène d’où les types raciaux actuels se sont progressivement dégagés et géographiquement fixés à partir du moment où se sont établies les conditions climatiques actuelles et la sédentarisation agricole des populations néolithiques.
- L’histoire de la genèse de l’Humanité s’échelonne donc sur une période de plus de quarante millions d’années. Mais, de cette longue histoire, nous ne connaissons vraiment avec quelques détails que les dernières phases, celles qui accompagnent l’éclosion de la pensée créatrice depuis près d’un million d’années.
- Cette connaissance suffit à montrer que la caractéristique essentielle de l’Evolution humaine a été sa spécialisation cérébrale : c’est l’accroissement quantitatif et surtout le perfectionnement qualitatif du système nerveux central qui, en procurant aux ancêtres de l’Homme une conscience de plus en plus péné-
- trante de leur environnement physique, leur ont peu à peu permis de s’affranchir de la plupart des servitudes liées à leur infériorité physique.
- Il est possible qu’une bipédie originelle, en libérant les membres antérieurs de leurs fonctions locomotrices et donnant aux mains la possibilité de jouer le rôle d’outils, ait accéléré cette évolution, de même que l’élargissement du champ visuel consécutif à la position normalement redressée du corps; mais le moteur essentiel de cette évolution a été l’accroissement progressif des possibilités cérébrales, aboutissant finalement à l’essor de cette fonction spécifique du cerveau humain : la pensée.
- Toutes les modifications physiques qui ont accompagné cette évolution n’en ont été que les conséquences.
- Conclusions. — En résumé, on peut penser que le rameau hominien s’est détaché au cours de l’Oligocène d’un tronc commun à tous les Primates, et à partir de petites formes dont Parapithecus peut paraître un prototype possible. La présence, au Miocène supérieur, de VOreopithecus, arboricole et brachia-teur, est l’indice que, au cours du Tertiaire, ce rameau a, selon les normes habituelles à tous les groupes, donné diverses ramifications divergentes précocement arrêtées, avant que n’apparaisse avec les Australopithèques, au début du Quaternaire (il y a un million d’années environ), la première mutation de la série qui, par des stades successifs, Australopithéciens, Pithécanthropiens, Néanderthaliens, devait conduire à l’Homme actuel.
- Bien entendu, cette série évolutive n’est pas linéaire : chacun de ses termes correspond à des populations comprenant des centaines de milliers ou des millions d’individus, avec toutes les variations que comportent de telles populations, répartis sur l’ensemble du Vieux Monde (sauf les Australopithéciens qui, dans l’état actuel de nos connaissances,ne paraissent pas avoir dépassé l’ensemble de l’Afrique et une partie du Sud de l’Asie).
- 11 est donc absolument illusoire de vouloir déterminer parmi les divers fossiles humains actuellement connus ceux qui pourraient se rattacher directement les uns aux autres pour former la lignée humaine. Tout ce que l’on peut dire, c’est qu’à un moment donné, au sein d’une population d'Australopithéciens par exemple, est apparue une mutation progressive de typepithé-canthropien, dont la descendance a rapidement prédominé et essaimé en supplantant les premiers ; de même pour les autres stades : pithécanthropiens, néanderthaliens, Homo sapiens. Quant aux lieux d’origine de ces diverses mutations, tout donne à penser que le continent africain, centre d’évolution des Primates et de divers autres groupes d’animaux pendant toute la durée de l’Ère tertiaire et quaternaire, a offert les conditions optirna pour le développement de la série humaine; il est en tout cas la seule contrée du monde où se trouvent réunis, et où abondent, les vestiges de tous ses stades évolutifs.
- Camille Arambourg, Professeur honoraire au Muséum.
- p.372 - vue 375/558
-
-
-
- Une branche nouvelle de la psychologie sociale
- La psychologie des petits groupes
- 2. La méthode scientifique
- Les progrès qui sont intervenus récemment dans l’étude du fonctionnement psychologique des petits groupes sociaux résultent pour une grande part de l’emploi systématique de méthodes d’observation et d’expérimentation rigoureuses. On peut dire que la psychologie des groupes est née en tant que science à partir des travaux d’Elton Mayo à Ja Western Electric (étude des facteurs conditionnant le rendement d’une équipe d’ouvrières), et des expériences de Lewin, Lipitt et White (qui portaient sur l’effet d’un commandement démocratique ou autoritaire sur le comportement de groupes d’enfants) (Q. Depuis lors, les applications multiples de la psychologie des groupes, tant dans le domaine industriel, que dans la rééducation des délinquants, ou la formation aux a relations humaines » en général, montrent assez que des lois d’une réelle valeur scientifique ont été découvertes. Avant d’en venir à brosser un panorama des résultats ainsi obtenus depuis une dizaine d’années, du point de vue de la recherche comme du point de vue de la pratique, il semble utile de dire quelques mots de la méthodologie qui a été le fondement des expériences dont les conclusions sont rapportées.
- *
- * *
- Rappelons que les « petits groupes » dont il s’agit ici sont des groupes formés de membres en nombre suffisamment limité pour qu’ils puissent « exister » directement les uns pour les autres (se voir ou, au moins, se connaître), et qui entrent en interaction sur la base de motivations ou de buts communs; il en est d’institutionnels (équipe, conférence de décision), et il en est de spontanés (groupes de camarades), sans qu’il soit toujours aisé de les bien distinguer (car les premiers semblent fonctionner d’autant mieux qu’ils se rapprochent des seconds) ; la distinction la plus intéressante paraît celle qui sépare les groupes d'activité (réunis pour exécuter un travail collectif d’ordre matériel) et les groupes de discussion (réunions de comité, etc.), bien qu’ici encore il existe de nombreux cas mixtes.
- Quoi qu’il en soit, le postulat fondamental de la psychologie des groupes est qu’un groupe a une conduite propre, une conduite de groupe. Dès qu’il est formé, l’évolution du groupe obéit à des facteurs généraux qui déterminent la façon dont il parviendra à atteindre ses buts, à progresser, à trouver sa cohésion, etc., en tant qu’imite' opératoire. Comme la conduite individuelle, la conduite « groupale » est fonction des motivations individuelles et communes, d’un certain nombre d’antécédents, des exigences de la situation, des zones de liberté et de responsabilité qui lui sont laissées. La réussite d’une « réunion » de travail dans une entreprise est liée à la façon dont jouent et interagissent des variables précises : facilité ou difficulté des communications entre les individus, normes et règles admises explicitement ou implicitement, taille du groupe, cohésion (absence ou présence de rivalités graves), etc. Une variable particulièrement intéressante est représentée dans tous les types de petits groupes par le système d’autorité (leadership) qu’on y rencontre : y a-t-il un ou plusieurs leaders ? le leader réel se confond-il avec le leader institutionnel ?, etc. Il est évident que toutes ces variables forment un système interactif : ainsi,
- 1. Voir : La psychologie des petits groupes ; 1. Quelques points d’histoire, par J.-G. Fijlloux, La Nature, août 1960, p. 328.
- la progression du groupe vers ses objectifs semble résulter de la cohésion entre les membres; mais, inversement, plus le groupe progresse, plus les membres tendent à former un bloc.
- Le problème est alors le suivant : quels sont les rapports généraux, constants et nécessaires qui existent entre ces diverses variables ? Quelles corrélations peut-on dégager entre tels ou tels traits caractéristiques de tels ou tels groupes ? En somme, quelles sont les lois qui président au comportement de groupe ? Ce problème pose à la fois une question de càncepts, dans la mesure où il convient que les variables retenues soient claires et distinctes, et une question méthodologique au sens strict du terme, car il est nécessaire qu’une théorie de la recherche adéquate soit utilisée. Une des difficultés de la psychologie des groupes est d’ailleurs que l’on ne peut guère être sûr de ses concepts qu’après la validation de l’expérience, mais que l’expérience elle-même ne peut être menée sans concepts préalables.
- Pratiquement, la recherche doit suivre le schéma décrit par Claude Bernard : observation empirique des faits, détermination d’une hypothèse, vérification de l’hypothèse par l’expérience. Les hypothèses porteront essentiellement sur la nature des variables étudiées, leurs relations, et elles naîtront, soit d’observations « pour voir », soit de théories générales. Mais justement, qu’observera-t-on? Et surtout, où observera-t-on P Nous avons vu qu’Elton Mayo s’était contenté d’étudier sur le terrain un groupe de travail ; Lewin et Lipitt avaient au contraire formé artificiellement plusieurs types de groupes d’enfants, dans le cadre d’un véritable laboratoire social. Il semble qu’actuelle-ment l’observation en laboratoire soit la plus fructueuse. Aux Etats-Unis, chaque université (à l’Université de Minnesota, il nous a été donné de participer à des expériences sur des groupes d’étudiants) a son laboratoire de psychologie sociale. En effet, le laboratoire permet d’une part une détermination exacte des faits qui se passent dans un groupe, et d’autre part l’introduction contrôlée ou la suppression également contrôlée de telle ou telle variable, bref une véritable expérimentation; il permet également une mesure rigoureuse des phénomènes et, à partir de cette mesure, tous calculs nécessaires, en particulier ceux qui permettent de déterminer la signification des résultats obtenus en fonction des tests statistiques.
- Qu’il se fonde sur des expériences « naturelles » ou sur les expériences de laboratoire, le chercheur a pour but d’établir si oui ou non (ou encore dans quelle proportion ) une variable indépendante, qui est entre ses mains, qu’il « manipule », est liée d’une façon constante et significative à une variable présumée dépendante, ou à plusieurs. Par exemple, il pourra créer des situations de cohésion et de non-cohésion dans plusieurs groupes, et chercher à savoir quelle est l’influence de la cohésion ou de la non-cohésion sur le rendement du groupe; ou encore, il pourra se demander si l’existence d’une hiérarchie dans un groupe favorise ou non les communications entre les membres et, pour cela, constituer des groupes de systèmes hiérarchiques différents dont le travail ne peut être réalisé sans un minimum de communication. Dans les deux cas, cohésion et hiérarchie seront des variables indépendantes (causes, conditions expérimentales), rendement, communication des variables dépendantes (effets). Ces variables seront manipulées directement par l’expérimentateur. Si des expériences sur le terrain sont utilisées, le chercheur devra profiter d’occasions favorables
- p.373 - vue 376/558
-
-
-
- 374
- pour étudier des groupes dont les caractères différentiels correspondent aux variables indépendantes.
- On peut réserver le nom d’ « observation » à tout ce qui, dans ce travail, est strictement enregistrement de données, de faits, de data, et le nom d’expérimentation à tout ce qui est organisation d’expériences dans un but de vérification. D’après ce qui vient d’être dit, il est évident que l’étude de petits groupes d’hommes, chargés d’une tâche d’action ou de discussion, demande des procédés spéciaux tant pour l’observation proprement dite que pour l’organisation de la preuve. En particulier, l’observation utilisera des techniques d’interview, de questionnaire et d’enregistrement du comportement global du groupe; elle demandera aussi l’intervention de procédés de mesure délicats, de manière à parvenir à des données non seulement qualitatives, mais encore quantitatives. L’expérimentation, notamment au laboratoire, nécessitera des pratiques expérimentales fondées sur une logique de l’expérience qui permette la généralisation.
- Interviews et questionnaires
- L’usage d’interviews et de questionnaires intervient, soit pour constituer des groupes dont les membres aient une personnalité ou tout au moins des préoccupations connues d’avance avec précision, soit pour préciser ou évaluer telle ou telle variable à un moment donné, soit pour déterminer les perceptions et opinions des individus au moment de la validation finale. Interviews et questionnaires s’adressent aux individus, en effet, et ils portent sur leurs perceptions (comment ils voient le groupe, les autres), leurs motivations (leurs buts, désirs, etc.), leurs attitudes (contents ou non, impliqués ou non). La psychologie sociale utilise actuellement divers types d’interviews' et divers types de questionnaires, ainsi que des « échelles » bien mises au point pour reporter les résultats obtenus à partir de l’analyse de leur contenu, une fois qu’ils ont été administrés (« échelles » de Thurstone, Licket, etc.) Comme il s’agit là de techniques non spécifiques de l’étude des petits groupes, nous nous bornerons à quelques indications sommaires, d’abord sur les divers types d’interviews utilisés de préférence ici.
- Les interviews ont pour but de réaliser une exploration de l’individu dans le cadre d’un entretien. Si l’enquêteur réalise lui-même activement l’exploration, en proposant des thèmes (interview semi-structurée'), ou en posant des questions précises (interview centrée), cela implique qu’il cherche à déterminer quelles sont les attitudes, perceptions ou motivations en fonction de schémas précisés d’avance. Si l’enquêteur cherche à induire chez l’interviewé lui-même un effort d’exploration, en se bornant à poser un thème général, puis à réexprimer de temps à autre les attitudes mêmes de l’interviewé (interview non-directive), cela implique que l’enquêteur se refuse à emprisonner d’avance les réponses dans des limites définies, mais qu’il est à la recherche de la connaissance des attitudes les plus spontanées du sujet. Bien entendu, en psychologie des groupes, certaines interviews conviennent mieux dans un cas, d’autres mieux dans un autre : semi-directives, lors de la recherche de personnalités ayant des préoccupations profondes analogues s’il s’agit de constituer un groupe psychologiquement très homogène par exemple; centrées, ou semi-directives dans le cas où, en cours de progression, on désire connaître les perceptions ou attitudes précises d’un ou de plusieurs individus sur un problème.
- Les questionnaires écrits ont un but analogue, mais ils ont l’intérêt d’être plus rapides, et de permettre une standardisation optimale des réponses obtenues, dans le cas où le nombre d’individus à tester est élevé. Cela arrive si, par exemple (comme cela se produit dans de nombreux protocoles expérimentaux), plusieurs séries de plusieurs groupes soumis à des conditions de
- départ différentes pour chaque série sont étudiées. La comparaison des échelles obtenues à la suite de l’administration des questionnaires peut permettre, après validation statistique appropriée, une différenciation rapide des variables dépendantes étudiées.
- Interviews comme questionnaires demandent une analyse de contenu sérieuse, basée sur des critères définis, avant toute constitution d’une échelle quantitative; et, s’il s’agit de comparer des réactions nombreuses à des situations-causes déterminées, des calculs statistiques utilisant des tests de signification, de corrélation, etc., actuellement bien au point.
- Techniques sociométriques
- Parmi les techniques d’enregistrement du comportement global du groupe, il faut évidemment faire une place aux techniques sociométriques élaborées, nous l’avons vu, par Moreno. Il peut en effet être intéressant de savoir, à un moment donné de l’évolution d’un groupe, quelle en est la structure socio-affective. Y a-t-il des « paires » d’amis ou d’ennemis P Des « cliques » de gens qui se préfèrent mutuellement P Y a-t-il de nombreux préférés ? De nombreux isolés ? En administrant un questionnaire établi de telle sorte que chacun puisse, selon le but choisi par l’enquêteur, indiquer quels sont les membres qui lui sont les plus sympathiques, ou les plus antipathiques, ceux avec lesquels il aimerait travailler en équipe, ceux qu’il choisirait pour chefs, etc., on obtient un matériel qui peut être figuré par des sociogrammes (fig. x), et sur lesquels divers
- Fig. 1. — « Sociogramme » représentant la structure affective d’un groupe d’atelier (9 ouvrières).
- Les flèches pleines représentent les choix positifs ; les flèches en pointillé les choix négatifs (aversion) ; les lignes barrées représentent les choix réciproques (positifs ou négatifs). On voit que C, L et S sont « isolées » ; L est « rejetée » par 4 de ses compagnes ; G et R, P et T forment des paires ; L rejette H et elle est rejetée par H, également rejetée par R et S.
- calculs peuvent être effectués. Le nombre total de choix dont un individu est l’objet sera son « statut sociométrique »; selon qu’il va de zéro à un nombre proportionnellement élevé, on se trouve en présence d’un « isolé » ou d’un « préféré ».
- L'indice d'interaction représente en pourcentage le rapport du total des désignations réelles à la somme de celles qui auraient été possibles entre N individus : plus l’indice d’interaction est élevé, plus la consistance psychologique du groupe est grande. Le a test de configuration sociale » (épreuve qu’on fait subir aux données numériques en conlrontant la probabilité mathématique des sélections positives, négatives ou nulles,
- p.374 - vue 377/558
-
-
-
- 375
- et ces sélections réellement effectuées) permet d’établir les caractéristiques fondamentales du groupe, telle l’existence primordiale de noyaux ici, de chaîne là. L'indice de concentration précise dans quelle mesure un sous-groupe affectif se détache véritablement de l’ensemble de la structure collective. Ces divers types d’élaboration des données peuvent permettre, quand elles sont effectuées par exemple sur plusieurs groupes expérimentaux parallèles, soumis ou non à des conditions identiques, une comparaison aisée quant à la cohésion.
- Les seules objections à la technique sociométrique sont d’une part leur limitation (relations affectives), d’autre part leur inaptitude à saisir, sauf de point en point, le mouvement évolutif dynamique du groupe.
- L’observation du comportement de groupe
- Pour saisir le mouvement évolutif d’un groupe, dans le cadre d’une expérience de laboratoire aussi bien que lors d’une expérience sur le terrain, l’utilisation d'observateurs est nécessaire. Leur tâche est alors de noter « ce qui se passe dans le groupe » de la manière la plus fidèle et la plus valide possible, en utilisant pour ce faire un certain nombre de catégories et de critères d’appréciation, qui permettent d'ordonner les faits au fur et à mesure de l’observation. Selon les cas, l’observateur sera caché, par exemple derrière une glace sans tain; ou au contraire il se présentera ouvertement comme tel, en se tenant simplement à l’écart du groupe : c’est ce qui se produit en particulier lorsqu’il faut observer le comportement d’un groupe qui fonctionne « naturellement ». Dans cette dernière éventualité, l’observateur doit bien entendu, une fois obtenue la permission d’observer, tâcher de gêner le moins possible le déroulement de la séance et ne participer aux manifestations collectives (rires, etc.) que dans la mesure où la stricte politesse l’exige. Souvent, plusieurs observateurs travaillent en équipe, soit qu’ils se partagent le travail de notation, soit qu’il faille obtenir des résultats d’une validité absolue en couplant des observateurs qui ont exactement le même travail.
- Prenons l’exemple d’une équipe de deux observateurs qui ont pour tâche d’observer les méthodes employées par des réunions de cadres pour résoudre leurs problèmes. Supposons qu’en fonction d’un plan de recherche dûment préparé, l’un s’occupe plus spécialement des opérations qu’entreprend le groupe pour résoudre son problème (obs. A), l’autre du contenu de la discussion (obs. B).
- Pour noter convenablement chacune des interventions qui contribuent à la progression du groupe vers ses buts, A aura à sa disposition un formulaire standardisé comportant des catégories en nombre limité : il guettera chaque intervention de chaque participant (en précisant qui est l’auteur et à qui elle s’adresse), et il la codera dans une des rubriques à sa disposition. Ainsi, à la « Conférence Research Project » de l’Université de Michigan, R. W. Ileyns a prévu les catégories suivantes :
- — Fixation du but (interventions déterminant ou suggérant des buts) ;
- — Position du problème;
- — Recherche de l’information;
- — Renseignements donnés;
- — Solutions proposées ;
- — Recherche d’une mise au point;
- — Contribution à la mise au point ;
- — Opposition;
- — Agrément;
- — Recherche d’un résumé des débats;
- — Résumé proposé.
- Pendant que A répartit les interventions selon les catégories de son formulaire, B enregistrera le déroulement de la discus-
- sion, en consignant ce qui en fait la matière selon des directives également fixées à l’avance. Ainsi, R. W. Heyns demande à B : la notation de chaque point discuté ; le classement de chacun d’eux en fonction de leur relation à la procédure ou à l’objet même de la réunion; la notation de la nature de la tâche qui attend le groupe à chaque point de son ordre du jour, selon qu’on arrive à une solution ou qu’on approuve une décision antérieure, ou qu’on reçoit ou donne des renseignements; enfin, l’observation de ce qui advient effectivement de chaque item de l’ordre du jour (A-t-on abouti à une décision ? A-t-on ajourné la question? La discussion est-elle restée en suspens?).
- Quand la réunion est terminée, A et B seront invités à apprécier certains aspects de cette réunion, en ce qui concerne les communications, les motivations, les relations interpersonnelles. Des échelles d'appréciation seront à leur disposition, qui leur permettront de coder de o à io, dans le système R. W. Heyns : la compréhension mutuelle, la possibilité d’expression, les risques personnels, l’urgence et l’importance des problèmes, le respect des conventions officielles, l’ambiance, etc.
- Quels que soient les moyens utilisés par les observateurs, quels que soient les types de groupes observés, tout protocole d’observation utilise ainsi un système de catégories d’une part, des échelles d'appréciation (rating scales) d’autre part. Les systèmes de catégories diffèrent par leur aptitude à absorber une part plus ou moins importante du comportement observé, la plus ou moins grande interprétation qu’ils exigent des obser-
- Aire
- socio-
- émotionnelle
- positive
- Aire
- des
- tâches
- Aire
- socio-
- émotionnelle
- négative
- B
- 1 Montre de la solidarité
- 2 Se montre détendu
- 3 Approuve
- 4 Donne une direction, une suggestion -
- 5 Donne une opinion
- g Donne une orientation, une information
- 7 Demande une orientation
- 8 Demande une opinion
- 9 Demande une direction
- 10 Désapprouve
- 11 Manifeste une tension
- 12 Manifeste de l'antagonisme
- a c e f
- Fig. 2. — Système de catégories utilisé par Baies pour observer le comportement de chacun des sujets d’un groupe de discussion.
- Le schéma indique le mode de classement des catégories ainsi que les critères utilisés. A., réactions positives ; B, apports ; C, demandes ; D, réactions négatives. Problèmes qui se posent : a, de communication ; b, d’évaluation ; c, de contrôle ; d, de décision ; e, de réduction de la tension ; /, de réintégration.
- vateurs, le nombre des différents cadres de référence qu’implique le système. D>es systèmes différents doivent être construits pour coder ce qui se passe dans un « groppe d’action » et dans un « groupe de discussion » analogue à celui que nous venons d’envisager.
- Parmi les systèmes destinés à coder les interventions dans les conférences de décision, signalons le système de Baies, connu sous le nom d’Analyse des processus d'interaction (fig. 2). Les échelles d’appréciation sont d’un emploi plus subtil et présentent l’intérêt d’enregistrer des phénomènes plus affectifs, des variables plus ténues, importantes en ce qui concerne la cohésion du groupe. Selon le but de la
- p.375 - vue 378/558
-
-
-
- 376
- recherche, l’accent peut être mis davantage sur le système de catégories, davantage sur l’appréciation par échelles.
- Une des difficultés propres à l’établissement d’un plan de recherche est justement d’arrêter convenablement les cadres de référence qui seront fournis aux observateurs : quelles dimensions seront observées (toutes, ou certaines seulement?), quelle sera la taille de l’unité de comportement catégorisée ou appréciée (intervention d’un individu, ou toute une série d’interactions ?).
- Enfin, tout doit être mis en œuvre pour que l’utilisation des observateurs n’empêche point d’aboutir à une réelle objectivité. La présence psychologique d’observateurs dans un groupe ne semble pas apporter de perturbations particulières dans son fonctionnement. Toutes les constatations à ce sujet sont concordantes : l’observateur est vite oublié, si du moins il a un entraînement suffisant... On ne s’étonnera donc pas que, dans les laboratoires de psychologie des groupes, de véritables « corps » d’observateurs aient été formés. Si la validité des systèmes et échelles utilisés ne peut être toujours nettement déterminée, en revanche il est aisé de tester dans un cas donné la fidélité des mesures faites grâce à 1’ « instrument humain » en couplant des observateurs ayant une même tâche (ainsi qu’il a été dit), ou encore en utilisant des opérations statistiques (calcul du coefficient de corrélation pour évaluer l’accord de plusieurs observateurs, calcul du score du pourcentage d’accord, etc.).
- Expériences « sur le terrain »
- Interviews, questionnaires, sondages sociométriques, techniques d’observation ne sont que des instruments pour constater ou établir des faits, l’existence de telle ou telle variable. La procédure expérimentale elle-même a ses propres méthodes. Nous avons vu qu’elle utilise, soit l’expérience sur le terrain, soit l’expérience artificielle en laboratoire.
- L’expérience sur le terrain se définit comme un projet de recherches dans lequel l’expérimentateur aura à manipuler une variable indépendante dans un environnement social réel en vue de vérifier une hypothèse. L’enquête de Mayo à Hawthorne serait un bon exemple d’un tel projet, si elle n’avait l’inconvénient de ne porter que sur un seul groupe, ce qui met en question la valeur générale des résultats obtenus. Actuellement, tout en étant conditionnés par les contraintes propres au « terrain » sur lequel ils opèrent (usine, administration, etc.), les chercheurs qui prétendent manipuler des variables en milieu naturel tentent, comme leurs collègues au laboratoire, de comparer des mesures qui portent sur plusieurs groupes. En général, un ensemble de groupes est soumis à une condition expérimentale précise, un autre ensemble est soumis à d’autres conditions également précises. Parfois, un ou plusieurs « groupes témoins » sont laissés à leur propre sort, bien qu’observés avec soin. Les expériences sont, autant que possible, répétées.
- Lorsque Coch et French (1948) voulurent vérifier dans une usine l’hypothèse selon laquelle l’opposition du personnel à un changement dans le mode de travail est atténuée ou supprimée dans la mesure où on fait appel à la participation des intéressés aux décisions, ils constituèrent, avec l’appui de la direction, des groupes comparables (équipes de travail), dont la liberté de participer aux décisions était variable. Des groupes témoins, où toute participation était exclue, se voyaient imposer un nouveau travail selon la procédure habituelle de l’usine. D’autres groupes pouvaient envoyer des délégués à une conférence avec les cadres. D’autres enfin avaient la latitude de participer en totalité à l’élaboration du plan de travail. Il apparut alors que la résistance au changement était inversement proportionnelle au degré de participation effectif de chaque ouvrier aux décisions prises.
- Expériences de laboratoire
- Leur but n’est pas de reproduire à proprement parler des situations de la vie réelle, mais de mesurer l’effet d’une variable, ou de plusieurs, dans des conditions « pures ». Comme le souligne Festinger, le résultat d’une expérience de laboratoire ne peut jamais être admis tel quel dans les conditions de la vie réelle, ne serait-ce que parce que le laboratoire isole ce qui, réellement, fait toujours partie de tous complexes. Les résultats de laboratoire ne doivent être admis que « toutes choses égales par ailleurs ». En laboratoire, il est possible de décider de la composition exacte des groupes, de leur durée de travail, de leur taille, etc., ce qui permet d’égaliser les variables qui pourraient intervenir d’une manière parasite. Parmi les procédures utilisées, deux sont fondamentales :
- — La procédure des conditions simplement successives : un ensemble de groupes est alors exposé successivement à deux conditions expérimentales successives (ainsi, un ensemble de groupes expérimenteront tour à tour deux modes de leadership, et seront testés quant à leur réceptivité à la propagande) ;
- — La procédure après seulement : différents groupes sont soumis aux différentes conditions expérimentales simultanément (c’est le style de procédure de French, rapporté plus haut, mais systématisé en laboratoire).
- Chaque procédure a ses avantages et ses inconvénients. La première n’exclut pas la possibilité que le groupe soit modifié par le contact avec les conditions imposées dans le premier temps. La seconde nécessite la formation de groupes identiques, « égalisés » ce qui n’est pas toujours commode. D’autres procédures, auxquelles nous ne pouvons que faire allusion ici, combinent les deux précédentes.
- Certaines expériences peuvent demander un plan de recherche très complexe. C’est ainsi que des expériences récentes de M. Deutsch sur les « facteurs qui déterminent les motifs-d'appartenance et d’accomplissement dans un groupe » (2) ont utilisé 72 groupes de 3 personnes, 9 groupes se trouvant dans chacune des 8 situations expérimentales dont l’influence était testée !
- Les techniques employées dans le cadre des diverses procédures sont à présent bien codifiées, mais ne laissent pourtant pas de mettre à l’épreuve l’ingéniosité des expérimentateurs. Chaque groupe étudié a sa nature propre, c-t. il est étudié sous des aspects spécifiques : les moyens auxquels il faut recourir pour contrôler au départ la structure du groupe, pour amorcer la manipulation d’une variable, pour faire prendre aux sujets une conscience exacte des buts à atteindre, doivent être pour une grande part inventés en fonction des situations. Les modes d’action que les sujets doivent déployer (discussion sur quel type de sujet ? quel genre de travail commun ?, etc.) demandent à être choisis avec soin. Souvent, il faut ramener une question très générale à une formulation précise, liée au plan d’expérience choisi.
- Ainsi, lorsque Kelley voulut étudier le rôle de la hiérarchie dans le cheminement des communications entre les membres d’un groupe, il se vit amené à formuler la question comme suit : « Quelle est la direction que prend une rumeur, sans rapport avec les tâches professionnelles, dans une hiérarchie déterminée par l’opinion des sujets sur l’importance relative de leur tâche ? ». Cela demanda l’élaboration de techniques particulières pour réaliser une hiérarchie, contrôler le travail accompli, inventer un procédé pour transmettre une rumeur sans rapport avec le travail...
- 2. Le lecteur curieux du déroulement détaillé d’une expérience de laboratoire pourrait se référer à l’article de Deutsch dans le Bulletin du Centre d’Êtudes et Recherches psychotechniques, septembre 1958. Signalons-aussi, dans la livraison de décembre 1959 de ce même Bulletin, un excellent article de G. de Montmollin sur « Le petit groupe : moyen et objet de connaissance ».
- p.376 - vue 379/558
-
-
-
- 377
- Parfois, il est indiqué d’utiliser des participants dits « appointés », autrement dit des « jaunes » qui sont de connivence avec l’expérimentateur, et qui permettent d’introduire une variable fixée à l’avance; parfois, il faut employer la technique des « faux rapports » (ainsi, après un test sociométrique, de faux résultats de ce test)... Il va sans dire enfin que tout ce qui concerne l’observation, l’éventuel enregistrement au magnétophone de certaines séquences de la vie du groupe, l’introduction de mesures, doit être sérieusement planifié à l’avance, pour que l’exécution n’expose pas à des surprises.
- Limites de la méthode expérimentale
- Tous les expérimentateurs s’accordent pour dire que les expériences en laboratoire ne peuvent se suffire à elles-mêmes. Ainsi, Festinger écrit : « Les expériences de laboratoire empruntent leurs directions aux situations de la vie réelle et leurs résultats doivent toujours être remis en question à l'épreuve des situations réelles; l’expérience de laboratoire n’est pas un but pour une science qui prétend s’appliquer à l’expérience vécue. »
- Outre les problèmes strictement logiques et statistiques de signification, les « expériences » posent des problèmes de généralisation. Il est relativement facile de répondre à la question : est-il vrai que dans ce groupe, ou dans ces groupes, il y a bien telles ou telles corrélations, tels ou tels rapports de cause à effet, entre telles variables ? Les « tests » statistiques permettent de distinguer les coïncidences fortuites et les liaisons réelles et significatives. Il est beaucoup plus difficile de répondre à cette autre question : peut-on généraliser une consécution empirique établie dans un groupe ? Est-elle vraie pour d’autres groupes, pour tous les groupes ? Il est évident qu’un résultat n’aura de valeur scientifique que si les conditions de l’investigation peuvent être généralisées, « toutes choses égales par ailleurs ». Cela ne semble possible que si les conditions de l’expérience ne sont point trop artificielles, trop éloignées des conditions réelles, que si on se trouve en présence d’échantillons suffisamment représentatifs.
- A cet égard, les expériences sur le terrain paraissent meilleures que les expériences de laboratoire. Toutefois, elles ont leurs limites propres, puisqu’elles peuvent difficilement être
- répétées, vérifiées, variées. D’une façon générale, toute expérimentation aboutit nécessairement à des lois relativement « sèches », abstraites, qui demandent à être invoquées avec prudence dès qu’il s’agit d’interpréter un cas concret. Or, ici, les cas concrets, ce sont les groupes réels qui se constituent dans l’entreprise, dans le syndicat, dans l’organisation en général. Quand il s’agit de diriger effectivement une réunion de décision, et quand on veut que tous puissent s’exprimer et participer démocratiquement à la décision finale, le problème de l’application efficace des lois obtenues par l’expérimentation se pose avec acuité. On peut penser que l’expérience clinique des « praticiens » peut être aussi importante que les convictions scientifiques des « expérimentaux ». Cette expérience clinique, on la trouve chez les psychothérapeutes qui pratiquent la thérapeutique de groupe, à laquelle nous avons fait allusion précédemment; on la rencontre aussi chez les psychologues lewi-niens, moréniens, voire psychanalystes, qui ont organisé aux États-Unis et en Angleterre des Centres de formation aux « relations humaines » où l’on utilise la méthode des groupes. Les praticiens qui opèrent au National Training Laboratory for Group Development de Bethel, ou au Tavistock Institute de Londres ne se bornent pas à appliquer des lois issues de travaux expérimentaux, mais sont obligés de formuler in vivo des hypothèses qu’ils vérifient au cours du développement même des groupes dont ils ont la charge.
- Notons bien toutefois qu’une telle pratique clinique peut susciter après coup des études expérimentales. Il ne semble pas qu’il faille opposer esprit clinique et esprit expérimental : dans le domaine des sciences de l’homme, la « méthode scientifique » doit précisément intégrer le point de vue expérimental (interprétatif) et le point de vue clinique (compréhensif). C’est ce qui fait la difficulté propre en ce domaine. Elle ne doit pas être éludée : la recherche de l’objectivité, dans les sciences psycho-sociales qui nous intéressent ici, demande un effort pour combiner le laboratoire et l’observation dans les conditions naturelles, réellement vécues; c’est à cette condition que les sciences psycho-sociales et en particulier la psychologie des groupes peut avoir finalement prise sur la réalité, et alors, peut-être, contribuer à son évolution.
- (à suivre). Jean-Claude Filloux.
- Agrégé de l’Université.
- Fusée atomique soviétique
- Les premiers essais d’une fusée atomique ont eu lieu récemment en U.R.S.S. Le système adopté combinerait la propulsion atomique et la propulsion chimique, ce qui permettrait d’obtenir une vitesse de sortie des gaz de 6 km/s, soit le double de celle qui est obtenue par les moyens classiques.
- La poussée développée par le moteur serait de l’ordre de 180 ooo kg. Le propulseur atomique de cette fusée utiliserait
- 3o kg d’uranium 235 enrichi et i3 kg de graphite servant de modérateur. Le moteur-fusée chimique qui lui est associé comporte quatre chambres de combustion classiques exécutées en un nouvel alliage, et brûlant de l’oxygène et de l’hydrogène liquides. La durée de combustion serait de 200 s.
- Ce moteur est prévu pour équiper un véhicule de 22 m de long et 5 m de diamètre. J. S.
- Les détergents font des mousses nuisibles
- Le Ministre des Eaux de l’Allemagne fédérale a précisé récemment les inconvénients que comporte la présence des détergents de synthèse dans les eaux résiduelles, issues des agglomérations urbaines et des installations industrielles.
- 1° Les mousses produites par les détergents s’opposent à la transmission de la lumière et de l’oxygène, surtout si ces mousses ont adsorbé certains autre® agents de pollution. De ce fait, le développement du plancton est entravé, appauvrissant du même coup la faune. L’auto-épuration de l’eau s’en trouve nettement diminuée.
- 2° A partir d’une concentration de 1 mg/1, les détergents ren-
- dent difficile le traitement des eaux destinées à la consommation humaine. Les techniques actuelles sont impuissantes, et ne peuvent assurer l’élimination totale des détergents dans les eaux potables.
- 3° L’efficacité des stations d’épuration biologique est diminuée de 10 pour 100, lorsque la concentration des détergents atteint le taux de 10 mg/1.
- 4° La couche de mousse s’élève parfois, jusqu’à 4 m au-dessus de la surface de l’eau. Ce phénomène se produit surtout au niveau des barrages et des écluses, où la visibilité devient presque nulle. Cela entraîne des risques, graves pour la navigation et surtout pour les légères embarcations de plaisance» Y. M.
- p.377 - vue 380/558
-
-
-
- 378
- Le tragique bilan des séismes de I960
- incombe en grande partie à la mauvaise qualité des constructions
- Les premiers mois de i960 ont été marqués par plusieurs catastrophes séismiques qui ont entraîné de lourdes pertes de vies humaines et des dégâts immenses. Comme il Lavait fait après le tremblement de terre d’Orléansville, le professeur J.-P. Bolhé, directeur de l’Institut de Physique du Globe de Strasbourg, a bien voulu exposer, pour nos lecteurs, les principales observations du séismologue à ce sujet et les enseignements pratiques que l’on doit
- en tirer.
- La succession rapide des secousses désastreuses qui ont touché tour à tour Mélouza en Algérie, Agadir au Maroc, Lar en Iran et surtout une grande partie du Chili central, a vivement ému l’opinion publique qui s’est demandé si nous assistions à une recrudescence, peut-être inquiétante, de l’activité séismique. Les notes qui suivent montreront qu’en fait l’énergie séismique qui s’est libérée en ces quelques mois reste bien inférieure à celle qui avait marqué certaines années, l’année 1906 par exemple, au cours de laquelle cinq grands séismes de magnitude supérieure à 8 avaient ébranlé la Californie, la Colombie, le Chili, les Aléoutiennes et la Nouvelle-Guinée.
- Le tragique bilan des séismes de i960 (des dizaines de milliers de morts) incombe en grande partie à la mauvaise qualité des constructions; architectes et entrepreneurs de travaux publics doivent en tirer la leçon.
- Intensité et magnitude. — Les dégâts produits par un séisme peuvent être chiffrés dans une échelle internationale d’intensité en 12 degrés dont nous avons déjà, dans cette revue, donné une définition condensée.
- Degré VI : crépis fendillé ; vaisselle brisée ; cloches mises en branle ; chute de plâtras.
- Degré YII : maisons légèrement endommagées ; lézardes dans les murs ; chute de cheminées ; écroulement de minarets de mosquées ou d’églises mal construites.
- Degré VIII : sérieux dommages ; fentes béantes dans les murs ; chute de la plupart des. cheminées ; chute de clochers d’églises ; renversement ou rotation des statues, des monuments funéraires, etc.
- Degré IX : de solides maisons de construction européenne sont sérieusement endommagées, un grand nombre rendues inhabitables ; d’autres s’écroulent plus ou moins complètement.
- Degré X : la plupart des bâtiments en pierres et en charpentes sont détruits, avec leurs fondations ; fentes dans les murs en briques1 ; rails de chemins de fer légèrement recourbés ; dommages aux ponts. ; tuyaux de conduites et canalisations brisés ou refoulés les uns dans les autres ; fissures dans les terrains humides ; éboulements.
- Degré XI : destruction totale des bâtiments de pierre, des ponts, des digues. ; larges déchirures et crevasses dans le sol ; grands éboulements de terrain.
- Degré XII : rien ne demeure plus des œuvres humaines ; importants changements dans la topographie.
- On s’est efforcé de relier l’échelle d’intensité empirique à une échelle rationnelle basée sur l’accélération maximale communiquée par une secousse à une particule du sol. Après une étude détaillée des séismes californiens et la mesure directe de l’accélération du mouvement du sol au moyen d’accéléromètres, malheureusement encore trop peu répandus, Gutenberg a pro-
- posé la relation approximative suivante : log y = 1/3 — 1/2, y étant l’accélération en cm/s/s, et / l'intensité observée.
- L’application de cette formule fournit les équivalences suivantes (si g est l’accélération de la pesanteur) :
- 1 = 6 y = - - 0,o3.gr
- I = 8 y = • ~ 0,i5.g
- 1 = 10 Y = ~ o,65.g
- L’intensité d’un séisme, telle qu’elle est définie par l’échelle internationale, varie d’un point à l’autre et l’intensité maximale à l’épicentre est une notion peu précise. Pour remédier à ces inconvénients, on a cherché à définir une quantité, appelée magnitude, liée à l’énergie développée au foyer du séisme. La magnitude est déduite de la lecture des séismogrammes. C. F. Richter (Pasadena) a défini la magnitude par le logarithme de l’amplitude maximale mesurée en microns sur l'inscription obtenue à une distance épicentrale de 100 km, inscription donnée par un séismographe étalon ayant une période de 0,8 s et un grandissement de 2 800. La notion de magnitude, d’abord établie pour les séismes californiens, a été ensuite étendue aux séismes éloignés, en mesurant sur les séismogrammes soit l’amplitude maximale des ondes superficielles, soit celle des ondes longitudinales et transversales (ondes P et ondes S).
- De nombreux chercheurs ont tenté, à partir de formules expérimentales, de relier la magnitude M à l’énergie E (en ergs) développée au foyer du séisme. En fait, les formules proposées diffèrent souvent assez notablement; les plus récentes ont abouti à calculer des énergies plus faibles que celles qu’avaient annoncées les premiers auteurs. Nous utiliserons ici la formule de Richter (1958) : log E = 11,4 + 1,5 M.
- Le séisme de Mélouza (21 février I960)
- La secousse principale s’est produite le 21 février i960 à 08 h i3 mn .82 s (T. U.). L’épicentre (36°o N, 4°i E) se place dans le Djebel Choukott (1 800 m d’altitude’) qui forme l’un des chaînons méridionaux de l’Atlas tellien, entre les monts du Hodna et le Titteri. De magnitude voisine de 5,5 (E = 4.io19 ergs), le séisme a causé des dégâts localisés au village de Mélouza et au douar Reni-Ilman dont les mechtas s’échelonnent au flanc du djebel, entraînant la destruction totale ou partielle d’une grande partie des gourbis; 47 morts et 88 blessés étaient dénombrés ; la plupart des victimes étaient des vieillards, des femmes et des enfants (dont une quinzaine furent tués dans l’école musulmane); les hommes, occupés aux travaux des champs, assistèrent impuissants à la catastrophe.
- Les secours furent très rapidement organisés : à 12 h, cinq médecins militaires et civils étaient déjà sur place et à i4 h les cinq hélicoptères envoyés à Mélouza avaient achevé le transport des blessés à Sétif. Dès le soir un convoi de camions parvenait à Mélouza, apportant vivres, couvertures et tentes.
- Le séisme s’inscrit dans la longue liste des séismes destructeurs en Algérie (*) : comme dans l’ensemble de la zone alpine, les séismes marquent en Algérie la continuité de l’effort orogénique : les chaînes littorales (Babors, Djurdjura, Atlas mitid-jien, massif de Miliana, Dahra, Sahel d’Oran, Traras), les mon-
- 1. Voir : Le tremblement de terre d’Orléansville et la séismicité de l’Algérie, par J.-P. Rotbé, La Nature, janvier 1955, p. 1-9.
- p.378 - vue 381/558
-
-
-
- 379
- Fig. 1. — Carte séismique de l’Algérie.
- Le triangle noir indique la position de l’épicentre du séisme de Mélouza.
- Guelma
- , •• •
- ^ / flrlpan<a/illp
- Relizà^îps^ '—
- Médéa
- ^Tjli Dou Arreridj
- ----'“"177
- Hoonf--------'
- Tebessa
- Tiaret
- • Epicentres O Epicentres douteux © Epicentre du séisme du 9.9.54 -----Axes anticlinaux
- Socle ancien : terrains métamorphiques
- Ai'n Sefra
- tagnes du Tell intérieur (Bibans, Titteri, Iloldna), l’Atlas saharien sont tour à tour et périodiquement le siège de mouvements dont les épicentres jalonnent, tantôt sur un point, tantôt 6ur un autre, la chaîne active; de nouveaux foyers apparaissent qui ne figuraient pas encore sur la carte de séismicité. L’exemple du séisme de Mélouza est à cet égard significatif ainsi qu’on peut le voir sur la carte (fig. x) où la position de l’épicentre de la secousse du 21 février i960 est représentée par un triangle noir. Jusqu’à présent aucun séisme important n’avait été identifié dans cette région qui cependant devait être, pour des raisons séismotectoniques, considérée comme dangereuse au même titre que l’ensemble de l’Atlas tellien.
- Le séisme d’Orléansville, qui fit 1 2Ôo morts le 9 septembre 1954, avait cruellement souligné la nécessité de réaliser en Algérie des constructions anti-séismiques. En 1955 le Ministère du Logement et de la Reconstruction a établi des recommandations relatives aux constructions à édifier dans les régions sujettes aux séismes (Recommandations AS 55). En prenant pour base la carte des épicentres, l’Algérie a été divisée en trois zones : une zone sans danger séismique constituée principalement par les hautes plaines oranaises et algéroises, une zone A de faible séismicité (plateaux oranais et la plus grande partie de l’Atlas saharien), et enfin une zone B de forte séismicité qui comprend l’ensemble de l’Atlas tellien (et par conséquent la région même de Mélouza) ainsi qu’une partie de l’Atlas saharien. Des coefficients séismiques à admettre dans les calculs statiques des constructions ont été établis pour les zones A et B ; ces coefficients tiennent compte également des conditions de fondation (nature du terrain) et de la profondeur des fondations (2).
- Ces recommandations, qu’il est urgent de transformer en règlement obligatoire, sont faciles à appliquer pour les nouvelles constructions urbaines; elles risquent cependant d’être peu efficaces pour protéger les populations rurales des régions séismiques; les habitations menacées sont souvent, comme à Mélouza, des groupes de gourbis appartenant à des douars isolés dans la montagne et la mauvaise construction de ces maisons (murs en terre, poutres centrales trop lourdes, pierres sur les toits de chaume) risquent d’entraîner de lourdes pertes de vies humaines ainsi qu’en témoignent les secousses du Hodna en
- 2. Voir par exemple : Les effets des tremblements de terre, par J.-P. RotUé. La Terre, coll. de la Pléiade, N. R. F., Paris, 1959, p. 149-169.
- 1946, des Beni-Rached en 1954 et de Mélouza en i960. C’est à cette protection des populations rurales qu’administrateurs et architectes doivent désormais s’attacher en réalisant des types de petites maisons rurales faciles à construire et capables de résister aux secousses grâce à des fondations solides, des murs soigneusement chaînés et des charpentes bien ajustées. L’effort poursuivi en Turquie peut, à cet égard, servir d’exemple.
- En Algérie même, à la suite du séisme de Mélouza, M. Louis Gas, commissaire à la reconstruction et à l’habitat rural, a déclaré le a3 février 1960 : « Depuis le séisme du Chélif, mille secousses telluriques, dont certaines intenses, ont de nouveau ébranlé l’Algérie. En conséquence, il a été créé un fonds spécial de reconstruction et d’aménagement dont le financement est assuré dans la proportion de 80 pour 100 par l’État et 20 pour 100 pour l’Algérie. En outre, des constructions nouvelles paraséismiques sont étudiées par le bureau Securitas. »
- Le séisme d'Agadir (29 février I960)
- Survenant quelques jours après le séisme meurtrier de Mélouza, la catastrophe d’Agadir, par l’ampleur et la soudaineté d’un désastre frappant une région florissante et jusque-là privilégiée, a soulevé une émotion considérable : terrible « coup au but » qu’un foyer séismique au voisinage même d’une grande ville et dont, hélas, la destruction de Messine en 1908 (avec 85 000 morts) et celle de Quelta au Pakistan en ig35 (avec plus de 3o 000 morts) sont des précédents tristement célèbres.
- Pourtant chaque année i5o séismes atteignent ou dépassent; en énergie celle qui s’est libérée dans le séisme d’Agadir : en effet sa magnitude, déterminée par plusieurs bonnes stations, est voisine de 5 3/4- Il est intéressant de comparer l’énergie correspondante (io20 ergs) avec celle qui a pu être libérée
- dans un certain nombre de grands séismes
- Nombre
- de Energie Energie
- M morts (ergs) /Agadir
- Lisbonne (1755) 19) (30 000) S.1024 80 000
- Assam (1950 8,6 1 500 2,1021 20 000
- Tokyo (1923) 8,3 140 000 7.1023 T 000
- San Francisco (1906) . 8,2 400 5.1023 5 000
- Messine (1908) 7,5 100 000 4,5.10** 450
- Orléansville (1934) .. 6,75 1 400 3,3.1021 33
- Agadir (1960) 5,75 (10 000) io=° 1
- p.379 - vue 382/558
-
-
-
- Zone pré-atlasique méridionale-*--A*—---------Zone synclinale du Sous
- o
- î*j
- es'
- 0)
- 13
- ‘01
- C
- o
- £
- Q>
- 3
- .0*
- rQ
- ca
- «J
- a
- <0
- c
- fi
- •5
- U
- «
- CU
- a
- Fig. 3. •— Tassements dans le remblai des quais du port.
- (Photo Erimesco).
- Lignes de cassure
- Maison consulaire Douane Mairie Hôtel Saada Sud Building
- Flexure
- SO-fiO Pourcentage de
- JXJ D“ Hoctr'iiptinnc
- AOoWêlYachech
- ^^^^2^^ê^mariiWadministratif
- irelie Quartier
- u nti\l industrie/^
- Zone de l& flexure pré a 11<
- Echelle
- vers Ben Sergao et la base aéronavale
- Fi g. 4. — Plan schématique de la ville d’Agadir ; pourcentage de destruction dans les différents quartiers.
- «" On voit donc que l’énergie développée dans le séisme d’Agadir était
- c 33 fois moins forte que celle du séisme d’Orléansville, 45o fois moindre
- | que celle du séisme de Messine, 5 ooo fois moindre que celle du séisme
- | de San Francisco, 20 000 fois plus faible que celle du séisme d’Assam.
- H La position de l’épicentre, difficile à calculer de façon précise en uti-
- ^ lisant les enregistrements des 90 stations séismologiques qui ont enre-
- c gistré la secousse, a pu être déterminée par les observations sur le terrain
- c et le tracé des isoséistes (lignes d’égale intensité séismique).
- | Au cours de notre visite à Agadir, et avec la collaboration de
- Jjj MM. Ambroggi et Choubert, nous avons effectué deux profils et une reconnaissance aérienne qui permettent de définir le tracé de la ligne isoséiste séparant la zone d’intensité VI de celle d’intensité YIÏ. La
- p.380 - vue 383/558
-
-
-
- 381
- localité non endommagée d’Elmar au Nord, la partie Est de la ville industrielle au Sud, marquent la limite de la zone des dégâts. A l’Ouest, cette limite passe au voisinage de la cimenterie d’Anza ; vers l’Est, l’observation aérienne montre que les dégâts s’atténuent rapidement vers Anoun’Feg.
- Le point moyen de la zone « pléistoséiste « ainsi définie (fig. 5) a pour coordonnées 02°2r]' N, 9°3i7/ W. C’est un point situé à i km environ au Nord du faubourg de Yachech (3).
- Le tracé des isoséistes dans la zone épicentrale est difficile à faire car les dégâts se répartissent de façon très inégale, en raison même de la diversité que présentent les types de constructions.
- L’intensité X a été attribuée aux quartiers de la Casbah, de Founli, de Talborjt et de Yachech où les destructions sont à peu près totales, et où des fissures recoupant plusieurs routes et des éboulements ont été constatés; l’intensité IX (destruction partielle ou totale d’édifices solides) caractérise le quartier administratif et la ville nouvelle; l’intensité VIII (fentes, lézardes, écroulements partiels) le faubourg d’Anza (douar Mareuil) et une partie de la ville nouvelle (Extension x)\ l’intensité VII (lézardes, chute de plâtras) la région de la cimenterie d’Anza et l’entrée Sud de la ville d’Agadir.
- Le rayon de la zone des dégâts est, par conséquent, seulement d’environ 5 km. A titre de comparaison, indiquons que ce rayon était de 35 km environ lors du séisme d’Orléansville (9 septembre ig54).
- Les effets sur le terrain (fissures, cassures, craterlets) ont été très peu nombreux et nullement comparables aux effets provoqués par le séisme d’Orléansville dans la région de Beni-Rached (La Nature, janvier 1955). Dans la ville d’Agadir, certaines routes et rues sont localement crevassées, là où ces routes et rues sont en remblai ; ces crevasses sont sinueuses et sensiblement parallèles au bord du remblai : il s’agit seulement de tassements locaux.
- Dans le port les blocs de béton constituant les jetées ont été déplacés de 75 cm et disjoints; en arrière des quais, les remblais se sont tassés d’autant plus qu’on se rapprochait des môles et, en certains endroits, de véritables entonnoirs d’effondrement atteignant 1 m de profondeur se sont formés (fig. 3). Ce phénomène de tassement différentiel du remblai par rapport aux blocs de béton a entraîné la chute de la plupart des grues du port.
- Les destructions dans la zone montagneuse au Nord et au Nord-Est d’Agadir (anticlinorium d’Aït-Lamine) ont fait l’objet d’une étude détaillée de la part des géologues de Rabat (M. Choubert et Mlle Faure-Muret). Plus de 600 morts ont été dénombrés dans les groupes de villages ou de hameaux installés dans cette région de hautes collines. Quant au nombre des victimes dans la ville même d’Agadir, il est difficile à chiffrer exactement (i5 000 à 20 000 morts P).
- Profondeur du ioyer. — L’ampleur des dégâts observés à Agadir doit s’expliquer par une profondeur de foyer très faible, à proximité même de la ville.
- En l’absence de stations séismologiques proches de l’épicentre, il n’est pas possible de déduire des enregistrements la profondeur du foyer. Pour avoir une idée grossière de cette profondeur, on est tenu d’appliquer des formules générales et approximatives, liant soit l’intensité macroséismique à l’épicentre la magnitude M et la profondeur h du foyer, soit encore 70, h et le rayon r de l’isoséiste G,,5 (limite entre les intensités 6 et 7). Citons par exemple la formule proposée par Shebalin : 2,3 log h = M -f 2,0 — 0,7 ï0.
- Les résultats obtenus en utilisant les différentes formules
- 3. Le séisme d’Agadir et la séismicité du Maroc (Rapport de mission au gouvernement marocain), par J.-P. Rothé. Publications du Service de la Carte géologique du Maroc (sous presse).
- ! S Et Ma
- 1 Ait Lahmine
- --1» '"N
- Anoun Feg
- AGADIR
- Ben Sergàô%np, s E
- Inezgane
- Le séisme d’Agadir : carte des isoséistes.
- Fig. 5.
- concordent pour indiquer que la profondeur du foyer du séisme d’Agadir est probablement comprise entre 2 et 3 km.
- Interprétation géologique des dégâts. — Dans un intéressant mémoire, R. Ambroggi (4) a donné une description détaillée des éléments tectoniques qui intéressent la région d’Agadir. Je résumerai ici les faits principaux. Les recherches récentes ont montré que, dans toute l’Afrique du Nord, la zone plissée de l’Atlas saharien, élément le plus méridional de la zone alpine, vient en contact avec le bouclier africain par l’intermédiaire d’un grand accident, l’accident sud-atlasique qu’on peut suivre du golfe de Gabès à Agadir, en passant par Biskra, Laghouat et Figuig.
- En fait, aux environs d’Agadir, l’accident sud-atlasique se divise en deux branches et c’est sa branche méridionale (appelée accident préatlasique) qui, à Agadir même, marque le plongement à la verticale des terrains crétacés de l’anticlinorium d’Aït-Lamine. La branche septentrionale passe à une dizaine de kilomètres plus au Nord au delà du synclinal d’Assersif.
- La zone épicentrale (zone des dégâts) du séisme d’Agadir se superpose presque exactement à l’anticlinorium d’Aït-Lamine. D’autre part, l’excellente coupe NW-SE publiée par Ambroggi dans son mémoire montre une corrélation évidente de la structure géologique et de la répartition des intensités macroséismiques à travers la ville d’Agadir (fig. 2).
- L’intensité maximale s’observe à l’aplomb de la « flexure préatlasique » sur laquelle sont situés les quartiers de Founti, de Yachech et de Talborjt. Cette flexure prend probablement en profondeur l’allure d’un pli-faille; ce pli-faille a dû rejouer au moment du séisme ainsi qu’en témoignent les lignes de fissures que nous avons relevées au cours de ma mission. Ces fissures forment deux alignements de direction SW-NE et recoupent transversalement plusieurs routes, en particulier la route principale n° 1 et les routes qui traversent Founti ou qui montent à la Casbah. Leur direction est, cette fois, indépendante des bords des remblais et elles apparaissent bien comme des amorces de cassures qui se superposent à la grande flexure tectonique, sur la retombée Sud de l’anticlinal de la Casbah (voir le plan schématique, fig. 4).
- 4. Le séisme d’Agadir, rapport géologique, par A. Ambroggi, Rabat, 1960 34 p., cartes.
- p.381 - vue 384/558
-
-
-
- 382
- La Casbah et l’agglomération de Yachech étaient de construction berbère ancienne en pisé de terre ou plus récente en pierre. Les deux quartiers de Founti et de Talborjt ont été construits respectivement entre 1920 et ig3o et entre 1935 et ig5o; ils comprenaient principalement des maisons d’un à trois étages avec des murs en maçonnerie et des planchers en béton
- (fig. 6, 7, 8).
- Ces quatre quartiers se trouvaient au voisinage même ou sur la flexure préatlasique, par conséquent à l’aplomb de terrains plongeant presque à la verticale. Le quartier de Founti, directement accroché sur la pente, au flanc de l’anticlinal de la Casbah, occupait une position très dangereuse. Le quartier de Talborjt était construit sur une série de couches redressées où alternent grès, calcaires et marnes : les fondations des maisons risquent ainsi d’être appuyées sur des terrains hétérogènes, circonstance aggravante en cas de séisme.
- Sous le plateau administratif où les dégâts sont importants (intensité IX), le plongement des couches est encore notable. On est davantage étonné du taux de destruction dans la ville nouvelle : peut-être faut-il incriminer la couche de dépôts quaternaires qui repose horizontalement en discordance sur les couches plus anciennes et qui a pu jouer le rôle de plaque vibrante.
- Les effets du séisme s’atténuent rapidement dès que, dans la zone synclinale du Souss, les couches redeviennent sensiblement horizontales (quartier industriel, sortie Sud de la ville
- Fig. 6. — Centre du quartier de Talborjt.
- {Photo G. Ghoubert).
- d’Agadir, Ben Sergaou, etc.). Dans cette zone, c’est surtout la distance à l’épicentre qui a joué le rôle important Contrairement à ce qui a été souvent observé, les couches alluviales n’ont pas entraîné de renforcement général de l’intensité macroséismique dans la plaine du Souss; très localement seulement, se sont formés les fissures et les craterlets signalés plus haut.
- R. Ambroggi a souligné le rôle joué par des accidents secondaires comme la faille du Tildi et la faille du Lahouar :
- « la faille du Tildi a freiné les ondes meurtrières ; la faille du Lahouar les a arrêtées. »
- On peut dire, en résumé, que le séisme d’Agadir a été causé par un mouvement qui s’est produit vers 2 à 3 km de profondeur au sein de l’élément préatlasique ; le mouvement a entraîné une amorce de rupture le long de la flexure sud-atlasique qui joue le rôle de charnière entre l’Atlas plissé et la fosse de subsidence de la plaine du Souss.
- Les destructions dans la ville moderne. — Quand on parcourt la partie moderne de la ville abandonnée, on est frappé par l’irrégularité des dégâts. Tantôt des bâtiments se sont complètement effondrés, tantôt au contraire beaucoup d’autres sont restés debout tout en présentant des désordres importants.
- De nombreuses villas ont été très fortement endommagées : leur maçonnerie faite en moellons bruts de taille très inégale avec des remplissages de mauvais mortier, sans aucun chaînage, apporte un exemple de mauvaise construction qui s’est disloquée sous l’action du choc séismique. Les murs de l’église catholique (fig. 9) montrent les mêmes défauts.
- Dans les bâtiments à ossature, la mauvaise tenue des remplissages est un fait général. Un exemple est fourni par les désordres observés au lycée : les panneaux de briques creuses de 12 formant les murs extérieurs se sont effondrés à l’intérieur des classes, heureusement vides (fig. 10).
- Dans de nombreux bâtiments, ces effondrements de cloisons ou de panneaux ont provoqué des pertes de vies humaines, ce qui montre, même lorsque l’ossature résiste, le danger de remplissages faits sans précautions particulières. Plusieurs techniciens ont constaté que la gravité des désordres dans les remplissages décroît avec la hauteur : l’effondrement est
- Fig. 7. — Le quartier de Founti au flanc de l’anticlinal de la Casbah.
- Fig. 8. — Ruines du quartier de Yachech (Photos J. Rothé).
- p.382 - vue 385/558
-
-
-
- 383
- souvent total au rez-de-chaussée, alors que le troisième étage est presque intact. F. Vialet explique ce fait par un amortissement du choc le long de l’ossature.
- De nombreux bâtiments se sont effondrés verticalement, k télescopés ou agenouillés » (hôtel Saada, « immeuble consulaire », hôtel Gauthier). L’accélération verticale a certainement
- Fig. 11. — L’immeuble Sud-Building, à Agadir.
- Fig. 12. •— Le bâtiment des douanes d’Agadir : exemple de bonne construction antiséismique.
- été très importante; murs et piliers n’ont pu supporter l’augmentation de charge qui en a résulté. Sans doute peut-on voir là aussi une explication des grands dommages subis par les rez-de-chaussée des villas ou par les étages inférieurs des grands immeubles ; ces étages inférieurs ont été écrasés sous le poids des superstructures.
- Parfois aussi, ce sont seulement les étages supérieurs, probablement mal soutenus ou mal liés au reste du bâtiment, qui se sont effondrés. Un exemple en est fourni par l’immeuble du Sud-Building, dans la ville nouvelle (fig. n).
- Par contre, même dans les zones très éprouvées, quelques bâtiments ont relativement bien l’ésisté : le centre médicosocial de Yachech, seul bâtiment resté debout au milieu de ruines totales, le bureau de poste de Talborjt établi sur de bonnes fondations, le bureau des douanes, à l’entrée du port; quoique situé à quelques dizaines de mètres de la cassure principale signalée plus haut, ce bâtiment de conception très moderne a parfaitement résisté à la secousse : construit sur du terrain remblayé, il repose sur des pieux en béton de 8 à io m de profondeur prenant leur appui sur le sol rocheux (fig. 12).
- C’est aux architectes qu’il appartient de rechercher pourquoi certains bâtiments ont mieux résisté que d’autres. Il est extrêmement souhaitable qu’une documentation aussi complète que possible soit recueillie sur chacune des constructions importantes de la ville : l’établissement de fiches statistiques indiquant les éléments essentiels de la construction et son comportement au séisme apporterait des enseignements certainement très fructueux pour la réalisation des constructions antiséismiques t5)-
- La séismicité de l’Iran et le séisme de Lar (24 avril I960)
- On peut définir l’Iran comme un grand plateau triangulaire sans écoulement, dont l’émersion date du milieu de l’ère tertiaire, limité au Nord et au Sud-Est par deux faisceaux de plis formés surtout de terrains secondaires et qui, divergeant du haut pays de Van et d’Ourmiah ou de l’Ararat, courent respectivement vers l’Afghanistan et le rivage de la mer d’Oman.
- Déjà Montessus de Ballore écrivait en 1906 : « A défaut d’observations séismiques suivies, ces pays ont été depuis une
- Au tond, l'anticlinal de la Casbah couronné par les ruines de la Casbah.
- (Photos J. Rothé).
- 5. La résistance des constructions aux séismes, par F. Vialet. Le Moniteur des Travaux publics et du Bâtiment, n” 15, 9 avril 1960, p. 49-53.
- p.383 - vue 386/558
-
-
-
- 384
- Plateforme russe
- Plateau \ iranien
- Bloc arabique
- Chaînes de montagnes tertiaires
- Orogenèse ayant commencé à la fin du Primaire ( hercynien)
- Orogenèse alpine
- Volcanisme récent Epicentres
- si longue antiquité le siège de civilisations successives que la connaissance des désastres éprouvés suffit pour permettre, non seulement de leur assigner une grande instabilité générale, mais aussi de se faire une idée assez précise de la répartition des tremblements de terre que les mouvements de la fin du Tertiaire expliquent surabondamment. »
- Pénétrant dans le golfe Persique, bande affaissée, on rencontre dès son entrée l’île de Kichm ou de Tarilah à laquelle le grand tremblement de terre de juillet 1902 permet d’assigner une forte instabilité confirmée par celui de i884-
- Les secousses destructives de Farsinaj (i3 décembre 1957 : 34°7 N, 4t°9 E •' 2000 morts), de Chiraz (12 mars 1946 : 29°8 N, 5i°8 E), de Mencharageh (x865), les secousses fréquentes de Bender-Bouchir, la secousse du 3i octobre 1956 (26°5 N, 54°5 E) qui dévasta déjà le Laristan, démontrent que le territoire instable s’étend sur toute la bande plissée du Sud-Est de la Perse et sur la dépression qui la sépare des montagnes parallèles du Kirman. Ispahan, Kaschan et Hamadan ne sont pas à l’abri de secousses très sévères, venant sans doute des nombreuses rides parallèles situées entre la Mésopotamie et le désert central de l’Iran et qui vont au Sud du lac d’Ourmiah se réunir à celles du Kourdistan. Ces chaînes parallèles où le Miocène est plissé, se sont formées à une époque récente, et il est naturel d’y observer une grande densité d’épicentres, densité plus grande dans les chaînes méridionales que dans la chaîne septentrionale qui borde au Sud la Mer Caspienne et dont le plissement principal est plus ancien et date du début du Tertiaire.
- Sur la carte (fig. i3) établie d’après les travaux récents de F. Peronaci (6), j’ai reporté la position de l’épicentre du séisme qui, le 24 avril i960, a ravagé la ville de Lar, capitale du Laristan. Ce séisme a été étudié sur place par deux de nos compatriotes, M. P. Stahl, ingénieur-géophysicien de l’Université de Strasbourg, qui a installé à Chiraz une station séis-mologique moderne, et par l’ingénieur en chef des Ponts et Chaussées Paul Clos, qui avait dirigé avec une grande ténacité les travaux de sauvetage à Agadir.
- M. Stahl fixe au séisme du 24 avril à 12 h i4 mn 26 s un épicentre de coordonnées 27°6 N, 54° 1 E, point à une douzaine de kilomètres au Sud-Ouest de la ville de Lar; ce foyer s’est déplacé vers le Nord-Est lors de l’importante réplique du 3 mai
- 6. Sismicità clell'Iran, par F. Peronaci. Annali di Geofisica, vol. XI, Rome, 1958, pp. 55-68.
- Fig. 13. — La séismicité de l’Iran.
- La croix indique la position de l’épicentre du séisme de Lar.
- (D'après F. Peronaci).
- à 06 h 59 mn, et se trouve situé sous la chaîne de montagnes qui sépare Lar de Ivourdeh (27°7 N, 54°2 E). La magnitude de la secousse principale est voisine de 5,8 (du même ordre par conséquent que celle du séisme d’Agadir) ; celle de la réplique du 3 mai est voisine de 5.
- La ville de Lar (18 000 habitants) couvre un carré d’environ 100 ha; située à l’extrémité occidentale d’une plaine alluvionnaire allongée entre de hautes chaînes de montagnes de calcaire num-mulitique orientées Est-Ouest, la ville est bâtie au pied d’une colline de direction méridienne et longue de 1 km (fig. i4). Les dommages se répartissent en trois bandes étroites et parallèles à la direction de la colline : dans la deuxième bande, de 200 m de largeur environ, presque toutes les habitations, vétustes pour la plupart, se sont entièrement effondrées. Les demeures comprennent un patio entouré de murs épais construits en briques crues tenues par un mortier de terre ; les planchers sont constitués par une couche de terre, parfois de 4o cm d’épaisseur, reposant sur un lattis de baguettes de bois supportées par des perches de bois espacées de 4o à 5o cm ; les toits, très lourds, sont en glaise, sur troncs et branches de palmier. Les murs qui entouraient le patio, n’étant pas contre-ventés à la partie supérieure, se sont abattus en se désagrégeant, obstruant les rues très étroites. Les victimes ont été littéralement ensevelies sous une épaisse couche de terre. Il n’a pas subsisté sous les décombres d’espace vide permettant d’espérer le sauvetage de survivants. L’ingénieur Clos a procédé, malheureusement sans succès, à la prospection systématique des décombres en utilisant l’appareilllage d’écoute « Reichardt » qui avait, à Agadir, permis de retrouver et de dégager plusieurs
- Fig. 14. — Vue générale de Lar, prise de la crête rocheuse qui domine la ville.
- A.u premier plan, le toit en terre battue d’une maison construite sur le roc et tentes de réfugiés ; pas de ruines apparentes.
- (Photo P. Stahl).
- p.384 - vue 387/558
-
-
-
- 385
- Fig-. 15 et 16. — A Kourdeh : Ruines du caravansérail (en haut) ; dégâts à une citerne couverte (en bas).
- (Photos P. Stahl).
- survivants. Le nombre des victimes (45o morts, a ooo blessés) est exceptionnellement élevé en raison, semble-t-il, des circonstances particulières : à l’occasion de la fête des enfants, plus de 200 fdlettes défilaient avec leurs maîtresses dans les étroites ruelles où elles furent écrasées par l’effondrement des murs.
- On notera que les maisons situées sur le roc qui domine la ville ne montrent que de légères fissures, alors que les édifices construits sur les terrains alluvionnaires ont été endommagés. Aux environs de la ville, seule la localité de Kourdeh a présenté des dégâts importants (fig. i5 et 16) ; dans les villages de Latifi, Khur, Beraq, Gerash, les dégâts sont minimes.
- P. Stahl, dans un rapport préliminaire, réfute un certain nombre de nouvelles diffusées dans la presse internationale : nombre exagéré du chiffre des victimes, invasions de serpents et de loups, montagnes fendues et fumantes, sources chaudes, naissance d’un volcan, etc.
- Pour expliquer la curieuse répartition des dégâts dans la ville, P. Clos suppose que les ondes séismiques se sont réfléchies contre l’écran Nord-Sud constitué par la colline de Lar; l’interférence des ondes directes et des ondes réfléchies pourrait être la cause des graves dommages dans les deux premières bandes de la ville, voisines de la colline, l’effet ayant été d’autant plus accentué que les bâtiments étaient fondés sur des terrains meubles. Cependant, une étude géologique détaillée montrerait peut-être que, comme à Agadir, la tectonique locale a joué le rôle principal.
- De nombreuses « répliques », au moins une centaine, ont été ressenties à Lar et enregistrées par la station de Chiraz.
- Les enseignements des séismes de Mélouza, de Lar et d’Agadir
- Sans doute notre rôle de séismologue serait-il bien vain s’il se bornait à une sorte de comptabilité statistique et à une description des désastres : l’établissement des relations qui existent entre les tremblements de terre et les phénomènes géologiques permet cependant de mettre en lumière les grands traits
- Fig. 17. — Les grandes zones séismiques du monde.
- Les épicentres permettent de préciser la forme des principales zones séismiques.
- p.385 - vue 388/558
-
-
-
- 386
- de la structure du globe et doit conduire à définir les zones où les séismes font courir des risques, souvent grands, à la population. Ainsi de l’étude de chaque séisme se dégagent des enseignements qui doivent permettre d’organiser une « défense passive « efficace contre le fléau.
- Les trois séismes de Mélouza, d’Agadir et de Lar présentent de nombreux points communs :
- i° Tous trois font partie de la grande zone séismique méditerranéenne et transasiatique, zone qu’on peut aussi appeler la « zone alpine », et qui s’étend des Açores à l’Indonésie en passant par l’Afrique du Nord, les Apennins, les Alpes, les Dinarides,' l’Anatolie, l’Iran, l’Indou-Kouch, l’Himalaya et la Birmanie (fig. 17). Toute cette zone est jalonnée de séismes destructeurs, fréquents en Iran et en Algérie, plus rares au Maroc.
- 20 L’exemple du séisme d’Agadir présente cependant un caractère spécial : aucune secousse désastreuse n’était connue dans cette région depuis 1781, date à laquelle un voyageur français a signalé que Santa Cruz (identifiée avec Agadir) avait été détruite par un tremblement de terre. Ainsi la délimitation des zones dangereuses doit s’appuyer normalement sur les renseignements que fournissent depuis une cinquantaine d’années les dépouillements des séismogrammes, mais encore sur des documents historiques aussi nombreux et aussi précis que possible, et naturellement aussi sur des considérations de séismo-tectonique.
- 3° La magnitude des trois séismes a été très voisine (5,5 à 5,8) et par conséquent relativement faible. Ils ont cependant entraîné des dégâts importants et de lourdes pertes de vies humaines en raison de la grande médiocrité des constructions, toutes réalisées, même les plus modernes, sans aucun souci du danger séismique. Par conséquent il convient que, dans toutes les zones dangereuses que séismologues et géologues peuvent définir, soient appliquées des réglementations pour la construction de bâtiments antiséismiques. Aussi bien en Iran qu’en Turquie, en Grèce ou en Afrique du Nord, doivent être réalisés pour les constructions rurales les types de petits bâtiments antiséismiques dont nous avons parlé plus haut.
- 4° Dans la répartition des dégâts, les conditions géologiques jouent un rôle important : l’extension des villes, le déplacement des villages doivent être précédés d’une étude séismotectonique détaillée. Pour la reconstruction d’Agadir et de Lar, il est envisagé de neutraliser certaines zones particulièrement dangereuses de ces villes et de les transformer en « zones vertes ».
- 5° Sauf à Mélouza, les opérations de sauvetage ont été relativement lentes et difficiles. Des plans comme le plan français Orsec (Organisation des secours) doivent être étudiés et généralisés. Tout un matériel spécial doit pouvoir être rapidement rassemblé (camions, bulldozers, chalumeaux, etc.). Des parachutages de groupes de secours au voisinage des localités touchées ou des opérations héliportées permettent aujourd’hui des interventions rapides à condition qu’elles soient soigneusement prévues à l’avance.
- Les séismes du Chili (mai-juin I960)
- Les séismes qui ont débuté au Chili le 21 mai i960 et qui, au ier juillet, se poursuivaient encore, sont d’une ampleur bien différente de celle des séismes méditerranéens que nous venons de passer en revue. En effet, depuis le 21 mai, au moins six séismes originaires du Chili ont dépassé la magnitude 7 ; le plus fort, survenu 33 h après la première grande secousse, a atteint une magnitude voisine de 8,4 (io24 ergs).
- Peu de renseignements scientifiques précis ont encore été rassemblés concernant cette remarquable série de grands séismes. Voici, cependant, les coordonnées épicentrales provisoires et les magnitudes des principales secousses :
- Date Heure Coordonnées Magnitude
- 21 mai 1960.. 10 h 02 mn 37° 1/2 S 73° 1/2 W 7,4
- 22 mai 1960.. 10 h 32 mn 37° 1/2 S 73° W 7,4
- 22 mai I960.. 18 h 55 mn 38'° S 73° 1/2 W 7,8
- 22 mai 1960.. 19 h 10 mn 38° S 73° 1/2 W 7,6
- 22 mai 1960.. 19 h 11 mn 38° S 73° 1/2 W 8,4
- 20 juin I960.. 02 h 01 mn (38° S 73° 1/2 W) 7,5
- L’énergie totale développée dans ces six séismes est 13 000 fois plus grande que celle qui a été libérée dans le séisme d’Agadir. La comparaison des inscriptions des séismographes de Strasbourg est significative à cet égard. La figure 18 a montre l’inscription obtenue le 29 février pour une distance de 2 500 km (Agadir), alors que la figure 18 6 reproduit les inscriptions du 22 mai (Chili) pour une distance de 12 U00 km. On voit que, bien que la distance de l’épicentre à Strasbourg ait été beaucoup plus courte, l’inscription du séisme d’Agadir est très faible comparée à celles qui correspondent aux séismes chiliens du 22 mai.
- La carte schématique (fig. 19) indique la position des épicentres et les principales localités touchées par les secousses et par le raz de marée qui les a accompagnées. La zone des dégâts paraît s’étendre sur 600 km de longueur.
- On sait depuis longtemps que le Chili est une des régions du globe où l’activité séismique est la plus importante. Périodique-
- Fig. 18. — Fragments d’inscription à Strasbourg : a, du séisme d’Agadir (distance 2 500 km) ; b, de deux des séismes du Chili (22 mai 1960) (distance 12 400 km).
- p.386 - vue 389/558
-
-
-
- 387
- ment, de grands séismes se produisent le long de la côte : depuis l’installation des stations séismologiques, on peut citer les foyers suivants :
- 11 novembre 1922 .. 28° 1/2 S 70° W Magn. 8,3
- 6 avril 1942 ....... 30° 1/4 S 72° W 7,9
- 17 août 1906 ....... 33° S 72° W 8,4
- 1er décembre 1928.. 35° S 72° W 8,0
- 25 janvier 1939 ....... 36° 1/4 S 72° 1/4 W 7 3/4
- 22 mai 1960 ........... 38° S 73° 1/2 W 8,4
- On voit que, ici encore, les foyers des chocs principaux se déplacent le long de la zone active, frappant tantôt un point, tantôt un autre, sans que la « migration » de ces foyers présente des lois bien déterminées.
- Le Chili fait partie de la grande zone séismique circumpaci-fique, zone où, chaque année, se libère 8o pour ioo environ de l’énergie séismique totale.
- (§> Principaux épicentres
- 1-XIM928 et d3tes • Volcans actifs
- Curico
- V Las Damas
- 1-XII-1928
- O Talca
- oParral
- (»25-l-1939
- oChillan
- Talcahuano
- i Conception
- V.Chillan J
- Coronel.
- lïumbel
- (S) (S) V
- 21-V-60 22-V-60 10h02 10h32 /
- "Foyer
- Temuco
- V.LIaima
- )Tolten
- V.Villanca ^V. Quetrupillan
- Valdivia
- Lac Rmü
- •V. Rinihue
- —
- .Osorno
- #V. Puntaguido
- I ï O
- Osorno J
- Rierto Montt #V.Calpuco /Çj
- 100 Km
- Tout autour du Pacifique, de hautes chaînes de montagnes continuent leur formation dans la zone de contact entre les grands blocs granitiques continentaux et le sous-sol océanique, de nature basaltique. Cette formation s’accompagne, depuis des millions d’années, de plissements et de cassures, donc de tremblements de terre. La douloureuse catastrophe de i960 est un épisode fugitif dans la lente évolution géologique de la Terre.
- Lorsque les foyers des séismes chiliens se trouvent sous la mer, les secousses s’accompagnent de raz de marée souvent très violents. L’histoire des raz de marée partis des côtes du Chili est déjà longue (7) : au cours de quatre siècles, on compte sur la côté chilienne vingt grands tremblements de terre accompagnés de raz de marée destructeurs. L’origine des raz de marée est presque toujours un effondrement sous-marin accompagnant un séisme; il se produit un appel des masses d’eau voisines qui s’engloutissent dans l’eau libre. Si le foyer est proche de la côte, la mer se retire d’abord du rivage; aussi El mare se retira est-il le cri d’alarme des populations côtières du Chili. La masse d’eau entre ensuite en vibrations et les ondes se propagent au loin avec une vitesse v donnée approximativement
- par la formule v = \J gh, h étant la profondeur moyenne de la mer sur le trajet de l’onde et g l’accélération de la pesanteur.
- Voici, pour quelques raz de marée célèbres, les distances parcourues et les vitesses de propagation :
- Origine
- Japon 1854 .. Japon 1896 .. Pérou 1868 .. Chili 1906 ...
- Distance
- parcourue
- 9 000 km 7 700 km
- 16 600 km
- 17 600 km
- Durée
- de parcours
- 12 h 37 mn 10 h 34' mn 24 h 57 mn 23 h 31 mn
- Vil esse
- 714 km/h 730 km/h 660 km/h 749 km/h
- Les données exactes concernant le raz de marée de mai i960 ne sont pas encore connues, mais elles sont certainement du même ordre que celles du raz de marée de 1906, provoqué par le grand séisme destructeur de Valparaiso (magnitude 8,4) -
- En pleine mer, la vague séismique est peu importante, mais elle gagne graduellement en hauteur quand elle atteint des hauts-fonds ou approche d’une côte : la hauteur varie alors en raison inverse de la racine carrée de la profondeur; un véritable mur d’eau se forme qui peut dépasser une vingtaine de mètres. En déferlant sur les côtes, ce mur d’eau entraîne les dégâts considérables sur lesquels la presse a donné d’amples détails.
- Si le séismologue ici encore est impuissant quand il s’agit d’empêcher la formation du raz de marée, il lui est du moins possible d’éviter aux populations des pertes de vies humaines ; la vitesse de propagation de l’onde marine lui laisse quelques heures pour alerter les populations des lointains rivages menacés. A la suite du grand raz de-marée du ier avril 1946, originaire des îles Aléoutiennes et qui ravagea les îles Hawaï, atteintes au bout d’environ quatre heures, le service séismolo-gique américain a organisé un réseau d’alerte qui, en utilisant les enregistrements de stations séismologiques spéciales, doit pouvoir déterminer rapidement l’origine du raz de marée, suivre sa propagation et prévenir les îles menacées.
- Cette question de l’amélioration du système d’alerte pour une meilleure protection des populations riveraines du Pacifique est au programme d’un symposium qui doit se tenir au début d’août i960 à Helsinki, au cours de l’Assemblée générale de l’Union géodésique et géophysique internationale.
- J.-P. Rothé,
- Professeur à l’Université de Strasbourg, Secrétaire général de l’Association internationale de Séismologie et de Physique de l’Intérieur de la Terre.
- Fig. 19. — Carte schématique du Chili central ; épicentres et volcans actifs.
- 7. Les tremblements de terre, par E. Rothé. Bibliothèque de Philosophie scientifique, Flammarion, Paris, 1942, p. 180-183.
- p.387 - vue 390/558
-
-
-
- La sécrétion de venins />-benzoquinoniques chez certains Arthropodes
- Les substances p-benzoquinoniques sécrétées par divers arthropodes ont fait récemment l’objet d’études systématiques. Ces substances ont pu être isolées d’une douzaine d’espèces de Myriapodes (diplopodes), également d’une douzaine d’espèces d’insectes et d’une espèce d’araignée.
- La sécrétion d’un venin volatil par les diplopodes est connue depuis longtemps. En 1900, Béhal et Phisalix ont émis l’hypothèse qu’il pouvait s’agir de la p-benzoquinone elle-même. Lorsque ces animaux sont menacés, ils s’enroulent en spirale et le venin, par suite de la contraction d’une série de glandes réparties au long du corps, apparaît en gouttelettes jaunes. Si l’on saisit l’animal à la main, la peau se colore en rouge brun; -il se produit une sensation de brûlure, suivie d’une rougeur et, parfois, de desquamation. De nombreux cas de brûlures sont rapportés dans une revue de Burtt parue en 1947. Les effets de ce venin sont graves, lorsque l’animal peut le projeter; l’atteinte des yeux peut affecter les paupières et, par suite du gonflement qui s’ensuit, provoquer une perte temporaire de la vue. Des diplopodes africains, très redoutés des indigènes, mesurent jusqu’à 5o cm. Au Tonkin, d’autres sont si petits qu’ils peuvent passer au travers des petits accrocs des moustiquaires ; se promenant alors sur le corps des dormeurs, ils brûlent la peau sur leur passage, laissant de véritables traînées rouges. Barbier et Lederer ont, en 1967, publié les résultats de l’étude chimique du venin de diplopodes en provenance de Madagascar et d’Afrique. La p-benzoquinone et la méthyl-p-benzoquinone ont été isolées et identifiées. Trave, Garanti et Pavan (1959), effectuant un travail semblable sur un diplopode récolté en Italie, ont identifié la méthyl-p-benzoquinone, ainsi que la 2-méthyl-3-mé-thoxy-p-benzoquinone. Par la suite, étudiant une autre série d’espèces africaines, nous avons montré la généralité de la présence de la méthyl-p-benzoquinone dans le venin de ces animaux (1959). Durant ces recherches, il a été remarqué que certains individus ne produisaient pas de benzoquinones, alors que d’autres, de la même espèce et de la même origine, en produisaient. Un diplopode très particulier, malodorant, que nous
- avons ramassé dans les catacombes de Paris, n’a jamais été trouvé sécrétant des substances benzoquinoniques.
- Parmi les insectes, nous citerons le coléoptère Brachinus crépitons, dont le comportement curieux est bien connu. Lorsque cet insecte est menacé, il dirige la partie postérieure de son abdomen vers son adversaire et projette un liquide jaunâtre, qui met aussitôt l’ennemi en fuite. Schildknecht (1957) a trouvé dans la sécrétion de ce coléoptère de la p-benzoquinone et de la méthyl-p-benzoquinone.
- Vivant dans la farine, les Tribolium la rendent souvent inutilisable, en la colorant en rose. Des travaux d’Alexander et Bar-Ion (ig43) et de Loconti et Roth (1953) ont montré la nature benzoquinonique des substances rejetées, lesquelles se combinant avec les protéines de la farine, produisent la coloration rose. Il s’agit de la méthyl-p-benzoquinone, de l’éthyl-p-benzo-quinone et de la méthoxy-p-benzoquinone. Selon une hypothèse émise par Alexander et Barton, la production de ces substances permettrait aux Tribolium de limiter les naissances à un nombre fixe d’animaux, pour un volume déterminé de la farine...
- Selon des travaux de Fieser et Ardao (1956), le venin d’une araignée d’Amérique du Sud contiendrait la 2,3-diméthyl-p-benzoquinone, la 2,5-diméthyl-p-benzoquinone, et la 2,3,5-tri-méthyl-p-benzoquinone.
- Il existe donc chez certains invertébrés un mécanisme commun de défense, qui aboutit dans chaque cas à la production d’une arme chimique identique. On sait que les benzoquinones sont des substances très agressives et volatiles, ce qui leur confère un double rôle : elles peuvent agir comme venin, mais aussi, à l’état de vapeur, comme répulsif. On est encore réduit à des hypothèses quant à l’origine biologique de ces substances. Nous pensons qu’elles pourraient se former par oxydation de la tyrosine ou de l’o-tyrosine présentes dans la cuticule. Il semble également vraisemblable que ces quinones jouent un rôle lors de la formation de cette cuticule, en participant au processus du tannage.
- Michel B aubier.
- Un virus est-il à l’origine des Vertébrés ?
- L’évolution des êtres vivants est généralement expliquée aujourd’hui par des mutations, c’est-à-dire par des changements intervenus dans la structure des gènes portés par les chromosomes. Ces mutations le plus souvent ne représentent qu’une modification minime de l’espèce. C’est pourquoi il paraît difficile à certains d’expliquer ainsi l’apparition de caractères nouveaux de quelque importance.
- On sait que les gènes sont constitués essentiellement par de l’acide désoxyribonucléique (ADN). Les virus sont aussi des variétés d’ADN et on admet qu’ils peuvent s’incorporer dans certains cas à l’ADN d’un être vivant, comme le fait le bactériophage dans les bactéries. En s’incorporant à l’un des chromosomes d’une espèce, un virus, devenu un nouveau gène de cette espèce, ne serait-il pas capable d’en modifier d’importants caractères, plus que ne peut le faire la simple modification d’un gène préexistant P
- C’est par une hypothèse de ce genre que le docteur R. de Ruyck {Bulletin de la Société zoologique de France, 1958, p. 2.26) croit pouvoir expliquer l’apparition de caractères nouveaux au cours de l’évolution, et notamment celle d’un squelette chez les premiers ancêtres des Vertébrés.
- A partir de tumeurs placentaires humaines, le docteur R. de Ruyck a pu isoler un virus connu sous le nom de virus choriotrope. Celui-ci détermine chez l’embryon de poulet des lésions spécifiques et en particulier la différenciation de certaines cellules en cellules cartilagineuses. Ce cartilage présente des caractères absolument semblables à ceux du cartilage normal. Son apparition est toujours un phénomène brusque, la cellule prenant d’emblée une forme et des fonctions nouvelles, à partir du moment où elle a été infectée.
- On observe ainsi, dans un cas expérimental, un virus qui devient un agent inducteur de différenciations nouvelles et joue un rôle morphogène qui correspond à une véritable histogenèse. On peut se demander si cette propriété surprenante que possède le virus choriotrope de provoquer la différenciation d’une cellule en une autre physiologiquement plus spécialisée a pu s’exercer spontanément dans des conditions naturelles, et cela à quelles occasions et avec quels effets durables ? Est-ce qu’un tel virus, une fois introduit dans la lignée germinale d’un Invertébré, serait à même de provoquer la naissance d’individus dotés de tissu cartilagineux, c’est-à-dire de Vertébrés ? En d’autres termes des phénomènes de nature infec-
- p.388 - vue 391/558
-
-
-
- 389
- tieuse permettent-ils d’expliquer certaines des transformations qui ont marqué les grandes étapes de l’évolution ?
- Cette apparition du cartilage chez les Vertébrés est caractérisée par un certain nombre de faits particuliers. Elle a dû se produire dès le Silurien, ou peut-être même au Cambrien, en tous cas au début de l’ère primaire. Cette apparition a été brusque et d’emblée complète; on ne connaît aucun tissu intermédiaire entre le mésenchyme et le cartilage. Ce phénomène a été unique : jamais depuis le Silurien on n’a vu de nouveaux Vertébrés apparaître à partir d’autres souches. Tout s’est passé comme si les conditions favorables n’étaient apparues qu’une seule fois. Or, comme le montre l’expérience, l’infection par le virus choriolrope ne se produit qu’à la température de 38°. En admettant que les Invertébrés aquatiques sensibles au virus et le virus lui-même aient de tout temps coexisté, on comprend que de nos jours la formation de cartilage ne se produise plus, aucune mer n’atteignant la température de 38°. Au contraire à l’ère primaire, on peut supposer que la température des eaux était, bien plus élevée. Les conditions requises pour l’infection ne se seraient donc produites qu’une seule fois au cours des temps.
- Enfin le cartilage a d’emblée pris place dans l’organisation de l’individu. Par conséquent la modification génique qui a dû se produire dans les gamètes qui ont donné naissance aux
- premiers Vertébrés a dû s’introduire dans un arrangement génique défini. Ces nouveaux gènes intercalés auront ensuite la possibilité de muter dans tous les sens et la sélection naturelle aura la possibilité d’agir au cours des temps sur toutes ces modifications. L’infection par le virus a dû décimer presque totalement les précurseurs des Vertébrés. Seuls auront survécu les individus résistants et transformés.; on comprend ainsi l’absence de types intermédiaires entre les premiers Vertébrés et les Invertébrés qui leur ont donné naissance.
- De tout ce qui précède, il résulte, d’après R. de Ruyck, que les virus peuvent avoir eu des effets génétiques qui sont au moins aussi décisifs que ceux des mutations. La théorie infectieuse de l'évolution ainsi énoncée permet d’expliquer l’apparition du type Vertébré. Il est à noter qu’une conception infectieuse de l’évolution avait déjà été émise en 1908 par Noël Rernard qui avait suggéré qu’à l’origine des plantes vasculaires se trouvait une symbiose entre les plantes non vasculaires et les champignons. Cependant cette théorie n’expliquait pas l’apparition de nouveaux gènes. Des cas d’évolution par infection sont aussi connus chez les Bactéries. Le Bacille diphtérique ne sécrète une toxine qu’en présence d’un Bactériophage spécifique; de même les Salmonella élaborent des antigènes nouveaux dans les mêmes conditions.
- R. D.
- Les variations passées du climat du Sahara révélées par l’analyse pollinique
- L’absence ou la pauvreté de la végétation dans tout le Sahara est un des traits dominants de cette région. Et cependant, à chaque pluie, pendant quelques semaines, tous les deux ou trois ans, parfois tous les dix ans seulement, le désert nous montre qu’il n’est pas aussi hostile à la vie végétale que nous aurions pu le croire : en quelques semaines apparaît sur la dune et le reg tout un cortège d’espèces herbacées qui vont fleurir, mûrir leurs graines, puis revenir apparemment au néant. D’autre part, sur les massifs montagneux du Iloggar et du Tibesti, des précipitations qui dépassent parfois 100 mm par an entretiennent une végétation relativement riche : plus de 600 espèces ont été recensées sur le Tibesti.
- La plus grande partie de la flore du Sahara central et septentrional est constituée d’espèces érémitiques, c’est-à-dire hautement adaptées à la vie dans les déserts ; elles sont répandues de la Mauritanie au Sund. Au Sahara méridional apparaît un fort contingent d’espèces de la zone sahélienne, très résistantes à la sécheresse, avec en premier lieu des acacias. A côté de ces deux séries existent au Iloggar des espèces d’origine méditerranéenne comme l’olivier, le myrte, le pistachier de l’Atlas, le cyprès et des armoises. Au Tibesti encore plus méridional l’élément méditerranéen est encore présent vers 3 000 m ainsi que des espèces des Atlas marocains et des hautes montagnes de l’Afrique orientale et septentrionale.
- Cette flore résiduelle ne se rencontre, il est vrai, que dans des stations refuges très privilégiées mais sa présence n’en pose pas moins de singuliers problèmes. L’exploration préhistorique, zoologique et géomorphologique du Sahara avait déjà fait supposer l’existence d’une période à climat beaucoup plus clément que celui qui sévit à l’heure actuelle.
- Le docteur P. Quézel a pu préciser les conditions climatiques passées du Sahara en recourant à l’analyse pollinique; les sédiments utilisés pour la recherche du pollen fossile ont été datés par le dosage du radio-carbone. Voici les résultats obtenus (Bulletin de l’Institut français d’Afrique noire, avril i960) :
- — Le Würmien a été caractérisé au Sahara central par un climat relativement froid et sec présentant des variations importantes de température; la flore était alors constituée par des Graminées et des Salsolacées donnant un paysage de steppes.
- — Le début de la dernière période inferpluviale (entre 10000 et 6000 avant J.-C.) est au contraire individualisé par un climat tempéré et humide, sans doute de type méditerranéen humide, qui voit l’invasion de tout le Sahara par les espèces forestières méditerranéennes (Cèdre, Pin d’Alep, Chêne vert) et même par des éléments à feuilles caduques (tilleul, érable, aune, etc.).
- — La partie moyenne de cet interpluvial jusqu’à une période très récente (— 2800) voit le climat se réchauffer et s’assécher en restant toutefois de type méditerranéen, comme le prouve la flore correspondante (Pin d’Alep et Chêne vert, mais aussi Olivier, Cyprès, Genévriers).
- Ensuite le réchauffement se poursuit ainsi que l’aridification du climat; après une période où les peuplements d’Acacia de type sahélien sec ont envahi la quasi-totalité du Sahara, on voit s’installer la flore désertique actuelle.
- Ainsi donc, en quelques millénaires, les modifications de la végétation au Sahara ont accusé une importance insoupçonnée jusqu’ici. Dans les zones montagneuses du Sahara central le désert a progressé de 1 5oo km en 4 000 ans. La question est de savoir si, dans quelques siècles peut-être, le désert n’aura pas progressé encore de plusieurs centaines de kilomètres vers le nord. D’autant plus que l’exploitation par les pasteurs nomades des territoires de l’Atlas saharien a dû contribuer à ruiner très rapidement une végétation arborescente certainement à l’extrême limite de ses possibilités de survie. On peut se demander ce que sera le Maghreb dans quelques siècles si les habitants ne mettent pas en œuvre tous les moyens dont ils disposent pour sauver encore ce qui peut être préservé.
- R. D.
- p.389 - vue 392/558
-
-
-
- 390
- Les fourmis, auxiliaires de la lutte contre les insectes ravageurs des forêts en Italie
- La protection des forêts contre les insectes nuisibles a fait l’objet d’études nombreuses en Italie depuis une dizaine d’années. Les résultats obtenus ont été récemment publiés par les soins du Ministère de l’Agriculture et des Forêts d’Italie.
- Dans ce pays les surfaces boisées sont en augmentation constante. Les raisons en sont multiples : abandon progressif par l’homme des régions montagneuses des Alpes et des Apennins obligeant à reboiser les terres délaissées pour éviter l’érosion; arrêt de la fabrication du charbon de bois remplacé de plus en plus par des dérivés du pétrole dans l’usage familial. Il est donc nécessaire de songer à la protection des forêts contre les dégâts des insectes. L’emploi des insecticides s’étant montré souvent inefficace ou même nuisible, la lutte biologique à l’aide des fourmis a été essayée.
- Le rôle des fourmis du groupe de Formica raja (fourmi rouge) dans la destruction des insectes nuisibles est connu depuis longtemps. Leur élevage a déjà été préconisé en Allemagne par K. Gôsswald. Le problème a été repris sur une grande échelle sous la direction de M. Pavan, professeur d’En-tomologie agricole à l’Université de Pavie.
- Une étude systématique préliminaire a permis de reconnaître l’existence de quatre espèces utiles pour la lutte biologique. Ce sont Formica rufa, F. lugubris, F. aquilonia, F. polyctena. Une cinquième espèce également étudiée, F. nigricans, est sans intérêt pratique. L’espèce la plus répandue est Formica lugu-
- Fig. 1. — Un énorme nid de Formica lugubris construit par des fourmis transplantées dans une forêt de VApennin toscan.
- Ces fourmis sont acclimatées depuis plus d’un an dans un milieu nouveau
- pour elles.
- (Photo aimablement communiquée par le professeur M. Pavan).
- PADOUE
- GENES
- 50 100 km
- Fig. 2. — Distribution de la fourmi Formica lugubris en Italie.
- bris et c’est elle qui a fait l’objet de la plupart des expériences réalisées jusqu’ici. La distribution de ces foui’mis est limitée aux bois de sapins, mélèzes, épicéas et pins cembro de la région alpine, avec quelques cas de présence dans des bois de feuillus comme le hêtre. Le recensement a été conduit dans le territoire alpin italien, sur plus de 5o ooo km2, avec la participation de i 5oo agents forestiers. Le nombre de nids qui existent dans les Alpes est supérieur à un million. Leur volume varie de ioo à 3oo 1, et même plus dans certains cas; les plus petits nids l'enferment environ 5o ooo ouvrières, les plus grands arrivent à dépasser un million ; la population moyenne est estimée à 3oo ooo ouvrières. On arrive donc à une population totale estimée à 3oo milliards d’individus.
- La répartition altitudinale oscille entre 85o et i ooo m ; la limite inférieure s’abaisse d’ouest en est de x 3oo à 85o m en raison de l’apparition progressive d’un climat de plus en plus continental.
- Le poids moyen d’une fourmi est de 8 mg et elle peut absorber chaque jour une quantité d’aliments évaluée à un vingtième de son poids. En tenant compte d’une période d’activité annuelle de 200 jours, 24 ooo t d’aliments sont ingérés chaque année par les fourmis recensées. Des proies animales, dont la plupart sont des insectes nuisibles, représentent 60 pour 100 des substances ingérées. On peut donc estimer à i4 4oo t par an la quantité d’insectes ravageurs dont les fourmis rouges débarrassent les forêts où elles habitent.
- Il était intéressant d’essayer d’acclimater dans diverses régions de si actifs auxiliaires. Après un certain nombre de tentatives poursuivies durant plusieurs années, des résultats positifs ont été obtenus. Les nids sont récoltés de préférence dans les jours qui suivent la fonte des neiges (fin avril), quand les ouvrières commencent à abandonner leurs quartiers d’hiver situés dans le sol. Il est ainsi plus facile de recueillir dans les nids une grande quantité d’ouvrières avant qu’elles ne se dispersent dans la nature. Les nids sont constitués par des accumulations d’aiguilles de sapin, d’épicéa et de mélèze. Des récipients en bois d’une contenance d’un hectolitre, percés de trous pour l’aération, servent au transport. On introduit en outre, au fond de ces récipients, des fragments d’écorce et de bois carié afin de protéger les reines qui se cachent dans les abris qui leur sont offerts et continuent à pondre durant le voyage. Le transport se fait par camions (pouvant contenir jusqu’à 25o barils), de préférence la nuit ou le matin de bonne heure pour éviter les grandes chaleurs dont les fourmis souffrent beaucoup.
- p.390 - vue 393/558
-
-
-
- 391
- Fig. 3. — Matériaux utilisés dans la construction du nid de Formica lugubris.
- A. gauche : dans un bois de mélèze ; à droite : dans un bois de pin cembro.
- {Photos aimablement communiquées par le professeur M. Pavan).
- Chaque nouveau nid de transplantation est formé avec le contenu de deux barils et comprend une population de 200 à 5oO' 000 ouvrières avec de nombreuses reines. Après une période plus ou moins difficile d’adaptation, les fourmis transplantées réussissent à survivre et les colonies se développent. En bien des cas les insectes ont adopté de nouvelles techniques de construction de leur nid, changement imposé par les nouveaux matériaux qui sont alors à leur disposition (aiguilles de pin et feuilles de hêtre). Le nid artificiel est souvent abandonné et un nouveau nid est construit à côté; en effet la masse des matériaux transportés et accumulés artificiellement par l’homme possède une structure chaotique qui ne répond pas aux nécessités de stabilité, d’aération, d’imperméabilité à l’eau et de régulation thermique exigées par les fourmis.
- L’acclimatation a pu se faire en des endroits très éloignés des lieux d’origine. Des colonies prélevées dans les Préalpes lombardes et transportées jusqu’au flanc méridional de l’Etna, à 1 000 km au sud, ont parfaitement survécu dans une terre compacte et dans un climat très aride. D’autres acclimatations ont été réalisées en Italie centrale.
- Les résultats déjà obtenus sont très spectaculaires. Les chenilles processionnaires du pin sont détruites totalement. Les
- fourmis font preuve d’une grande agressivité : elles ont réussi dans certains cas à détruire des colonies du termite Calotermes flavicollis et livrent des combats acharnés aux fourmis indigènes. Les fourmis tiennent également en respect la ten-thrède Nematus erichsoni nuisible au mélèze. Les Coléoptères Cérambycides et Bostrychides, dont les larves sont protégées par leur mode de vie à l’intérieur du bois, sont cependant fortement réduits en nombre car les fourmis attaquent les femelles lorsqu’elles viennent pondre sur les arbres.
- Les résultats obtenus incitent à poursuivre les recherches en cours. C’est là un nouvel exemple, après bien d’autres, de la réussite de la lutte biologique entreprise contre les ravageurs de toute sorte. R. Dajoz.
- Le rôle de la salive chez les moustiques piqueurs
- Tout le monde sait que la piqûre des moustiques produit une réaction plus ou moins vive suivant la sensibilité des individus piqués et suivant les espèces de moustiques. Cette réaction se manifeste par de l’irritation et un érythème accompagné de gonflement autour du point piqué. Des expériences sur des lapins ont montré qu’il s’agit d’une réaction de type hypersensitif en réponse à l’injection d’un antigène au moment de la piqûre. On admettait généralement que l’origine de cet antigène se trouve dans les glandes salivaires mais il n’en avait pas été fait la preuve. C’est ce qui a amené trois biologistes de l’Université d’Ontario à entreprendre une série d’expériences extrêmement délicates dont les résultats sont résumés dans un article paru dans la revue Science du 10 juin i960.
- C’est une espèce relativement grande de moustique, VAedes stimulans, qui a été choisie pour ces expériences qui demandent une grande habileté. Il s’agit de couper le conduit principal résultant de la réunion des deux canaux provenant des glandes salivaires, conduit qui amène la salive à l’hypopharynx. Les moustiques sont anesthésiés au gaz carbonique et étendus sur le dos, la trompe allongée, sur la platine d’une loupe binoculaire. Le conduit salivaire est coupé à l’aide d’une aiguille extrêmement fine, faite d’un fil de tungstène de 10 p. de diamètre, aplati. Malgré les précautions prises, la mortalité est
- élevée car il s’agit d’insectes très fragiles. Après une période de 24 heures, un certain nombre de moustiques sont récupérés et on tente de les faire piquer sur le bras d’un assistant qui se prête à l’expérience; beaucoup refusent de s’alimenter mais une douzaine ont pu être observés piquant normalement. On constate alors qu’aucune réaction n’est visible autour de cette piqûre alors que, sur le même emplacement, celle des moustiques non opérés produit la réaction habituelle. On a donc la preuve de l’origine de l’antigène.
- On observe que la suppression de la sécrétion des glandes salivaires ne provoque aucun trouble dans le fonctionnement de la trompe dont les stylets pénètrent aussi facilement dans la peau que ceux d’un moustique non opéré. L’absorption du sang semble normale, de même que sa coagulation dans le jabot. On sait l’importance, chez les femelles de moustiques, d’un repas de sang qui déclenche une série d’activités humorales qui jouent un rôle primordial dans la maturation des œufs ; le point de départ de ces activités se localise dans le cerveau et dans les cor-pora allata; la présence d’une certaine quantité de sang coagulé dans le jabot semble provoquer la première phase de cette série de réactions. Enfin, la piqûre des moustiques opérés est plus douloureuse que celle des individus intacts, ce qui laisse supposer la présence dans la salive d’un composé anesthésiant.
- p.391 - vue 394/558
-
-
-
- 392
- Le premier crâne de Mammifère jurassique
- On sait que l’ère secondaire, ou Mésozoïque, est 1’ « âge des Reptiles » et que l’ère tertiaire, ou Cénozoïque, est 1\ « âge des Mammifères ». Cependant l’existence des Mammifères mésozoïques est depuis longtemps démontrée. Du Crétacé, dernière époque de l’ère secondaire, nous connaissons des restes attribuables à trois ordres de Mammifères : les Multituberculés, les Marsupiaux et les Placentaires. Ces trois ordres franchissent la limite secondaire-tertiaire ; le premier ne tarde pas à s’éteindre, les deux autres exercent encore de nos jours le véritable règne des Mammifères. Au Jurassique, les Mammifères peuvent se répartir en quatre ordres : les Triconodontes, les Symmétro-dontes, les Panthothères et les Multituberculés. Certains fossiles du Trias, première époque du Secondaire, sont d’attribution douteuse : Reptiles mammaliens, ou Mammifères reptiliens ? Toutes ces formes du Jurassique et du Trias sont en général de très petite taille. On ne les connaît que par des restes très fragmentaires : dents isolées, morceaux de mâchoire ou d’autres os. Leurs relations avec les Reptiles et avec les vrais Mammifères sont de la plus haute importance du point de vue de l’évolution, mais on est réduit pour l’essentiel à des hypothèses.
- Aussi la découverte d’un crâne de Mammifère jurassique, annoncée par le professeur W. G. Ivühne, de l’Université libre de Berlin, dans le dernier bulletin de la Society of Vertebrate Paleontology, est digne de remarque. Cette découverte vient
- couronner les efforts patients de Kühne qui depuis 1949 explorait systématiquement les faciès jugés par lui favorables dans le Jurassique et le Crétacé d’Europe occidentale, en particulier les anciens dépôts sapropéliques (dépôts de faible profondeur, riches en matières organiques fluides). C’est ainsi que l’été dernier il visita des mines de marnes et charbons bitumineux d’âge callovien au Portugal. Dans l’une d’elles, près de Leiria, il trouva un important gisement de fossiles, riche en mollusques et ostracodes, fournissant en abondance ossements de crocodiles et de tortues. C’est dans ce gisement qu’il découvrit le crâne désormais célèbre. Malheureusement ce crâne, le seul qu’on connaisse d’un Mammifère appartenant à un groupe spécifiquement mésozoïque, ne porte plus ses dents; elles se sont détachées avant qu’il n’ait été enseveli. Cela ne facilite pas l’étude paléontologique. En tout cas le professeur Kühne, en annonçant cette découverte, n’a pas précisé à quel ordre il rapportait ce fossile.
- On espère beaucoup d’une nouvelle campagne de fouilles. Le professeur Kühne s’est déjà signalé par d’autres découvertes sensationnelles en Angleterre où pendant la dernière guerre il mit à jour de petits vertébrés fossiles d’allure mammalienne, dans des remplissages de fissures d’âge rhétien (limite du Trias et du Jurassique).
- L. T.
- Le Crabe chinois en Méditerranée
- On connaît la rapide extension, en France, de l’habitat du Crabe chinois (Eriocheir sinensis) le long des côtes de la Manche et de l’Atlantique (voir La Nature, ier août 19/17, p. 255, et juillet 1954, p. 275). Jusqu’à l’année dernière, on considérait que le point extrême atteint par cet hôte assez indésirable se situait vers l’estuaire de la Gironde. Dans cette région, on a observé une rapide et profonde pénétration en eaux douces, dans les vallées de la Dordogne et de la Garonne, où le crabe a été trouvé à i5 km en aval de Toulouse. Or, dans un article très documenté paru dans la revue du Laboratoire Arago, Vie et Milieu, 1960, le professeur Petit fait connaître l’arrivée du Crabe chinois en Méditerranée et indique les voies par lesquelles il semble avoir réussi à étendre encore son domaine. Le 28 décembre 1959, un pêcheur trouva un exemplaire mâle d'Eriocheir dans une nasse à anguilles tendue dans l’étang de Sigean qui se trouve dans le département de l’Aude à une vingtaine de kilomètres de Narbonne. Il semble qu’ayant pro-
- gressé dans le canal latéral de la Garonne, le crabe ait pénétré dans le canal du Midi et franchi les écluses, notamment de part et d’autre du col de Naurouze. Il semble peu probable qu’il l’ait suivi ensuite jusqu’à l’étang de Thau, gagnant la mer par les canaux de Sète pour longer la côte jusqu’à Port-la-Nouvelle à l’entrée de l’étang de Sigean. La voie suivie doit être plutôt la dérivation du canal passant par Sallèles-d’Aude et traversant Narbonne pour arriver au même point. On peut se demander s’il s’agit d’un pionnier isolé ou si d’autres stations en eau douce ou saumâtre ne tarderont pas à être découvertes. De toutes façons, la côte du Languedoc, avec ses grands étangs, offre un milieu très favorable à la propagation du Crabe chinois qui, s’il vit et croît parfaitement en eau douce, a besoin d’eau saumâtre pour s’accoupler et d’eau de mer pour y effectuer sa ponte. Ce crabe dérange le poisson, détériore les filets et fore dans les berges des galeries qui peuvent causer des éboulements. L. C.
- Substances bactériostatiques dans le charbon
- Des travaux d’Evans, publiés en 1961, avaient déjà mis en évidence les propriétés bactériostatiques de certaines substances extraites de la houille. Ces substances, alors indéterminées, avaient reçu globalement le nom de vitricine, à cause de leur association avec le vitrain, élément vitreux que l’on rencontre dans les charbons bitumineux.
- Dans un récent article de la revue britannique Nature, A. A. Mills,'du département de géologie de l’Université de Nottingham, a rendu compte de recherches ultérieures sur ce même sujet. Il est à présent démontré que le charbon contient différents corps, nettement définis, qui présentent les propriétés signalées par Evans, le terme général de vitricine étant néanmoins conservé.
- D’assez grandes difficultés ont été rencontrées pour isoler les
- substances actives : des solvants organiques, l’acétone en particulier, ont donné les meilleurs résultats et la vitricine a dû être concentrée sur des disques de papier-filtre. La matière première a été un charbon bitumineux à haute teneur en matières volatiles. L’inhibition a été surtout étudiée sur des cultures de Bacillus subtilis. Mais d’autres germes pathogènes, tels que Corynebacterium fascians et Agrobacterium tumefaciens, ainsi que diverses moisissures, ont été détruits par les disques imprégnés de vitricine.
- L’activité bactériostatique se maintient après chauffage de la vitricine à ioo° C. On estime en conséquence que la purification des substances inhibitrices pourrait être obtenue par distillation.
- G. C.
- p.392 - vue 395/558
-
-
-
- 393
- Une révolution dans la sidérurgie : la préparation de l’acier à l’oxygène
- L’industrie sidérurgique connaît depuis la Libération un développement considérable en France : tandis que la production mensuelle de la fonte est passée de 5oo ooo à i ooo ooo t, .celle de l’acier s’est élevée de 5i& ooo à i 200 ooo t. La France atteint donc une production annuelle die l’ordre de i4 ooo ooo t sur une production mondiale de 280 ooo ooo t.
- Ce développement de la production de la fonte et de l’acier s’est jusqu’ici réalisé grâce aux méthodes classiques. Toutefois, la fonderie a vu apparaître la fonte sphéroïdale (La Nature, juin 1952, p. 190) et diverses tentatives ont pour objet de moderniser les méthodes d’obtention de la fonte : les résultats obtenus au bas fourneau sont discutés, mais les essais de réduction directe et de développement de l’emploi des agglomérés dont nous avons déjà parlé (La Nature, décembre 1958, p. 495) retiennent spécialement l’attention. Nous nous limiterons, dans cet article, à nous préoccuper de la véritable révolution que connaît l’aciérie grâce au développement des procédés à l’oxygène qui risquent de se substituer de plus en plus aux procédés classiques qu’il convient toutefois de rappeler si l’on veut saisir l’intérêt des nouvelles méthodes.
- Les procédés classiques
- Les aciers sont essentiellement des alliages de fer et de carbone (o,o5 à i,5 pour 100) obtenus pratiquement à partir des fontes qui, elles aussi, sont des alliages mais qui contiennent toujours, à côté de 2,6 à 4,5 pour 100 de carbone, d’autres éléments : soufre, silicium, manganèse, phosphore, etc. La fabrication de l’acier à partir de la fonte consiste donc essentiellement en une décarburation opérée par oxydation.
- Cette décarburation peut être théoriquement limitée de façon à obtenir directement l’acier de teneur voulue en carbone; nous verrons qu’avec les procédés classiques et notamment en travaillant sur des fontes phosphoreuses, on réalise en fait une décarburation totale : on est ainsi obligé de recarburer ensuite, par addition de ferromanganèses carburés afin d’obtenir un acier d’une nuance déterminée, c’est-à-dire d’une teneur précise en carbone.
- La décarburation de la fonte ou son « affinage », c’est-à-dire l’oxydation du carbone qu’elle contient, s’opère dans tous les cas par l’oxygène mais, selon le procédé utilisé, celui-ci est emprunté soit à de l’air, soit à de l’oxyde de fer (minerais ou ferrailles) ; partant de fonte solide ou liquide dont la température est de l’ordre de x 2oo°-i 3oo° et voulant obtenir de l’acier liquide dont la température de solidification est de l’ordre de ï 6oo°î il convient, notons-le, d’opérer dans des conditions telles qu’on atteigne cette dernière température.
- Trois procédés d’affinage étaient jusqu’ici utilisés : l’a//i-nage par le vent dans les procédés Bessemer et Thomas, l’affinage sur sole dans les procédés Martin et l’affinage au four électrique. Nous rappellerons l’essentiel de chacun d’eux.
- Affinage par le vent. — Nous avons indiqué que si la fonte constituait. essentiellement un alliage de fer et de carbone (2,6 à 4,5 pour 100 de cet élément), les diverses fontes industrielles contenaient toujours des impuretés, introduites lors de l’élaboration au haut fourneau : soufre, manganèse, silicium, phosphore, etc., que l’affinage a également pour objet d’éliminer. L’une de ces impuretés, le phosphore, est particulièrement importante; selon la teneur de la fonte en cet élément, le procédé d’affinage devra être conduit de façon diffé-
- rente; or, la teneur en phosphore d’une fonte dépend essentiellement de la composition du minerai dont on part.
- Commençons par envisager le traitement d’une fonte non phosphoreuse titrant par exemple 3,5 à 4,5 pour 100 de carbone, 1 à 2 pour 100 de silicium, o,5 à 3 pour 100 de manganèse, o,o5 pour 100' de soufre et dont la teneur en phosphore inférieure à o,5 pour xoo ne sera pas gênante.
- Dans le procédé Bessemer, prévu pour de telles fontes, la fonte liquide est versée dans une « cornue » dont le revêtement intérieur est constitué par des briques de silice. Grâce à des tuyères placées à la partie inférieure, on souffle de l’air dans la masse : après combustion du silicium avec formation abondante d’étincelles, le carbone est oxydé avec production d’oxyde de carbone, brûlant lui-même partiellement; puis lorsqu’il a disparu, l’oxygène de l’air s’attaque au fer qui brûle en donnant des fumées l’ousses. Ces oxydations successives et non simultanées des impuretés s’expliquent par le fait que les réactions d’oxydation qui leur correspondent, différemment exothermiques, s’opèrent dans l’ordre de leurs exothermicités :
- Si + 02 = Si02 + 208 kcal ;
- Mn + 1/2 02 = MnO + 96,5 kcal;
- C + 1/2 02 = CO + 26 kcal.
- En réalité, étant donné la masse considérable de fer qui est présente, on peut supposer que l’oxydation porte en premier lieu sur le fer :
- Fe + 1/2 02 = FeO -t- 64,5 kcal
- et que l’oxyde de fer initialement formé est successivement réduit par le silicium, le manganèse et le carbone. Quoi qu’il en soit, l’opération qui porte sur quelques dizaines de tonnes est très rapide : elle dure environ 20 minutes et l’on peut
- 20 mn
- 20mn
- Fig. 1. — Départ des diverses Fig. 2. — Départ des diverses
- impuretés en fonction du temps impuretés en fonction du temps dans le procédé Bessemer. dans le procédé Thomas.
- représenter les transformations qui ont lieu durant ce laps de temps par l’ensemble des courbes de la figure i.
- Étant donné la nécessité, pour que le bain reste liquide, d’élever sa température de i 2oo°-i 3oo° à i 6oo°, Bessemer avait prévu le chauffage du convertisseur : il a rapidement observé que c’était inutile, l’exothermicité des réactions étant largement suffisante pour que la masse atteigne la température
- p.393 - vue 396/558
-
-
-
- 394
- de fusion de l’acier; il convient de noter que les divers éléments qui s’oxydent, silicium, manganèse, carbone, ne jouent pas le même rôle. En effet, les valeurs « thermogènes » du silicium et du manganèse, c’est-à-dire les élévations de température produites par oxydation, dans un bain de fonte, renfermant i pour ioo de chacun de ces éléments, seraient respectivement, d’après Durrer, aux environs de i 5oo°, de l’ordre de 3i9° et 79°. Le silicium joue donc ici un rôle prépondérant et l’opération Bessemer n’est possible que parce que les fontes utilisées contiennent suffisamment de cet élément.
- Notons que, tandis que l’oxyde de carbone se dégage et brûle, la silice forme avec les oxydes de fer et de manganèse une scorie que l’on sépare du bain d’acier par décantation de celui-ci après qu’on a procédé à la recarburation. Dans ce milieu réactionnel « acide », la désulfuration est quasi-nulle.
- Nous avons supposé que nous traitions une fonte non phosphoreuse (en réalité pauvre en phosphore) ; en effet, si le phosphore est présent, il s’oxyde rapidement en P2Os qui ne peut se fixer qu’en milieu basique, d’où la nécessité d’opérer en présence de chaux. C’est ce qu’ont montré les premiers Thomas et Gilchrist qui, en ajoutant de la chaux dans un convertisseur dont le revêtement n’était plus siliceux mais dolomitique, ont pu étendre le procédé Bessemer aux fontes phosphoreuses.
- Dans le procédé Thomas, on traite donc des fontes phosphoreuses titrant de 3,5 à 4 pour roo de carbone, 0,2 à 0,6 pour 100 de silicium, 1 poxir 100 de manganèse, 1 à 3 pour 100 de soufre. L'élément thermogène est ici le phosphore dont la réaction d’oxydation :
- 2 P + 5/2 O, = P205 + 36g kcal
- correspond à une valeur thermogène (1 5oo°) de l’ordre de 213°.
- Il convient de souligner que la fixation du phosphore sous forme de phosphate tétracalcique n’est possible que lorsque tout le carbone est oxydé : en effet, tant qu’il reste du carbone, celui-ci réduit P2Os en phosphore qui repasse dans le bain. Le départ des diverses impuretés au cours de l’affinage s’effectue alors selon un processus représenté par les courbes de la figure 2, qui montrent que dans ce procédé il est d’une part nécessaire de décarburer complètement si l’on veut éliminer le phosphore, et qu’il est d’autre part indispensable de séparer complètement la scorie de déphosphoration (utilisable comme engrais) avant de procéder à la recarburation.
- L’exothermicité de la réaction est telle qu’on dépasserait notablement la température de fusion de l’acier si l’on n’utilisait pas une certaine quantité des calories dégagées pour fondre de la ferraille : de 35 à i5o kg par tonne de fonte, de sorte qu’il entre environ 120 kg de ferraille dans une tonne d’acier Thomas. Cette absorption de chaleur préserve l’appareillage d’une élévation de températui’e excessive qui d’autre part compromettrait la bonne qualité du métal. Du fait qu’on opère ici en milieu basique, on élimine environ 5o pour xoo du soufre présent dans la fonte, sous forme de sulfure.
- L’opération Thomas, comme l’opération Bessemer, a l’avantage d’être très rapide (de l’ordre de 20 minutes) mais elle ne conduit pas à des aciers très purs : l’élimination du soufre est incomplète et la teneur en azote des aciers obtenus est rarement inférieure à 0,01 pour 100.
- Affinage sur sole. — L’affinage sur sole opéré dans un four Martin, c’est-à-dire dans un four à réverbère, chauffé initialement au gaz de gazogène ou de fours à coke et de plus en plus au mazout, consiste à décarburer la fonte, c’est-à-dire à oxyder le carbone qu’elle renferme, grâce à une addition de ferrailles oxydées (riblons) ou de minerais et grâce aussi à l’atmosphère oxydante des fumées, qui agissent par l’intermédiaire du laitier.
- De même que dans l’affinage par le vent, on distingue deux
- processus selon que la fonte est ou non phosphoreuse. Dans le cas d’une fonte non phosphoreuse, on travaille en Martin acide, c’est-à-dire sur sole siliceuse avec un mélange de fonte (i/3) et de riblons. Il se forme un laitier contenant FeO et F203 ; celui-ci passe à l’état de FeO, qui se réoxyde au contact de l’atmosphère oxydante que constituent les fumées : il s’agit ici de transformations par diffusion qui sont forcément lentes même aux températures élevées qui régnent dans le four, et l’opération, qui porte selon la capacité des fours sur 10 à 10O' t, dure environ 8 heures. Si l’oxydation des diverses impuretés, Si, Mn, C, démarre ici simultanément, elle a lieu à des vitesses différentes et c’est le carbone qui disparaît le plus lentement; étant donné la durée de l’opération, on peut la suivre par des analyses rapides et, dans ces conditions, on peut limiter la décarburation à une valeur donnée et éviter ainsi la nécessité d’une recarburation.
- Dans le cas des fontes phosphoreuses, obtenues notamment en Lorraine, on travaille en Martin basique, c’est-à-dire sur une sole en dolomie et en ajoutant de la chaux à la charge constituée par un mélange de fonte liquide et de minerais ou de riblons; on forme ainsi une scorie basique dans laquelle passe le phosphore sous forme de phosphate tri- ou tétracalcique; cet élément ne s’élimine en principe complètement que lorsque le bain est décarburé et il est encore en principe nécessaire d’éliminer la scorie avant de préparer l’acier par une addition adéquate de ferromanganèse.
- La marche basique permet, comme dans le cas du Thomas, une certaine désulfuration et l’acier Martin renferme moins d’azote que l’acier Thomas : 0,001 à 0,008 pour 100.
- Affinage au four électrique. — Nous n’insisterons pas sur ce procédé dans lequel la décarburation ne résulte théoriquement que de l’action oxydante des ferrailles ou du minerai et qui, pratiqué à haute température et en atmosphère réductrice, permet d’opérer une désoxydation et une désulfuration poussées et d’obtenir les aciers dits « aciers fins ». En fait actuellement, dans une première phase, on décarbure à l’aide d’oxygène.
- On manque de ferraille
- En France, l’importance relative des trois procédés classiques d’affinage est la suivante : on produit mensuellement de l’ordre de 780 000 t d’acier Thomas, 35o 000 t d’acier Martin et xoo 000 t d’acier au four électrique.
- L’acier Thomas est donc de loin le plus important. Or, comme nous l’avons souligné, il est considéré comme moins bon que l’acier Martin. Le procédé Martin, qui s’est étendu avec la production des ferrailles, rencontre des difficultés par suite du manque de ferrailles qui tend également à limiter l’importance de l’affinage au four électrique. L’aciérie électrique utilise en effet presque exclusivement de la ferraille tandis que le procédé Martin en consomme environ 83o kg par tonne d’acier; nous avons indiqué précédemment que la mise au mille dans le cas du Thomas atteint en moyenne 120 kg seulement.
- On peut donc dire qu’en moyenne une tonne d’acier brut sortant des aciéries a exigé l’emploi de 462 kg de ferrailles. La moitié de cette quantité provient de l’aciérie elle-même, la fabrication de l’acier et son laminage donnant lieu à des déchets importants, qui sont recueillis avec soin : cisaillage des extrémités de barres laminées, coupe des produits à la demande des utilisateurs, etc.; mais l’autre moitié vient de l’extérieur, de sorte qu’en 1958, sur 6 80O' 000 t de ferraille utilisées par les usines métallurgiques, 3 3oo 00 t avaient été achetées.
- Les ferrailles achetées à l’extérieur de l’aciérie ont diverses origines : les chutes neuves fournies par les industries de transformation de l’acier, qui atteignent environ i5 pour 100
- p.394 - vue 397/558
-
-
-
- 395
- de l’acier traité, constituent une source régulière en qualité et en quantité; le reste provient de la démolition d’appareils en acier : chemins de fer, grues, charpentes, vieux navires, ferraille de campagne et, aux États-Unis, voitures automobiles.
- Tandis que du fait de leur production d’acier très élevée et aussi d’une rotation rapide des appareils en service, les États-Unis disposent de ressources excédentaires, les pays dont l’industrie est en grande expansion, Japon, Italie, manquent de ferrailles. En France, en Allemagne, aux Pays-Bas, au Luxembourg, malgré un développement constant de l’aciérie, les ressources et les besoins en ferrailles étaient jusqu’ici assez bien équilibrés, mais l’instauration du Marché Commun a entraîné un déséquilibre dans ces pays, du fait des demandes en ferrailles de l’Italie et de la Belgique. Ce dernier pays, qui achète peu de ferrailles en période de conjoncture moyenne, devient en effet fortement importateur en période de haute conjoncture sidérurgique.
- Après l’ouverture du Marché Commun, la France devint donc rapidement exportatrice : en iq54, les exportations atteignirent près de x ooo ooo t, de sorte que les besoins intérieurs ne furent plxxs couverts et qu’il fallut importer. Entre 1954 et ig58 il s’établit un certain équilibre entre les importations et les exportations qui s’élevèrent à environ 600 ooo t, mais en 1959 les exportations atteignirent à nouveau près de 1 ooo ooo t, alors que les importations devenaient négligeables.
- C’est donc notamment pour obvier au manque de ferrailles et pour élever la production et la qualité de l’acier Thomas qu’on a développé les procédés à l’oxygène dont il va être question maintenant.
- L’acier à l’oxygène
- Les nombreux procédés d’affinage sont essentiellement basés sur la substitution de l’oxygène à l’air dans le procédé Besse-mer-Thomas : on active ainsi l’affinage et on diminue également la teneur en azote des produits obtenus, ce qui est très important pour la qualité de l’acier. Différentes réalisations ont été proposées : procédé Linz-Donawitz, procédé Linz-Donawitz-Pompey, procédé au rotor, procédé O.L.P. (ou oxygène lime-powder) et pi’océdé Kaldo dont nous nous limiterons à indiquer les caractéristiques essentielles.
- Procédé Linz=Donawitz. — Dans ce procédé appliqué sur des fontes contenant moins de o,5 pour 100 de phosphore, on opère l’affinage avec de l’oxygène à 98-99 pour 100, sous une pression de 6 à i5 kg, qu’on souffle à l’aide d’une lance refroidie par de l’eau dans l’axe d’un creuset analogue à une cornue Bessemer et dont le revêtement peut être acide ou basique.
- En l’absence d’azote qui, dans le procédé Bessemer-Thomas, joue le rôle de volant, la température monte ici localement à 2 5oo°-2 6oo°, tandis qu’une agitation violente déplace la zone de réaction : l’oxyde de carbone se dégage en créant une turbulence importante grâce à laquelle l’oxygène réagirait directement et l’affinage ne s’opérerait pas par l’intermédiaire de FeO.
- Du fait de la température localement élevée, il se forme très rapidement un laitier très actif et, dans ces conditions, le carbone et le phosphore sont réduits simultanément (fig. 3) et non successivement comme dans le cas du Thomas, tandis que 5o pour 100 du soufre présent sont éliminés de l’acier.
- Du fait de la présence de carbone, on évite la suroxydation de l’acier et on peut obtenir directement, sans recarburation, des aciers qui titrent moins de 0,01 pour 100 de carbone; on doit recarburer si l’on désire une teneur en carbone supérieure. On considère que les aciers LD ainsi obtenus seraient équivalents aux aciers de très bonne qualité. Selon la pureté de l’oxygène utilisé, la teneur en azote oscille entre 0,001 et 0,007 pour 100. On dépense de l’ordre de 55 m3 d’oxygène par tonne d’acier et on procède à 4o-45 coulées de 3o t par jour.
- % du soufflage
- _1______________1______________I_____________1______________L
- 20 W 60 80 100%
- Fig. 3. — Départ du carbone, du phosphore et du manganèse en fonction de la durée du soufflage dans le procédé Linz-Donawitz.
- Procédé Linz=Donawitz=Pompey. — Les usines de Pompey ont étendu ce procédé aux fontes phosphoreuses, d’où le nom de procédé LDP (Linz-Donawitz-Pompey).
- Sur le laitier d’une opération précédente, on verse de la chaux et on souffle pendant 12 mn de l’oxygène en ajoutant du minerai; on décrasse une scorie de 18-22 pour 100 de P2Os qui constitue un engrais excellent et on ajoute à nouveau de la chaux : on souffle encore pendant i5 mn de l’oxygène, en procédant à une addition de chaux et de minerai de façon à régler la température. Là encore il n’est pas nécessaire de décarburer totalement pour obtenir une déphosphoration suffisante; on ajoute du ferromanganèse et on coule l’acier dans une poche, en retenant la scorie.
- On obtient ainsi des aciers à 0,07-0,2 pour 100 de carbone,. 0,01-0,o3 pour xoo de phosphore, 0,001-0,oo3 pour 100 d’azote et 0,012 à 0,020 pour 100 de soufre, soit, pour cette dernière impureté, la moitié de la teneur obtenue au Thomas. On compte une consommation de 60 m3 d’oxygène par tonne d’acier que l’on peut diminuer par une addition de minerai.
- Procédé au rotor d’Oberhausen. — On a substitué au convertisseur classique un four tournant (2 tours/minute) dans-lequel le brûleur à mazout est remplacé par une tuyère grâce à. laquelle on envoie de l’oxygène primaire à 99,5 pour 100 dans la masse de la fonte et de l’oxvgène secondaire à 73 pour 100 au-dessus de la fonte (fig. 4).
- On enfourne 5o à 70 t de fonte, 5 t de chaux et 7 t de minerais; on souffle l’oxygène pendant 20 mn et on fait tourner le four; après 10 mn, 80 p. 100 du laitier (à i5-x6-pour 100 de P2Os) ont débordé aux deux extrémités tandis
- Conduite d'évacuation de gaz
- Oxygène
- Trou de/
- coulée
- Lance émergée Lance immergée
- Fig. 4. — Coupe du rotor d’Oberhausen.
- p.395 - vue 398/558
-
-
-
- 396
- que l’acier titre 2 pour 100 de carbone et 0,1 à 0,2 pour 100 de phosphore. On ajoute alors 3 t de chaux et. i,5 t de minerai pour décarburer, formant ainsi- un laitier do 5-6 pour 100 de P2Os. On débouche le trou de coulée et on coule ainsi un acier à 0,00-0,26 pour 100 de carbone, équivalent à de l’acier Martin. Une tonne d’acier exige 1 o3o kg de fonte, i5o kg de minerai et de 65 à 70 m3 d’oxygène. On opère une dizaine de coulées par jour.
- Temps de soufflage (%)
- Fig. 5. — Départ des diverses impuretés en fonction du temps dans le procédé d’Oberhausen.
- Grâce à la température élevée, entretenue d’ailleurs par la combustion de l’oxyde de carbone, et à la présence de chaux et de minerai, le laitier se forme très rapidement et, là encore, la déphosphoration précède la décarburation (fig. 5), ce qui évite de décarburer complètement.
- Procédé O.L.P. — En dehors de la substitution de l’oxygène à l’air, ce procédé mis au point à l’Irsid (Institut de recherches de la Sidérurgie), par Allard et Trentini, apporte une nouveauté : la mise en oeuvre des réactions à l’état solide entre métaux et laitier, procédé d’affinage préconisé et appliqué par Perrin à ITgine, pour l’obtention d’aciers fins, et, plus récemment, par l’Irsid pour la désulfuration de la fonte.
- On utilise un convertisseur à fond plein (donc sans tuyères), à revêtement dolomitique, d’une capacité de o,5 m3 par tonne de fonte traitée (alors que le Thomas classique exige 1 m3/t) dans lequel une lance refroidie par de l’eau (3o m3/h) est placée verticalement au-dessus du bain de façon que le nez de la tuyère soit à 1 m du bain.
- On introduit dans la cornue la charge de fonte et on envoie de la chaux en poudre (tamisée et d’une granulométrie donnée) mise en suspension dans l’oxygène à 99,5 pour 100 sous i5 kg de pression. On introduit ainsi les 2/3 de l’oxygène et de la chaux nécessaires; on décrasse le laitier à 20-26 pour 100 de P20s formé, tandis que le bain à 1 6oo°-i 65o° qui titre i-i,5 pour 100 de carbone et 0,2-0,4 pour 100 de phosphore est pratiquement exempt de soufre.
- On ajoute du minerai et de la ferraille puis on souffle; à
- nouveau la teneur en carbone tombe à 0,1 pour 100 et celle du phosphore à moins de 0,1 pour 100, tandis que le laitier formé titre i5 à 20 pour 100 de P205. Après décrassage, on poursuit le soufflage jusqu’à ce que la teneur en carbone atteigne la valeur voulue.
- Pour une charge de 20 t, la durée totale de l’opération est d’environ 1 h. On obtient ainsi des aciers à 0,06 pour 100 de carbone, 0,025 pour xoo de phosphore, 0,01 pour 100 de soufre et 0,001 pour 100 d’azote, avec une dépense de 62 m3 d’oxygène par tonne.
- Procédé Kaldo. — Ce procédé, mis au point par le professeur Bô Kalling à Domnarvet (Kal, Do) s’opère dans un convertisseur tournant de 5,6 m de long et 3,5 m de diamètre extérieur, permettant de traiter 3o t de fonte (fig. 6 et 7). Grâce à l’agitation du bain qui résulte du soufflage de l’oxygène et surtout de la rotation de l’appareil, la déphosphoration et la décarburation s’opéreraient ici à des vitesses sensiblement égales, mais comme la teneur en phosphore est plus faible que la teneur en carbone, là encore on déphosphore complètement avant d’avoir décarburé et l’on peut obtenir des aciers doux directement, sans avoir à recarburer.
- Soit une fonte à 3,5 pour 100 de carbone, 1,8-2 pour 100 de phosphore, 0,2-0,3 pour 100 de silicium. On commence par charger 65 pour 100 de la chaux et 76' pour 100du minerai nécessaires; on enfourne la fonte et on souffle pendant io-i5 mn; on introduit ensuite 20 pour 100 de la chaux, le reste du minerai (25 pour 100) et on souffle pendant 20-26 mn; on décrasse à fond; on a une scorie à 16-18 pour 100 de P205 ; on ajoute les i5 pour 100 de chaux restants et on poursuit le soufflage jusqu’à ce que la décarburation atteigne la valeur voulue (5 à 10 mn) ; on fige alors le laitier par addition de chaux pour former barrage et on coule l’acier dans une poche dans laquelle on fait les additions voulues.
- Le soufflage global dure environ 1 h 3o mn et on obtient avec une dépense de 57-58 m3 d’oxygène par tonne, un acier
- Position de chargement ^ wl de la fonte liquide
- Hotte pivotante
- -Position de 7X1chargement [x\de la chaux L~ } A et de
- ' l'agglomère
- I Fumèesi
- 'Eau dè'^^ refroidissement
- Position de coulée
- Profit d’usure
- Schéma de principe du four Kaldo de Domnarvet.
- (Document Sollac)-
- p.396 - vue 399/558
-
-
-
- 397
- Fig. 7. — Four Kaldo en position d’addition de chaux (à
- contenant de 0,010 à 0,017 pour 100 de phosphore, 0,010 à o,oi5 pour 100 de soufre et 0,002 pour 100 d’azote au maximum, c’est-à-dire comparable aux meilleurs aciers Martin ou électriques.
- Conclusions. — Le but de cet article était d’attirer l’attention sur la possibilité d’obtenir dès maintenant, par diverses techniques nouvelles, des aciers nettement supérieurs aux aciers Thomas et comparables à ceux fournis par le procédé Martin ou par le four électrique.
- Les divers procédés étudiés, différents quant à leur réalisation, sont tous caractérisés par l’emploi massif d’oxygène que l’on sait maintenant produire en tonnages importants et à des prix de revient acceptables. Chacun d’eux présente bien entendu ses avantages et ses inconvénients et le choix est évidemment assez délicat : il dépend de nombreux facteurs, notamment des matières premières dont dispose le plus facilement l’aciérie qui
- gauche) et en position de soufflage (à droite) (Documents Soi.lac) .
- voudra l’utiliser, fonte ou ferrailles, ainsi que de la qualité des produits qu’elle désire obtenir. Signalons simplement, à titre d’exemple, que la Sollac a adopté le procédé Kaldo.
- Quoi qu’il en soit, il s’agit de procédés déjà entrés dans la pratique et qui, au point de vue théorique comme au point de vue pratique, sont susceptibles de révolutionner la sidérurgie classique. Au point de vue théorique, nous avons vu, en effet, qu’en faisant intervenir des processus réactionnels différents, les nouvelles techniques battent en brèche le principe sur lequel on insistait auparavant : la nécessité de décarburer complètement avant de déphosphorer. Quant au point de vue pratique, il convient de souligner que dès 1958, la production d’acier par ces nouvelles techniques atteignait dans le monde 5 000 000 t, et qu’on estime qu’en i960, elle dépassera i5 000 000 t.
- Henri Guérin,
- Professeur à la Faculté des Sciences de Paris.
- LE CIEL EN OCTOBRE I960
- SOLEIL : du t,er octobre (à 0h) au 1er novembre (à 0h) sa déclinaison décroît de — 3°6' à — 14°22' et la durée du jour de 11*37» à 9*54m ; diamètre app. le t1®1' (à 0*) = 32'0",4, le 31 (à 24*) - 32'17",2. — LUNE : Phases : P. L. le 4 à 22*17», D. Q. le 12 à 17*26», N. L. le 20 à 12*3», P. Q. le 27 à 7*34» ; apogée le 12 à 13*, diamètre app. 29'33" ; périgée le 24 à 20*, diamètre app. 32'2o". Principales conjonctions : avec Mars le 11 à 22*, à 5°11' S. ; avec Uranus le 15 à 16*, è 2°34' S. ; avec Neptune le 21 à 6*, à 2°31' N. ; avec Mercure le 22 à 4*, à 8°4' N. ; avec Vénus le 22 à 21*, à 6°4' N. ; avec Jupiter le 24 à 22*, à 4°56 N. ; avec Saturne le 25 à 21*, à 4°1®' N. Principales occultations : le 9, de 54 Taureau (mag. 3,9), immersion à 0*23m,0 et émersion à 1*40»,7. — PLANÈTES : Mercure demeure invisible ; Vénus, étoile du soir pendant l’heure suivant le coucher du Soleil ; Mars, dans les Gémeaux brille la plus grande partie de la nuit, le 15 : diamètre app. 10",0 et mag. 0,0 ; Jupiter, dans, le Sagittaire étoile du soir, le 15 : coucher à 20*12» et diamètre poî. app. 33"2 ; Saturne, dans le Sagittaire suit Jupiter h l’est, le 15 : coucher à 21*18», diamètre pol. app. 14",6 et axes de l’anneau : 36",9 et + 15",8 ; Uranus, dans le Lion se lève vers minuit à la fin du mois, le 27, position : 9*51m et + 13°47', diamètre app. 3",6 ; Neptune est inobservable ; Vesta, dans le Sagittaire visible encore le soir, mais plus faible d’éclat, positions, le l®r : 48*53» et — 26°24' (mag. 7,1), le 11 : 19*7“ et — 26°14' (mag. 7,3), le 21 : 19*23» et — 25°56'
- (mag. 7,4), le 31 : 19*30» et — 25°27' (mag. 7,6). — ETOILES VARIABLES : minima observables d'Algol (2m,2-3»,5) le 1er à 5*,0, le 4 à 1*,9, le 6 à 22*,6, le 9 à 19*,4, le 24 à 3*,6, le 27 à 0*,5, le 29 à 21*, 1 : maxima de (3 Lyre (3“,4-4»,3) le 12 à 15*,8, le 25 à 14*,2 ; maxima de 5 Céphée (3»,7-4»,6) le 5 à 15*,5, le 11 à 0*,3, le 16 à 9*,1, le 21 à 17*,9, le 27 à 2*,7 ; maxima de p Aigle (3m,7-4m,4) le 3 à 16*,9, le 10 h 21*,4, le 18 à 1*4. le 25 à 5*,6. — TEMPS SIDÉRAL : au méridien de Paris à 0* (T. U.) : le Ier : 0*4S»15», le il : l*27«41s, le 21 : 2*7 »6S, le 31 : 2*46»32s.
- Phénomènes intéressants. — Surveiller les groupes de taches à la surface du.Soleil. — Du 15 au 18, lumière cendrée de la Lune, le matin. — La planète Mars est bien observable dans les Gémeaux dans les meilleures conditions, elle se rapproche de la Terre, son diamètre apparent et son éclat augmentent. — Les planètes Jupiter et Saturne sont encore étoiles du soir. — Étoiles filantes : Le 9, Draconides, radiant \ Dragon ; du 16 au 22, Orionides (maximum le 19), radiant v (Mon. — Au début de la nuit on peut encore observer les riches régions de la Voie lactée du Sagittaire au Cygne.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- p.397 - vue 400/558
-
-
-
- 398
- LES LIVRES NOUVEAUX
- Aide-Mémoire Dunod : Métrologie générale, par M. Denis-Papin et J. Vallot. 4e édition. Tome l : 1 vol. 10x15, civ-224-lx:v p.t 49 fig. Tome II : 1 vol. 10 x 15, lxxx-210-lxiv p., 5 lig. Dunod, Paris, 1960. Prix de chaque volume, relié toile : 6,80 NF.
- Quatrième édition d’un ouvrage dont on a dit avec raison qu’il faisait autorité en matière d’unités de mesures. Le tome I est consacré aux. généralités, à la détermination du temps et aux grandeurs et unités géométriques et mécaniques. Le tome [I comprend l’Électricité, la Chaleur, l’Optique, l’Acoustique et léë\ unités anciennes, étrangères et diverses. Citons à ce sujet un exposé souvent fort utile sur les mesures en usage dans certaines industries. Cette nouvelle édition a été soigneusement mise à jour en tenant compte des unités ou des décisions les plus récentes. Signalons que les systèmes MK.S et Giorgi rationalisé font l’objet d’une étude détaillée en raison de leur commodité d’emploi maintenant universellement reconnue bien que la loi ne leur ait pas encore donné droit de cité en France.
- Mes cent camarades. Réconciliation avec le calcul, par 11. Friedel. 1 vol. 15 x 22,5, 136 p., 58 flg. et 1 hors-texte. Dunod, Paris, 1960. Prix, broché sous couverture illustrée : 6,80 NF.
- Il s’agit en fait des 100 premiers nombres, que l’auteur voudrait faire connaître aux lycéens, et plus spécialement à ceux de 4e et de 3e, sous un jour nouveau... Il se propose en effet, aidé par les dessins humoristiques dus à Lacroix, de réconcilier ces élèves avec l’arithmétique en les entraînant aussi au calcul mental.
- Images du Ciel, par J. Gauzit, astronome à l’Observatoire de Lyon. 1 vol. 21,5 x 27, 66 p., 89 planches de photos hors texte. Collection Science et Progrès, Dunod, Paris, 1960. Prix : 18,50 INF.
- L’auteur a voulu surtout, comme l’indique le titre de l’ouvrage, donner une série de belles photographies, empruntées aux observatoires les mieux outillés. Le choix en est excellent et c’est un beau voyage que l’on fait de la Lune et des planètes au Soleil, pour s’élancer ensuite vers les profondeurs do la Voie Lactée et les lointaines galaxies extérieures. Le texte, d’où sont exclus les détails techniques, n’est qu’un commentaire clair et précis qui complète cette prestigieuse vision.
- Radioastronomie ; Les méthodes radioélectriques au service de l'Astrophysique, par J.-L. Stein-berg, astronome-adjoint, maître de recherches au C.N.R.S., et J. Lequeux, ancien élève de l’E.N.S., attaché de recherches au C.N.R.S. Présentation de A. Danjon, membre de l’Institut, directeur des Observatoires de Paris et Meudon. 1 vol. 15 x 21,5, 294 p., nombreuses figures et photos. Collection Science et Pro-grès, Dunod, Paris, 1960. Prix : 19 NF.
- Deux jeunes astrophysiciens du service de Radioastronomie de l’Observatoire de Paris-Meu-don ont écrit ce livre, le premier qui ait été fait en français sur ce sujet. Depuis que l’étude des rayonnements radio que nous envoie le ciel s’est ajoutée à celle des rayons optiques, une foule de résultats nouveaux sont venus enrichir l’image que l’astrophysicien peut se faire de tous les secteurs de l’univers. Après un chapitre sur le rayonnement thermique, les auteurs étudient les radiotélescopes simples puis les inter-féromètres et les antennes synthétiques. Un court chapitre spécial est consacré à la raie 21 cm de l’hydrogène neutre, la seule longueur d’onde privilégiée de la radioastronomie, puis on étudie les mécanismes d’émission des ondes, avant de passer aux principaux résultats acquis, qui remplissent la moitié du livre et en forment la partie la plus passionnante : émission radioélectrique du Soleil, qui peut d’ores et déjà être mise en relation étroite avec son activité ; émissions des planètes et échos radar ; rayonnement radio de la Galaxie (l’étude du rayonnement sur 21 cm a permis d’en analyser la structure, qui est bien celle d’une nébuleuse spirale) ; radio-sources galactiques ; radiosources extragalactiques et notamment galaxies en collision. Quelques formules mathématiques, concernant notamment les mécanismes d’émission, ne devront pas rebuter le lecteur qui pourra sans inconvénient sauter quelques passages plus techniques, et cet excellent livre, qui nous manquait beaucoup, ..s’adresse tout autant à l’étudiant qu’à l’homme cultivé.
- Méthodes modernes d’étude des systèmes asservis, par J. C. Gille, P. Decaulne et H. Peleghin. 1 vol. 19 x 28, 468 p., 435 fig. Dunod, Paris, 1960. Prix, broché sous jaquette : 59 NF ; relié toile sous jaquette : 64 NF.
- Dans leurs précédents ouvrages, Théorie et calcul des asservissements et Organes des systèmes asservis, les auteurs ont exposé les méthodes et les techniques classiques d’étude et de construction des asservissements. Ils traitent ici des méthodes plus récentes, notamment pour aborder l’étude des systèmes asservis complexes. La lre partie présente les techniques d’étude des asservissements linéaires à l’aide de la méthode des pôles et des zéros, qui complète avec bonheur la méthode harmonique. La 2e partie est consacrée à l’étude statistique des systèmes asservis. Les notions d’entrées aléatoires, de bruit de fond, et la théorie de l’information sont appliquées au calcul et à l’optimisation des asservissements linéaires. Dans la 3e partie, les méthodes harmoniques sont étendues aux asservissements à plusieurs variables et aux systèmes pulsés (ou échantillonnés), notamment aux calculateurs analogiques et arithmétiques. La dernière partie enfin est consacrée aux asservissements non linéaires. Les auteurs y insistent sur les méthodes intéressantes par leurs applications : l’approximation du premier harmonique, la méthode du plan de phase, les oscillations des systèmes par plus ou moins et les problèmes de stabilité sont ainsi développés à travers de nombreux travaux très récents. Bibliographie commentée ; lexique en cinq langues (français, anglais, allemand, russe et espagnol).
- L’énergie nucléaire, par Marc Lefort, docteur ès Sciences, chef de travaux à la Faculté des Sciences de Paris. 2e édition revue et augmentée. 1 vol. 16 x 24, 150 p., nombr. fig. Gauthier-Villars, Paris, 1960. Prix : 15 NF.
- L’auteur a repris dans cette 2e édition la matière de son petit volume paru en 1957, en la complétant sur divers points. C’est, rap-pelons-le, un exposé très clair de toute la science atomique pour les personnes qui n’ont aucune connaissance spéciale des sciences physiques. On a ajouté en appendice la liste des éléments, avec l’indication de leurs isotopes stables et radioactifs (mais sans l’indication des périodes pour ceux-ci).
- Accélérateurs de particules et progrès scientifique, par N. Feltci, professeur à la Faculté des Sciences de Grenoble. 1 vol. 15 x 21,5, 162 p., 25 fig. Dunod, Paris, 1960. Prix : 12,50 AT.
- Après un rappel élémentaire des principales notions de la physique des corpuscules, l’auteur montre l’origine et la raison d’être des accélérateurs. Il décrit les premières expériences réussies (Cockroft et Wallon, Van de Graaff), puis le cyclotron, capable de transmuer tous les atomes connus. On passe ensuite aux accélérateurs de grande énergie, créateurs de particules nouvelles, puis aux accélérateurs les plus récents, machines géantes, et aux perspectives qu’elles ouvrent. Ces exposés sommaires
- ! M , A NOS LECTEURS ...........
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition d6s lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- sont repris avec un peu plus de détails dans ce que l’auteur appelle modestement une « tentative de classement des accélérateurs ».
- Chimie nucléaire et Radiochimie, par
- G. Friedlander et J. W. Kennedy. Traduit de l’américain par J. Guizerix et P. Martinelli. 1 vol. 16 x 25, 506 p., 72 fîg. Dunod, Paris, 1960. Prix, relié toile sous jaquette : 58 NF.
- Cet ouvrage constitue un travail de base pour les étudiants, les ingénieurs chimistes ou les radiochimistes qui, dans la recherche ou dans l’industrie, se préoccupent de l’étude ou de l’utilisation des propriétés des isotopes radioactifs. Après avoir tracé l’historique des grandes découvertes de la chimie nucléaire et rappelé les bases de la structure des noyaux et des réactions nucléaires, les auteurs exposent les propriétés des isotopes radioactifs, ainsi que les principes de leur utilisation. Ils étudient spécialement la chimie des traceurs qui intéresse aujourd’hui un domaine d’activité considérable allant de l’archéologie à la recherche pure. On y trouvera également des développements intéressants sur l’énergie nucléaire et sur les problèmes cosmiques, c’est-à-dire en quelque sorte une vue d’ensemble sur les applications de la science nucléaire.
- Chimie propédeutique, par René Lombard.
- 1 vol. 16 x 25, 395 p., 85 fig. Gauthier -
- Villars, Paris, 1959. Prix, broché : 35 NF.
- Cet ouvrage, qui expose les bases de la chimie conformément au programme de propédeutique \I.P.G. (mathématique, physique et chimie), pourrait s’adresser aussi aux autres étudiants
- des autres propédeutiques ainsi qu’aux candidats aux grandes écoles, l’auteur ayant complété
- dans ce but le programme M.P.G. Il comporte un exposé de chimie générale (143 p.) et des bases de chimie minérale (110 p.) et de chimie organique (125 p.).
- Liaisons et propriétés chimiques, par J. A. A. Katelaar. Traduit de l’anglais par M. Fayard. Préface de Georges Chaudron, de l’Institut. 1 vol. 16 x 25, 382 p., 35 fig. Dunod, Paris, 1960. Prix, relié toile sous jaquette : 48 NF.
- La théorie des interactions entre atomes ou molécules, ou théorie de la liaison chimique, constitue le problème central de la chimie générale. Dans cet ouvrage, Fauteur expose d’abord la constitution électronique des éléments, puis il définit les quatres types de liaisons : ionique, atomique, ou covalente, métallique et de Van der Waals, en soulignant le fait que chacun de ceux-ci est en fait assez théorique, puisque les liaisons réelles participent, en général, à plusieurs de ces types, l’un d’entre eux étant dominant. L’édition française comporte de nombreuses additions par rapport à la première édition anglaise ainsi qu’une bibliographie plus abondante ; les développements purement mathématiques, imprimés en petits caractères, peuvent être facilement laissés de côté.
- Guide de travaux pratiques de Géologie S.P.C.N., par André Cailleux. Tome II. 1 vol. 13 x 21, 118 p. C.D.U. et S.E.D.E.S., Paris, 1960. Prix, broché : 5,50 NF.
- Cette brochure ronéotypée est un guide des minéraux et des roches de la Galerie de Minéralogie du Muséum de Paris. Rédigée à l’intention. des étudiants pour leur faciliter l’utilisation de cette riche collection en vue des examens, elle rendra aussi service au simple curieux dérouté peut-être par l'abondance des échantillons et à qui manque un commentaire.
- Historical Geology, par Cari O. Dttnbar. 2Û édition. 1 vol. 18 x 26, xn-500 p., 406 fig. John Wiley and Sons, New York, 1960. Prix, relié : 7,95 dollars.
- Ce livre est l'aboutissement d’une longue évolution puisqu’il est le descendant d'une partie du Textbook of Geology de Schuchert qui parut pour la première fois en 1915. De cette lointaine origine il garde le souci pédagogique qui en fait à l’heure actuelle pour les étudiants une excellente introduction à la géologie historique. Mais d’autre part la grande clarté de l’exposé, la prééminence accordée à l’explication des méthodes de raisonnement en géologie plutôt qu’à l’enseignement complet des faits sont propres à attirer le lecteur américain curieux des choses de la Terre. Le lecteur américain surtout et c’est la seule critique que l’on puisse faire à
- p.398 - vue 401/558
-
-
-
- 399
- . ’ aIlL.
- f>uJLÛanZé du monde^
- h® * US»!c F
- <t. .»/< V,'/. H . • A .h •
- 30, Rue Saint-Àugustii
- Clôture Electrique 2
- Justin, PARIS-2* - OPE. 68*45 wfl
- cet ouvrage : pour certaines périodes géologiques le sort de la planète en dehors de l'Amérique est négligé (aucune mention par exemple n’est laite, meme sur le schéma du globe, d’un bouclier antécambrien au Sahara). Pour le lecteur européen le grand intérêt de ce livre est l’exposé clair mais suffisamment complet qu’il fournit de l’histoire géologique de l’Amérique du Nord. On se reporte avec satisfaction aux nombreuses esquisses paléogéographiques de ce continent, on est heureux de disposer de tous ces tableaux de corrélations stratigraphiques, on apprécie la présentation réaliste des coupes l>ourtant schématiques et enfin on ne se lasse pas de contempler les excellentes photographies des sites américains classiques. — L. T.
- Précis de Botanique, par P. Grété. Tome Ii ; Systématique des Angiospermes. 1 vol.
- 16,5 x 21,5, 430 p., 81 pl. Coll, de Précis de Pharmacie, publiée sous la direction du professeur Janot. Masson, Paris, 1959. Prix, relié toile souple : 34 NF.
- Cet ouvrage, dont le tome II parait en premier, appartient à la série des Précis de Pharmacie dont nous avons déjà dit les qualités. Notons seulement que ce Précis se recommande par sa généralité, le tableau présenté du monde végétal ne se limitant pas aux familles fournissant à la matière médicale. L’auteur a adopté le système de Guignard inspiré de la classification naturelle de Bentham et Hooker dans le Généra plantamm. La présentation des familles renonce à la description d’une espèce type ; ce qui se justifie dans la pratique par la méconnaissance des plantes habituelle aux étudiants citadins, et la difficulté de se procurer le modèle au moment opportun ; le traité entérine donc les nécessités et l’artifice de l’enseignement. — J. G.
- An Introduction to Genetics, par C. M. M.
- Begg. 1 vol. 18 x 25, xn-292 p., 122 fig. The Englisli Universities Press, Londres, 1959. Prix, relié : 35 sh.
- Ce manuel conçu pour l’étudiant novice commence par exposer les notions les plus élémentaires sur la multiplication cellulaire et la reproduction sexuée. Mais après avoir traité de façon classique les lois de Mendel, la détermination du sexe, le linkage et le crossing-over, l’auteur n’hésite pas à aborder des points plus délicats, avec l’établissement des cartes chromosomiques, l’étude des mutations spontanées et induites, et la structure des gènes (pseudo-allèles, effets de position et subdivision des loci). Les derniers chapitres sont consacrés à des aperçus sur les principaux domaines d’expansion de la génétique : hérédité multifactorielle, génétique des populations, systèmes de reproduction et de sélection, génétique et évolution, modes d’action
- des gènes. Des exercices dont la solution est fournie à la fin du livre complètent ce cours.
- TV-couleur et chirurgie, par A. P. Lacha-pèle, J. Cïi Auvergne et F. Laine. 1 vol. 16 x 24, 138 p., 21 fig. Travail de la chaire de Carcinologie de la Faculté de Médecine de Bordeaux, 1959.
- Les auteurs tirent les enseignements du fonctionnement de la télévision-trichrome entre la salie d’opération et la salle de conférences du Centre anticancéreux de Bordeaux. Ils en soulignent le grand intérêt et définissent les améliorations souhaitables.
- Les espoirs de la médecine, par le « Groupe des Sept ». Préface du professeur Camille Lian. 1 vol. 14,5 x 20,5, 240 p., 12 planches de photos. Le Centurion, Paris, 1959. Prix : 9 NF.
- LA NATURE PLASTIFIÉE
- ENROBAGE DE SPÉCIMENS BIOLOGIQUES
- dans résine artificielle claire comme du cristal
- CHEZ VOUS
- Demandez renseignements pour colis d’essai avec instructions
- Joindre enveloppe timbrée avec adresse S.V.P
- INTERNATIONAL PLASTIC RESEARCH B. P. 03 CONTES (A.-M.)
- La disparition de quelques anciens iléaux et l’augmentation de la durée de vie moyenne ont laissé le champ plus libre à quelques maladies redoutables sur lesquelles se concentrent aujourd’hui les efforts de la médecine. Les sept, qui ne sont ici que six, se sont partagé le sujet traité pour un large public : le cancer (J. Derogy) ; la lutte contre la douleur (R. Maurel) ; les maladies du cœur et des vaisseaux (R. Clarke) ; la médecine psychosomatique (B. Gouley) ; la médecine atomique (F. Lot) ; la recherche scientifique et. la médecine (M. Se-ncz).
- Précis de Géographie physique générale,
- par Pierre Birot. 1 vol. 18,5 x 23,5, 404 p., 82 fig. in texte, 16 pl. hors texte dont 8 en couleurs. Armand Colin, Paris, 1959. Prix : 40 NF.
- Ce précis s’adresse aux étudiants, mais les spécialistes y trouveront ample matière à réfléchir ; les professeurs de géographie également, qui savent que certaines notions ont besoin actuellement d’être entièrement révisées (par exemple en climatologie). Le plan examine successivement le climat, les paysages des continents et, plus brièvement, les océans et les côtes. Le cœur du volume est composé par la seconde partie, où Fauteur étudie les interactions de phénomènes habituellement séparés dans les manuels : il tient largement compte des influences climatiques dans l’œuvre de l’érosion. Style concis, sobre et clair. Illustration excellente, mais on eût souhaite davantage de croquis dans un ouvrage destiné à des étudiants.
- Mélanges géographiques canadiens offerts à Raoul Blanchard (Numéro spécial des Cahiers de Géographie de Québec, avril-septembre 1959). 1 vol. 17 x 25, 494 p., nombr. cartes et photos. Institut de Géographie de l’Université Laval, Québec, 1959.
- On connaît la prodigieuse activité de Raoul Blanchard, pionnier de la géographie française, et canadienne. L’Université de Québec, où il enseigna si longtemps, a voulu lui offrir, dans sa retraite, un volume jubilaire auquel ont collaboré de nombreux géographes : A. Journaux, F. Taïllefer, M. Phlipponneau, A. Cailleux, M. Derruau, M. Pardé, J. Gottmann, J. Despois, P. Deffontaines, etc., parmi les plus connus d’aujourd’hui que compte la France. D’autres articles sont signés de géographes canadiens (B. Brouillette, C. Laverdière, R. Garry, P. Dage-nais...). La plupart des études concernent naturellement le Canada et apportent d’utiles contributions à la connaissance de ce pays si voisin du nôtre par la langue et par l’histoire.
- Autobiographie scientifique et derniers
- écrits, par Max Planck, Prix Nobel de Physique. Traduction, préface et notes par André George. 1 vol. 13 x 20, 222 p. Collection Les savants et le monde, Albin Michel, Paris, 1960. Prix : 8,70 NF.
- Max Planck a vécu assez pour mesurer pleinement les conséquences de sa découverte des quanta, puisqu’il s’est éteint en 1947, à l’âge de 90 ans. On peut s’étonner qu’il n’ait pas pris une part plus grande à l’édification de la nouvelle physique dont il avait posé la première pierre. C’est qu’il n’a jamais pensé, en créant les quanta, qu’il fallait abandonner le déterminisme et il s’en explique dans ce livre. Cette autobiographie n’est pas seulement précieuse,
- ÉCOLE SUPÉRIEURE
- LTNDUSTRIE ATOMIQUE DE BIOCHIMIE ET BIOLOGIE (Reconnu© par l'État — A. M. 25 juillet 1955}
- EN FRANCE ET DANS IE MONDE 84, rue de Grenelle, Paris-7e
- PAR Préparations aux carrières des Laboratoires Médicaux,
- Industriels, Agricoles.
- C. BENOIT Préparation aux diplômes d’État
- EXTRAIT DE LA REVUE « PERSPECTIVES » Brevets de Techniciens d’Analyses Biologiques,
- vni-159 pages 15 x 22. avec 22 figures. 1959. Broché sous couverture Biochimistes, Biologistes.
- illustrée 8,80 NF Cours du jour — Cours du soir
- En vente dans toutes les bonnes librairies et chez Section d'enseignemènt " à domicile "
- DUNOD, Éditeur, 92, rue Bonaparte, Paris-60. DAN 99-15. (Joindre timbre pour notice)
- p.399 - vue 402/558
-
-
-
- 400
- d'ailleurs, pour qui s'intéresse à l'histoire de la pensée scientifique. Elle a un côté humain très attachant et l'homme qui l’a écrite y apparaît sincère et sensible, très différent cfe l'image du savant austère et froid que l'on s'en faisait peut-être d'après ses portraits.
- Les grands problèmes techniques de l’aviation, par Jacques Lachnitt, ingénieur civil de l’A.éronautique. 1 vol. 15 x 21,5, 116 p., 55 fig. Collection Science et Progrès, Dunod, Paris, 1960. Prix : 9 NF.
- Plus que le télégraphe et le téléphone, l’avion a rétréci les distances terrestres et bouleversé les rapports entre les hommes de tous les continents. Il est engagé depuis quelques années dans une évolution rapide dont il est devenu impossible de dire où elle s'arrêtera. Il était intéressant de définir les principales lignes de cette évolution et d’en analyser les modalités techniques. C’est ce que fait ce petit livre pour des lecteurs non spécialistes. Laissant de côté certains aspects qui mériteraient une étude spéciale, comme la radionavigation, il expose l’aérodynamique des grandes vitesses, la propulsion, l’envol vertical, les méthodes modernes de fabrication, le développement de l'aviation commerciale, puis il traite succinctement des satellites, des modes de propulsion futurs, et des engins guidés. L’auteur a visé exclusivement à la clarté et à la concision.
- Stormy, par Walt Disney. Texte de Claude Darget. 1 vol. 18,5 x 24, 96 p. illustrées en hélio, 12 planches en couleurs. Hachette, Paris, 1959. Prix, cartonné : 12 NF.
- C’est l'histoire, véridique paraît-il, d’un pur-sang qui, né en août, était un inadapté et souffrait d’un « complexe d’infériorité » qu’il put finalement surmonter pour devenir un cheval de polo I L’histoire est surtout racontée en images, comme il se doit quand elle est de Walt Disney. Le texte de Claude Darget remplace les sous-titres d’un film muet.
- Nos enfants lisent, par Louis Empain et Marcel Jadin. 5e édit. 1 vol. 12 x 17,5, 172 p. Éditions du Soleil levant, Namur (Belgique), 1960.
- Ce petit volume de la collection Pro Juven-tate est un répertoire des meilleurs livres pour la jeunesse, mis à jour annuellement. Les livres sont classés par âge (des lecteurs) sous les rubriques suivantes : livres de lecture (romans, récits, etc.), sciences naturelles, sciences appliquées, travail manuel au foyer, tourisme et sports, formation artistique, formation religieuse. Un dernier chapitre comprend les livres destinés aux éducateurs.
- From Magic to Science, par Charles Singer. 1 vol. 13,5 x 20,5, xxxn-258 p., 108 fig., 14 pl. Dover Publications Inc., New York, 1958. Prix : 2 dollars.
- I/auteur est bien connu pour ses savantes recherches sur l'histoire de la médecine. Dans From Magic to Science, il évoque la désintégration du savoir gréco-romain à la chute de l’Empire d’Occident et sa lente reconstitution médiévale ; il montre comment les notions scientifiques héritées de l’antiquité sont incorporées et s’organisent dans l’univers symbolique de la chrétienté. C'est une patiente et fructueuse enquête qui nous rend accessibles des expressions habituellement plus hermétiques que les textes antiques. Les botanistes auront plaisir à lire le chapitre que Charles Singer consacre aux premiers herbiers. Les images reproduites rendent particulièrement attrayant cet ouvrage. — J. G.
- Le monde en friche, par Gabriel Ardant. 1 vol. 14 x 23, 308 p. Presses Universitaires de France, Paris, 1960. Prix : 14 NF.
- Le thème du livre est fourni par le titre de l’Introduction : La fin de la résignation. Nous vivons en effet une époque tragique, où le déséquilibre s'accentue entre les peuples bien
- pourvus et les « nations prolétaires ». Cette situation durera-t-elle encore longtemps P Un tiers du monde (U.R.S.S. comprise) pourra-t-il longtemps disposer de 83 pour 100 des ressources, sans que les 2 milliards d’êtres qui ne totalisent que 17 pour 100 ne sombrent pas dans la révolte P Problème politique certes, mais aussi problème technique et problème humain qui demanderait une hauteur de vues, une conscience de solidarité internationale dégagées de tout virus nationaliste. L’auteur étudie le problème-clé, celui du sous-emploi, et montre que les méthodes qui ont permis l’essor de l’Europe ne peuvent s’appliquer aux pays sous-développés manquant de tout héritage, matériel aussi bien qu’intellectuel. Un livre intelligent, lucide, jetant un cri d’alarme aux Européens qui, comme les Romains de l’Empire, dévorent leur bien-être en oubliant la foule des misérables qui grandit à leur porte. — P. W.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Dans notre numéro d’octobre
- L’Actualité instrumentale
- L’Exposition de Physique
- VIENT DE PARAITRE
- CHIMIE NUCLÉAIRE ET RADIOCHIMIE
- par G. FRIEDLANDER et J. W. KENNEDY
- TRADUIT DE L’AMÉRICAIN PAR J. GUIZERIX ET P. MARTINELLI x-49G pages 16 x 25, avec 72 figures. Relié toile sous jaquette ................ 58 NF
- RADIOACTIVITÉ ET PHYSIQUE NUCLÉAIRE
- PAR J. M. CORK TRADUIT DE L’AMÉRICAIN PAR J. BODET
- xiv-408 pages 14 x 22, avec 192 figures. 2e édition. Relié toile sous jaquette . 39 NF
- LIAISONS ET PROPRIÉTÉS CHIMIQUES
- Introduction à la théorie de la liaison chimique par J. A. A. KETELAAR
- TRADUIT DE L’ANGLAIS PAR M. FAYARD PRÉFACE DE G. CHAUDRON
- x-372 pages 16 x 25, avec 35 figures. Relié toile sous jaquette ................ 48 NF
- En vente dans toutes les bonnes librairies et chez >» Éditeur, 92, rue Bonaparte. PARIS-6e. DAN. 99-15. C.C.P. PARIS 75-45
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 3e trimestre i960, n° 3528. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 4l44. — 9-1960.
- p.400 - vue 403/558
-
-
-
- N° 3306
- Octobre I960
- I A
- L’ORGUE
- et ses multiples possibilités
- I. Le matériel sonore
- Parmi tous les instruments de musique, l’orgue est le plus complexe et donc le plus difficile à décrire; n’est-il pas également celui qui subit au cours des siècles les transformations les plus nombreuses ? Il y a loin de l’orgue du Moyen Age ou de la Renaissance à l’instrument que nous connaissons. Cependant sa destination liturgique est demeurée immuable : seul, en effet, il peut convenir à l’église, étant seul capable à la fois de fournir aux masses chorales une assise inébranlable, d’affirmer une vaste construction polyphonique ou harmonique, enfin de créer une ambiance de force, de recueillement ou de joie adaptée aux exigences du culte grâce à l’infinie diversité de ses sonorités.
- Par malheur et pour des raisons souvent inattendues, l’architecte, le représentant du culte et le facteur n’ont pas toujours réussi à s’entendre sur l’emplacement de l’orgue à l’église. C’est bien sûr au fond de la nef, à mi-hauteur au-dessus du portail, que le grand-orgue fournit le maximum de ses possibilités, sa sonorité se répandant librement et sans obstacle dans toute l’étendue du vaisseau. Cependant, un orgue situé sur un jubé comme en Hollande, ou accroché à la paroi de la nef, comme à Strasbourg ou à Chartres, donnera aussi des résultats satisfaisants. Si on le place au fond d’un des bras du transept (cathédrale de Reims), le son perdra une partie de son intensité avant de parvenir à l’auditeur. L’orgue de chœur, de dimensions réduites, destiné à accompagner les choristes, se trouvera, comme son nom le fait prévoir, sur le côté ou dans le fond du sanctuaire.
- Rien entendu, l’instrument principal devra être en rapport autant que possible avec les dimensions de l’église. L’acoustique de celle-ci a une grande importance, le facteur et l’organiste doivent en tenir compte; si le temps de réverbération de nombreuses églises (en particulier à coupoles) est souvent trop élevé et conduit à la confusion, l’excès inverse est également regrettable; c’est pourquoi les orgues placées dans les salles de concert ont souvent des sonorités sèches et manquent de grandeur : c’est ainsi que l’orgue du Palais de Chaillot, malgré sa conception remarquable, ne nous semble pas produire tout l’effet qu’on en pourrait attendre. L’acoustique de l’église est la seule convenable pour cet instrument majestueux, avec des variantes infinies : si à Saint-Merri de Paris (fig. x) on perçoit à tout endroit les plus subtiles sonorités, à Notre-Dame l’organiste doit procéder par vastes plans sonores et jouer plus lentement. A toute église et à tout orgue son style propre.
- Regardons de plus près le géant; nous n’en apercevons tout d’abord que deux éléments : un soubassement de bois reposant sur la tribune, échancré au milieu pour faire place à la console où jouera l’exécutant (fig. 2), et une tuyauterie de façade (en montre) qui masque tout un monde sonore.
- Fig. 1. — Le grand-orgue de l’église Saint-Merri, à Paris.
- Ce buffet est un des chefs-d’œuvre de la facture française. Datant du xvn' siècle, il comporte un positif séparé, visible au premier plan ; la console est encastrée entre le positif et le buffet principal.
- (Photo R. Mourrtjt, aimablement communiquée par M. N. Dufourcq).
- Selon son importance, l’orgue comporte deux à cinq claviers manuels de quatre octaves et demie ou 5 octaves, et un pédalier de 2 octaves et demie. Chacun de ces claviers cori'espond à un plan sonore et à une partie de l’édifice. Le clavier du bas ou clavier de grand-orgue fera parler les tuyaux du pavillon central, le plus important, tandis que le second actionnera le positif, réduction du grand-orgue, souvent suspendu au bord avant de la tribune, masquant ainsi la console (fig. 1). D’autre part, les ailes renfei'ment les éléments qui donnent à l’instrument son expression et son mouvement, commandés par le
- p.401 - vue 404/558
-
-
-
- Fig. 2. — La console de l’orgue de Saint-Merri (V. Gonzalez, facteur).
- Les quatre claviers commandent respectivement le grand-orgue, le positif, le récit et l’écho (de bas en haut). De chaque côté, les boutons des registres. Au-dessus du pédalier à l’allemande,» de part et d’autre de la pédale qui commande l’expression du récit, se trouvent les champignons qui actionnent les accouplements, les appels d’anches et déclenchent les combinaisons de jeux préparées à l’avance. Certaines de ces commandes peuvent aussi être effectuées manuellement au moyen des 14 dominos qui surmontent les
- claviers.
- (Photo A. Laporte).
- clavier de récit chargé de jeux de solo aux timbres individualisés, le clavier de bombarde riche en jeux d’anches éclatantes et le clavier d’écho dont les sonorités menues proviennent de tuyaux cachés dans la partie droite du soubassement. Tous ces claviers peuvent s’accoupler entre eux et au pédalier dont les jeux sont répartis dans le corps principal. L’organiste touchera l’un ou l’autre de ces claviers, faisant ainsi dialoguer des sonorités soutenues par des basses jouées aux pieds.
- Chaque clavier met en action des jeux commandés par des boutons de registre ou des dominos disposés souvent sur les côtés de la console. Les pieds pourront actionner des tirasses ou des champignons commandant les accouplements ou les combinaisons facilitant la mise en œuvre de l’orgue. On aperçoit aussi au-dessus du pédalier une ou plusieurs pédales d'expression qui ferment plus ou moins les volets des boîtes expressives où l’on enferme des jeux de solo (fig. 2).
- Il faut donc tenir la console pour un véritable tableau de commande ofi sont centralisés tous les moyens d’action qui permettent le maniement le plus commode de cet instrument complexe.
- Dans ce premier article on étudiera le matériel sonore, l’accord de l’orgue et son harmonisation. Un deuxième article traitera de l’alimentation en air et de la mécanique. Un troisième article retracera l’évolution de l’orgue à travers les siècles et montrera son état actuel, où la facture française « néoclassique » affirme sa maîtrise.
- *
- *
- *
- L’orgue utilise toutes les espèces connues de tuyaux sonores aussi bien à bouche qu’à anche, et les emploie au maximum de leurs possibilités. Aussi son matériel sonore est-il très complexe, et il est difficile de fournir au lecteur une vue complète sur l’acoustique de l’orgue, où certains points ne sont pas encore parfaitement élucidés.
- L’acoustique des tuyaux sonores
- On sait qu’il existe deux catégories de tuyaux sonores : les tuyaux à bouche (ou à embouchure de flûte) pouvant être ouverts ou fermés, et les tuyaux à anche, presque toujours ouverts et affectant les formes les plus diverses : cylindriques, coniques, à pavillon, etc. Nous les étudierons successivement et nous montrerons comment les organiers en ont tiré parti.
- Les tuyaux à bouche ouverts. — Comme tout organe sonore, ils comprennent excitateur et résonateur. Ici l’excitateur (fig. 3) est un biseau rigide (lèvre supérieure) contre lequel est envoyé un fin courant d’air délimité par une lumière. Au contact de la lame solide se produit un phénomène tourbillonnaire (fig. 4) qui produit un son (fondamental et harmoniques).
- « biseau « avec la lèvre supérieure.
- Fig. 4 (à droite). — Phénomène tourbillonnaire formé contre le biseau au niveau de la bouche d’un tuyau.
- Les mouvemenls de l’air, qui donnent naissance au son, ont été visualisés au moyen de fumée.
- (D’après Sir James Jeans, Science et Musique, Hermann, Paris).
- Des études poussées ont montré que la fréquence du son produit par le biseau isolé varie dans de larges limites avec sa forme et la pression de l’air. Si l’on place à la suite un tuyau formant résonateur pour une fréquence déterminée par ses dimensions, l’excitateur s’accorde sur cette fréquence car il y a beaucoup plus d’énei’gie dépensée dans la colonne d’air du tuyau qu’au niveau du biseau. Cependant, pour que le tuyau parle vite avec une bonne sonorité et que les transitoires qui se produisent à l’ouverture de la soupape placée sous le pied du tuyau soient très réduits, il est nécessaire que les deux fréquences propres soient au préalable le mieux accordées qu’il est possible : c’est là le travail de l'harmoniste qui découpera dans la lumière des
- p.402 - vue 405/558
-
-
-
- 403
- encoches accroissant la force du jet d’air, et placera quelquefois devant la lèvre inférieure un frein maintenu par les oreilles situées de part et d’autre de la bouche.
- C’est la colonne d’air contenue dans le corps du tuyau qui entre en vibration et produit le son, grâce à un phénomène d’ondes stationnaires longitudinales. En gros, il y a toujours un ventre de mouvement de l’air et un nœud de pression au niveau de la bouche (puisqu’il n’y a pratiquement pas de variations de pression à cet. endroit communiquant avec l’extérieur). Si le tuyau est ouvert, il y aura également un nœud de pression à son extrémité, pour la meme raison. Ainsi, différents modes de vibration (fig. 5) sont possibles, correspondant au son fondamental et à des sons partiels coïncidant à peu près avec les multiples entiers de ce fondamental. La demi-longueur d’onde L/a du fondamental est donc sensiblement égale à la longueur l du tuyau: les fréquences jV de résonance du tuyau sont donc voisines de jV = kV/?.!., avec k = i, a, 3, .... V' étant la vitesse du son, puisque A — V/N.
- A dire vrai, tous ces résultats ne sont valables qu’en première approximation. L’extrémité ouverte du tuyau ne se comporte pas exactement comme un ventre, car ce n’est qu’à une petite distance de l’ouverture, distance qui dépend du diamètre, que la pression devient rigoureusement égale à la pression atmosphérique. Le même phénomène se produit à la hauteur de la bouche, et Cavaillé-Coll a observé que la longueur efficace du tuyau ouvert pour le fondamental est égale à sa longueur réelle augmentée des 5/3 du diamètre (ou du double du côté s’il est carré"). La correction peut donc être importante quand le tuyau est large, (on dit : quand sa taille est grosse).
- De plus, la correction d’ouverture et d’embouchure n’est pas la même pour les différentes fréquences de résonance du tuyau (les partiels). Cette propriété fondamentale permet d’expliquer et de prévoir le timbre d’un tuyau de type donné.
- Supposons, par exemple, que le fondamental ait pour fréquence ioo. Le couplage excitateur-résonateur étant très serré, le son de biseau adoptera cette fréquence ioo et en fournira les harmoniques exacts (200, 3oo, 4oo, etc.) assez puissants car il est loin de produire un son sinusoïdal. Si le diamètre du tuyau est petit, les corrections seront négligeables et la colonne d’air résonnera justement sur les fréquences exactes 100, 200, 3oo, 4oo, etc.; les harmoniques sortiront avec force et la sonorité sera mordante (jeux gambes). Au contraire, une flûte de large taille, où la correction d’embouchure est grande, aura pour fréquences de résonance 100, 202, 3o5, 409, par exemple. Les sons harmoniques provenant du biseau (200, 3oo, 4oo, etc.) seront bien émis mais seront peu renforcés. C’est pourquoi des tuyaux relativement larges ne donnent guère que le fondamental ; leur son est plus calme.
- Il existe d’autres moyens de parvenir à ce résultat : on peut rétrécir l’extrémité de tuyaux de faible diamètre (Spilzflote allemande) ou employer des tuyaux coniques (flûte conique) dont les fréquences de résonance sont assez différentes des harmoniques du fondamental, qui seront donc très étouffés. La forme et la largeur de l’embouchure ont également une grande répercussion sur la répartition des harmoniques; c’est ainsi que les jeux gambés comportent toujours une bouche étroite et basse, favorable à l’émission des harmoniques élevés.
- Les physiciens se refusent souvent à reconnaître (faute parfois de pouvoir l’expliquer) le rôle important que joue la nature des parois quant à la beauté de la sonorité. Les tuyaux de métal, construits à partir d’une feuille plate enroulée puis soudée, sont faits d’alliage d’étain et de plomb en proportions variables : les tuyaux de façade autrefois en étain pur, d’autres en étoffe (60 à 75 pour 100 de plomb). Par économie, on emploie quelquefois le cuivre pour certaines basses, voire le zinc qui ne donne pas de très bons résultats. Les tuyaux graves et quelquefois tous les tuyaux de certains jeux peuvent être de bois (okoumé, pin ou sapin) : on leur donne alors
- une section carrée ou rectangulaire. Vraisemblablement tel ou tel harmonique peut être renforcé quand sa fréquence correspond à l’une des fréquences de vibrations propres du solide qui constitue le tuyau (ceci est à rapprocher du cas d’instruments à vent tels que la flûte ou la clarinette).
- Les tuyaux à bouche fermés. — Les mécanismes de leur fonctionnement sont exactement analogues, si ce n’est qu’à leur extrémité fermée ne peut se produire aucun mouvement d’air : il s’y trouvera donc un nœud de mouvement et un ventre de pression. Les différents modes de vibration possibles (fig. 5") correspondent à l’émission d’un son fondamental et de ses harmoniques impairs seulement. Le quart de la longueur
- Fig. 5. — Phénomènes d’ondes stationnaires dans les tuyaux à bouche
- ouverts et fermés.
- Selon l’habitude, l’amplitude des variations de pression a été figurée en traits pleins, et celle des mouvements de l’air en pointillé. Au niveau de la bouche, on observe toujours un nœud de pression (aucune variation de pression) et un ventre de mouvement, tandis qu’à l’extrémitc se trouve un nœud ou un ventre de pression selon que le tuyau est ouvert ou fermé. Les schémas A, B, C (tuyaux ouverts) et a, b, c (tuyaux fermés) donnent les trois modes de vibration les plus simples possible, correspondant au fondamental et à deux harmoniques, dans les deux cas. On peut en déduire les formules données dans le texte.
- d’onde du fondamental est à peu près égal à la longueur l du tuyau, et les fréquences N des sons émis sont alors voisines de ÏY = (2k — 1 )V/41 (k — 1, 2, ..., et V étant la vitesse du son dans l’air).
- Ainsi, si le tuyau bouché émet un son moins riche que le tuyau ouvert, correspondant, à longueur égale il donnera l’octave grave (voir fig. 9).
- Rien entendu, tout cela n’est également valable qu’en première approximation, les corrections de diamètre et de bouche s’imposent et font en particulier que si l’on ferme hermétiquement à son extrémité un tuyau ouvert le son ne baisse pas exactement d’une octave (ce qui ne laisse pas de surprendre l’élève de mathématiques élémentaires devant qui l’on effectue cette expérience assez peu probante!).
- Ces corrections entraînent le même phénomène quant à l’importance relative des harmoniques. On utilise le plus souvent des tuyaux assez larges (bourdons), mais on cherche quelquefois à renforcer l’harmonique 3, la douzième du fondamental : c’est le quintaton de taille étroite et à bouche basse.
- 11 existe d’autres moyens de renforcer tel ou tel harmonique. Les tuyaux ouverts des jeux harmoniques sont percés d’un petit trou en leur milieu, de telle sorte que ce point tend à devenir un ventre de déplacement : on entend principalement l’octave, le fondamental étant assez faible. Certains tuyaux fermés harmoniques fonctionnent selon le même principe,
- p.403 - vue 406/558
-
-
-
- 404
- faisant parler alors la douzième du fondamental qui disparaît (Zauberflôte).
- Plus curieux encore sont les tuyaux à cheminée, bourdons dont la calotte est munie d’un petit tuyau ouvert (Rohrflôte, flûte à cheminée, etc.). Les partiels émis au moment de l’attaque sont notablement différents des multiples entiers du fondamental, mais le timbre très particulier qui en résulte n’est pas désagréable : rappelons à ce propos que tous les instruments à percussion (timbales, Glockenspiel, etc.) présentent aussi la caractéristique de donner un accord physiquement « faux » mais physiologiquement agréable, ce qui remet d’ailleurs en question la notion de son musical.
- Les tuyaux à anche. — Si les jeux à bouche fournissent à l’orgue une base solide comme l’indique leur nom de fonds, les jeux d’anche lui apporteront l’éclat et la puissance, ainsi que de remarquables sonorités de détail, grâce à leur particulière richesse en harmoniques.
- Rasette
- Rigole ou anche
- Languette
- Fig. 6 (à gauche). — Coupe schématique d’un tuyau d’orgue à anche.
- L’air introduit par le pied fait vibrer la languette.
- Fig. 7 (à droite). — Pied démonté d’un tuyau à anche (trompette).
- Sur cette photographie, on aperçoit les cléments schématisés dans la figure 6.
- (Photo J. Lequeux, prise aux Éts Gonzalez).
- Le couplage excitateur-résonateur étant beaucoup moins serré que dans le cas des tuyaux à bouche, car la languette demande une quantité relativement grande d’énergie pour vibrer, il est difficile de modifier la fréquence de l’excitateur en agissant sur le tuyau. Au contraire, les modifications de la longueur de la languette ont un effet marqué sur la hauteur de la note émise, d’où l’emploi de la rasette pour l’accord de tels tuyaux. Autrefois, il existait meme des jeux d’anches sans tuyau.
- Le son produit par l’obturation quasi instantanée du courant d’air par la languette est très riche en harmoniques, dont l’adjonction du tuyau modifie la distribution des intensités. Cette richesse en harmoniques pose de délicats problèmes car un rien peut les modifier : c’est là une des principales difficultés de la construction de ces jeux, où l’attention du facteur doit essentiellement se porter sur la languette.
- Fig. 8. — T rois
- tuyaux d’anche donnant la même note (Si,).
- À droite, une trompette ; au milieu, un cromorne ; à gauche, un tuyau très raccourci de voix humaine, dont le couvercle permet de régler l’intensité. Remarquez la rasette servant à l’accord.
- (Photo J. Lequeux, prise aux Ëts Gonzalez).
- L’organe excitateur (fig. 6 et 7) a été cette fois dissimulé à l’œil. Le pied du tuyau recouvre une forte pièce de plomb (le noyau) enserrant la gouttière ou anche et sa languette vibrante en laiton. Rarement libre comme dans l’harmonium, la languette tuent buter contre le bord de la gouttière (« anche » battante). Une tige de métal ou rasette vient glisser sur la languette et permet l’accord. Remarquons que ce n’est pas la languette qui est l’organe producteur du son : son rôle se borne à obturer périodiquement le courant d’air.
- Le résonateur (le tuyau proprement dit) est fixé sur le noyau, sa dimension est telle que la fréquence de ses vibrations propres coïncide à peu près avec celle de l’excitateur, tandis que sa forme, très variable, est fonction du timbre à obtenir. Le plus souvent on trouvera un ventre de vibration et un nœud de pression au voisinage de l’extrémité ouverte, mais l’emplacement des autres ventres dépend énormément de la forme du tuyau : d’ailleurs, il ft’y aura pas obligatoirement ventre de pression et nœud de vibration au niveau de la languette, si bien que la longueur du tuyau peut être assez différente du quart ou de la moitié de la longueur d’onde du fondamental.
- La proportion de ces différents harmoniques a pu être étudiée mathématiquement. Les tuyaux cylindriques ne renforcent que les harmoniques de rang impair (jeu de clarinette), et leur longueur est voisine de celle des tuyaux fermés dont ils constituent en quelque sorte l’analogue, tandis que les tuyaux coniques (trompette) renforcent tous les harmoniques, leur longueur étant plus grande. Mais d’autres jeux (voix humaine) sont plus petits que le tuyau ouvert ou fermé donnant le même son : le fonctionnement de la voix humaine est peut-être voisin de celui du résonateur de Helmholtz (fig. 8).
- Les classes de jeux de l’orgue
- Ainsi, le facteur d’orgues dispose d’une variété considérable de timbres pour la construction de son instrument. Mais, non content de multiplier les sonorités, il utilise des tuyaux qui donnent l’octave grave ou aiguë de la note écrite : en appuyant sur une seule touche l’exécutant pourra commander à son gré toute une série de tuyaux répartis selon différentes octaves.
- p.404 - vue 407/558
-
-
-
- 405
- Pour se retrouver dans cet imbroglio, on désigne les jeux (ensemble de tuyaux de même sonorité répartis selon les notes de la gamme chromatique) par la longueur approximative de leur tuyau le plus grave, un Ut, qui se trouve être un nombre entier de pieds (le pied valant 33 cm). L’emploi généralisé par les facteurs de cette unité ancienne et de ses sous-multiples trouve ici sa justification. C’est ainsi que le tuyau le plus grave (UtQ du jeu qui sonne la note écrite mesure 8 pieds de long; un tel jeu sera dit « de 8 pieds ». Un jeu de 16 pieds sonnera à l’octave grave, de 32 pieds à la double octave grave, tandis que les jeux de 4, 2 et i pied donneront les octaves aiguës.
- Cette règle vaut pour des tuyaux ouverts : par extension on applique la même nomenclature aux jeux fermés, étant entendu que leur longueur réelle sera deux fois plus petite : ainsi, dans tel bourdon de 16 pieds, le tuyau le plus grave ne mesurera que 2,64 m environ au lieu de 5,28 m.
- Remarquons que les jeux de 8 pieds, dont l’étendue qui est de 4 ou 5 octaves à partir de lit, embrasse toute celle de la voix humaine, sont les plus importants dans notre instrument auquel ils servent de base.
- Les jeux de fond. — Ce sont les jeux à bouche qui, comme nous l’avons dit, constituent l’assise sonore de l’orgue. Il existe quatre familles essentielles de jeux de fond, qui comportent des représentants de toute tessiture, depuis le 32 pieds jusqu’au 1 pied.
- Voici d’abord les principaux ou montres (fig. 9) dont on peut voir un grand nombre de tuyaux en façade, et qui servent de base à tout l’édifice sonore, devant pouvoir entrer dans tous les mélanges. Construits en 16, 8, 4 et 2 pieds, ils sont de taille assez large (n5 à i43 mm de diamètre pour l’Ut de 8 pieds), de sonorité forte et calme, et ne comportent généralement pas de tuyaux de bois. C’est sur un principal de 4 pieds, le prestant, que se fait l’accord général de l’orgue. Le principal de 2 pieds prend le nom de doublette.
- Les jlûtes, de taille également large, ont un timbre pur mais sonnent moins fort. Il en existe depuis le 32 pieds (à la pédale) jusqu’au 2 ou même 1 pied. On trouve des flûtes de 8 à tous les claviers et leur variété est infinie (flûte creuse, flûte conique, etc.). Signalons principalement les flûtes harmoniques, de 8, 4 ou 2 pieds, dont le corps percé d’un petit trou a une longueur double de la normale. Comme elles empâteraient volontiers les autres fonds, elles ne doivent être employées qu’en solo.
- Non loin des flûtes, il faut situer les bourdons bouchés de large taille, de 32 à 4 pieds, que leur timbre discret, doux et un peu voilé, quoique d’émission très nette, prépose aux accompagnements ou à des soli mélancoliques (cor de nuit). Le timbre très remarquable des quintatons (fig. 9) de 16 ou de 8 pieds où le premier harmonique impair est renforcé les rend aussi particulièrement utiles.
- Les gambes de 16, 8 et 4 pieds doivent être situées à part, car leur sonorité délicate mais incisive et riche en harmoniques, rappelant un peu celle des instruments à cordes d’où ils tirent leur nom, les rend impropres aux mélanges avec les autres fonds. Le salicional et la dulciane sont moins mordants que les gambes. A la pédale, les jeux gambés sont souvent construits en zinc et portent le nom de contrebasse (16 pieds) ou de violoncelle (en 8). La taille de tous ces jeux est très étroite et l’Ut de 8 pieds a un diamètre de seulement 80 mm.
- L’orgue utilise la propriété bien connue qu’ont deux sons très voisins de former des battements (voir La Nature, août 1956, p. 3io-3i3). La voix céleste, de même que sa voisine, l’imda maris, est un jeu gambé accordé un peu plus haut que la gamhe avec laquelle on le fait fonctionner : il possède une sonorité tremblante étrange et indéfinissable due aux battements engendrés dont on règle la fréquence de 4 à 6 à la
- seconde (d’autre part, la tessiture ne dépasse pas l’Ut2 dans le grave car les battements deviendraient désagréables). On a souvent abusé de ces effets « célestes » qui ont pourtant conduit à d’heureuses réussites. Le 32 pieds acoustique repose sur le principe des sons différentiels : certaines orgues ne pouvant accueillir un encombrant 32 pieds réel, fort coûteux mais souvent utile, le facteur est conduit, pour le remplacer, à adjoindre à un bourdon de 16 sa quinte, dont le plus bas tuyau (un Sol0) mesure 10 pieds 2/3. Le son différentiel entendu par l’oreille lorsque ces deux tuyaux parlent ensemble donne l’illusion presque parfaite du 32 pieds, surtout si l’on adjoint en plus des jeux de 8 pieds.
- Les jeux d’anche. — De même que les jeux de fond, les jeux d’anche peuvent être pour la plupart utilisés en solo ou joints à d’autres sonorités. Toutefois, ils gardent toujours une individualité puissante.
- Fig. 9 (à gauche). — Deux tuyaux de fond donnant la même note (Si3).
- A. gauche, un tuyau de montre ; à droite, un tuyau bouché de quintaton.
- A tout seigneur, tout honneur : les trompettes de 32, 16, 8 et 4 pieds possèdent la sonorité la plus éclatante et la plus puissante de l’orgue, car elle est riche en harmoniques, le corps des tuyaux étant conique (fig. 8). Cependant, rien n’est plus agréable qu’une trompette douce ancienne de 8 pieds qui est un admirable jeu de solo. En 32 et en 16 pieds, notre jeu prend le nom de bombarde, mais le 32 pieds n’existe que dans les très grands instruments. La trompette de 8, anche fondamentale, est souvent accompagnée du clairon de 4 pieds, plus doux et dont les notes les plus aiguës sont des tuyaux à bouche (prestant) car il est impossible de construire des anches aussi petites. On utilisait très fréquemment, dans l’orgue allemand du xvme siècle, une anche de 2 pieds à la pédale, le cornet, qu’il ne faut pas confondre avec la mixture dont nous parlerons plus loin, très utilisé pour chanter à l’alto ou au soprano un choral accompagné par les mains. Quelquefois les trompettes de 16, 8 et 4 du grand orgue sont placées horizontalement (en chamade), ce qui décuple encore leur puissance.
- Si l’on rétrécit le corps de la trompette et si l’on rend la languette plus étroite, on obtient le basson de 16, 8 et 4 pieds, plus discret et trouvant sa place au positif ou au récit, car il est
- p.405 - vue 408/558
-
-
-
- 406
- possible de construire ses noies graves avec un tuyau cylindrique de grosse taille mais de longueur diminuée de moitié (voir fig. i3;. Proche du basson se trouve le hautbois dont le pavillon renforce les harmoniques élevés 'et lui donne un timbre agreste (fig. io).
- Enfin, certains jeux de solo ont un corps anormalement court. La clarinette a un timbre gras pouvant quelquefois atteindre une grande intensité d’expression (orgue de Sainte-Clotilde de Paris). Le cromorne (fig. 8), très utilisé par les anciens et qui connaît de nos jours un renouveau de faveur bien justifié à notre avis, est une sorte de clarinette plus nasillarde. Son timbre très riche en harmoniques a une verdeur et une truculence savoureuses, mais lui permet aussi de chanter des phrases poétiques admirables.
- Les tuyaux de la voix humaine (fig. 8), jeu très ancien également, sont encore plus courts que ceux du cromorne puisqu’ils ne mesurent guère que le cinquième de la longueur normale. Un petit couvercle à leur extrémité permet de régler la qualité et l’intensité du son. L’effet de ce jeu qui rappelle un cromorne lointain a été souvent discuté, surtout lorsqu’on l’utilise avec le tremblant (système mécanique faisant varier périodiquement la pression de l’air). Couperin ou Franck l’ont pourtant employé de façon très différente, mais également remarquable. i
- Une étude complète devrait mentionner d’autres jeux d’anche rares en France, tels la Dolzian allemande ou la régale (un des premiers jeux connus). Les jeux à anche libre sont à peu près totalement abandonnés car ils ne suivent pas la. même loi de variation en fonction de la température que les autres jeux, et sont donc en désaccord à peu près constant avec eux.
- Les jeux de mixture ou mutations. — Nous avons remarqué que les tuyaux à bouche, à l’exception des gambes, n’émettent qu’avec difficulté les harmoniques naturels : si l’on n’emplovait que des jeux de fond, l’orgue serait lourd et pâteux. Les jeux d’anche peuvent bien y apporter des harmoniques et de la force, mais il est faux de croire qu’ils soient susceptibles d’alléger la sonorité. On se tromperait aussi si on pensait fournir quelque légèreté en employant des tailles étroites en grand nombre (jeux gambés) et en forçant les pressions : on n’obtiendrait qu’un instrument criard et sans portée.
- Les organiers ont résolu ce problème fondamental en créant une nouvelle classe de jeux, les mixtures, qui remplacent les harmoniques naturels déficients par des sons artificiels et surtout améliorent les attaques; ils sont connus depuis le Moyen Age.
- Pour adjoindre à un fond de 8 pieds ses différents harmoniques (fig. n), il suffira de prévoir différents tuyaux de longueurs décroissantes, qui seront toujours des tuyaux cylin-
- À AS»
- *>T * £ /
- ÜMJ £ 1 4
- &
- ©-
- 4 Z% 2 11/3 f/r 1
- m
- O
- Q
- 1-0-2 3 4 5 6 7 8
- Fig. 11. — Premiers harmoniques du son Ut, donné par un tuyau
- de 8 pieds.
- Les chiffres inférieurs indiquent le numéro de l'harmonique, tandis que ceux du dessus donnent la longueur, en pieds, du tuyau qui le produit. Les noms des jeux qui utilisent ces harmoniques sont signalés au-dessus.
- Fig. 12. — Tuyaux en place sur le sommier du grand-orgue de l'orgue de Saint-Merri à Paris (avant sa restauration).
- Les tuyaux sont placés en rangées selon leur timbre, chacune correspondant à un jeu. De gauche à droite, on voit successivement le clairon 4, la trompette 8 et la bombarde 16. Puis 3 rangs de minuscules tuyaux forment la cymbale, les 5 rangs qui suivent le plein-jeu. Viennent ensuite la dou-blette 2, le prestant 4, une flûte 4 et un bourdon 8 (les tuyaux les plus aigus sont à cheminée), la flûte 8 et les montres de 8 et 16 pieds. Au-dessus, sur un petit sommier, les 5 rangs du cornet séparé alimentés par des portevents provenant du sommier principal.
- (Photo Larousse).
- driques à bouche, ouverts ou fermés, de taille plus ou moins grosse selon le timbre et la puissance désirés pour le son qu’ils émettent. On les désignera logiquement par la longueur du tuyau le plus grave : c’est ainsi que le jeu qui donnera le 3e harmonique (ou quinte) aura nom : 2 pieds 2/3.
- Dans le cas le plus simple, chaque rang de tuyaux correspondant à un harmonique donné du jeu de 8 pieds sera commandé par un registre séparé : on a alors une mutation simple : quinte ou nasard de 2 pieds 2/3, quarte de nasard de 2 pieds (à la quarte du précédent), tierce de x pied 3/5, sans oublier le larigot, de 1 pied i/o à l’octave du nasard, le piccolo de 1 pied et exceptionnellement des harmoniques plus élevés. On classe cependant les 4 pieds et souvent les 2 pieds parmi les jeux de fond. Les mutations simples sont tou-
- p.406 - vue 409/558
-
-
-
- 407
- jours jointes à un jeu de fond, et on dose à volonté le nombre d’harmoniques et leur rang afin d’obtenir le timbre désiré. Il y a des exemples très classiques : cor de nuit (sorte de bourdon) et nasard, très employé au xvme siècle en France (« récits de nasard »), gambe de 8 et nasard imitant quelque peu le hautbois, bourdon de 8, 2 pieds et 1 pied i/3, etc. On trouve aussi dans certains grands instruments la série des harmoniques de 16, voire de .82 pieds : cette dernière existe en particulier à la pédale de Notre-Dame de Paris (32, 16, 10 2/3, 8, 6 2/5, 5 i/3, 4 4/7 et 4 pieds).
- On peut quelquefois commander par un seul registre plusieurs tuyaux par note, donnant plusieurs harmoniques. Ces mutations composées sont de deux espèces :
- i° Les cornets, comprenant au moins 5 rangs de tuyaux (voir tig. 12) dans lesquels figure toujours le fondamental accompagné de ses premiers harmoniques, dont la tierce (r pied 3/5) est l’élément caractéristique. Si le cornet est bien harmonisé, l’oreille ne perçoit que le fondamental paré d’une chaude couleur : c’est un des plus beaux jeux de l’orgue. Il est fort utilisé en solo, mais peut entrer dans la composition d’un tutti riche en fonds et en anches. La plupart des orgues comportent, séparés, tous les sons du cornet qui peuvent ainsi être utilisés comme mutations simples (c’est le cornet décomposé, à l’opposé du cornet séparé qui forme un jeu indivisible). Enfin on rencontre fréquemment un registre de 2 rangs, la quinte 2 2/3 et la tierce 1 3/5, permettant avec un bourdon de 8 pieds de faire un petit cornet (sesquialtera).
- 20 Les pleins-jeux donnent à tout instrument sa portée en même temps qu’une vive et scintillante lumière. Ils apportent à l’attaque une netteté indispensable pour l’audition d’une polyphonie complexe. Ils ne peuvent que très exceptionnellement s’employer seuls (le fondamental n’apparaissant alors que comme son différentiel de ses harmoniques), mais avec des fonds de 8 et de 4 pieds (montre et prestant avec lesquels l’harmoniste les équilibre). Us ne comportent que des harmoniques de rang élevé, octaves et quintes, les tierces en étant exclues (certains pleins-jeux anciens comportaient des tierces, mais leur harmonisation est délicate). Dans tel plein-jeu le rang le plus grave est de 4 ou 2 pieds, dans tel autre de 1 ou de 1/2 pied seulement. Comme on ne peut poursuivre jusqu’en haut du clavier la gamme de tuyaux aussi petits (leur taille minimale possible est de l’ordre de 1 cm), il est nécessaire de procéder à des reprises d’octaves et de quintes à différents endroits du clavier, une suite d’harmoniques se continuant à l’octave ou à la quinte inférieure à partir d’une certaine note. Voici par exemple une composition de plein-jeu aigu de 4 rangs, d’après M. Mulet :
- Les deux premières octaves : 1 1/3, 1, 2/3 et 1/2 pied ;
- Première reprise au 3e Ut : 2, 1 1/3, 1, 2/3 de pied ;
- Deuxième reprise au 4e Ut : 2 2/3, 2, 1 1/3, 1 pied.
- Bien harmonisées ces reprises ne s’entendent guère, mais leur réalisation est un des problèmes les plus ardus de la facture d’orgue.
- Dans les instruments importants on est souvent amené à séparer en deux registres le plein-jeu : les fournitures assez graves comportant 4 à 10 tuyaux par note, et les cymbales fort aiguës, aux fréquentes reprises, de 2 à 5 rangs (voir fig. 12). Certaines orgues comportent jusqu’à i5 rangs de mixtures sur leur clavier de grand-orgue : à quel brillant et à quelle légèreté dans la puissance ne peut-on prétendre avec de telles ressources !
- L’accord et l’harmonisation
- Pour accorder un tuyau d’orgue, on peut a priori agir sur le résonateur et sur l’excitateur; dans le cas des tuyaux à bouche, où le résonateur détermine pratiquement seul la hau-
- teur du son, on doit modifier le corps du tuyau, soit en tordant plus ou moins les oreilles, ce qui modifie la correction d’embouchure, soit en agissant sur sa longueur. Autrefois, les organiers coupaient leurs tuyaux à bouche à leur longueur exacte (tuyaux en ton), ce qui rendait leur accord délicat (fig. i3) : si le son était trop bas, il fallait évaser légèrement l’extrémité en y enfonçant un cône, Vaccordoir, ou la rétrécir au cas contraire.
- Fig. 13. — Quelques tuyaux de l’orgue de Saint-Gervais à Paris.
- Remarquer que presque tous les tuyaux à bouche (très anciens) sont coupés en ton et s’accordent par déformation de leur ouverture. Par contre, les tuyaux plus récents de l’orgue de Saint-Merri (fig. 12) s’accordent au moyen d’une entaille. Au fond, à gauche, quelques tuyaux de basson.
- (Photo P. IIardouin).
- Actuellement le tuyau est souvent coupé plus long que nécessaire, mais une bande verticale, découpée dans la paroi de l’extrémité, peut être plus ou moins enroulée pour modifier la longueur utile (voir fig. 12). Les jeux bouchés s’accordent plus simplement en enfonçant ou en retirant la calotte, le fignolage se faisant à l’aide des oreilles.
- Les tuyaux à anche, eux, s’accordent très facilement à l’aide de la rasette qui modifie la longueur de la languette qui détermine ici la hauteur du son. La nature métallique de la languette rend celle-ci assez sensible aux variations de température, si bien que les anches nécessitent un accord beaucoup plus fréquent que les fonds et mixtures.
- L’accord complet est d’ailleurs une grosse opération. On accorde d’abord un jeu entier selon Ja gamme tempérée (le prestant de 4 pieds), puis on réalise l’unisson ou l’octave de chacune des notes des autres fonds et des anches avec chaque tuyau du prestant. Les tuyaux des mixtures sont ensuite accordés note par note à partir de leur fondamental, selon les harmo-
- p.407 - vue 410/558
-
-
-
- ............ 408 ....: -... . =:
- niques naturels de celui-ci (ce mode d’accord selon la gamme naturelle est d’ailleurs le plus facile). Tout cela nécessite au moins trois hommes : un à la console, un à l’intérieur de l’instrument et le dernier dans la nef, jugeant de l’effet produit.
- L'harmonisation, opération très délicate, est essentiellement différente de l’accord, et elle est particulière à l’orgue; elle ne peut d’ailleurs être menée à bien que par des spécialistes avertis et c’est d’elle en définitive que dépend la qualité sonore de l’instrument.. Il s’agit :
- i° de donner à chaque jeu son timbre, le plus homogène possible dans toute l’étendue du clavier;
- 2° d’égaliser la puissance de toutes les notes;
- 3° d’équilibrer la puissance relative des jeux selon l’effet recherché.
- Pour cela, l’harmoniste agira sur les facteurs qui permettent de modifier le timbre et la force des jeux : biseau, lèvre et oreilles des tuyaux à bouche, forme de la languette des « anches ».
- Aux claviers manuels, une bonne harmonisation est basée sur les fonds de 8 pieds. Si le clavier est muni des quatre fonds de 8 traditionnels, l’ordre de force est le suivant : montre, flûte, gambe ou salicional, bourdon qui doit être très doux.
- Les 4 pieds sont équilibrés avec les 8 pieds de même nature et d’intensité plus faible (prestant 4 avec la montre 8, flûte 4 avec la flûte 8, etc.). De même la montre de 16 sera moins
- forte que la montre de 8 et le bourdon de 16 que celui de 8.
- Les mixtures simples seront harmonisées avec le fond qu’on leur joint habituellement : nasard de i pieds 2/3 avec le cor de nuit, doublette de 2 avec la montre, etc. Les pleins-jeux sont équilibrés avec les principaux du même clavier, mais ils devront aussi être agréables à l’oreille avec l’ensemble des fonds.
- L’harmonisation des anches est encore plus difficile, car il est exceptionnel que l’aigu d’une trompette soit aussi puissant que les notes graves ; les anches seront harmonisées avec les fonds et les mixtures de manière à ne pas les dominer trop, mais des anches douces de 8 et 16 pieds seront aussi bien utiles : c’est pourquoi les facteurs français du xvm® siècle prévoyaient souvent 2 trompettes de 8 au clavier de grand-orgue, une forte pour le tutti et une fine pour les soli.
- Quant à la pédale, elle aura pour base les 8 ou les 16 pieds et son harmonisation se fera snr les mêmes principes.
- En pratique, l’harmoniste doit tenir compte de toutes sortes de facteurs fixés a priori, tels que la composition de l’orgue, la taille des tuyaux, la pression de l’air distribué et l’acoustique de l’église : son travail est souvent pénible et ardu. Il n’en sera que plus fier une fois l’ouvrage réussi : ce métier d’artisan et d’artiste est un des plus nobles qui soient.
- (A suivre). James Lequeux.
- Décontamination de lait radioactif par poudre d’os
- Une méthode pour l’extraction du radiosfcrontium contenu dans lé lait a été décrite dans la revue britannique Nature (7 mai 1^60). Contrairement au procédé employé avant eux par Migi-covsky et où l’agent de décontamination était une résine synthétique, les auteurs, L. Singer et W. D. Armstrong, ont fait appel à du tissu osseux. On sait en effet que le squelette des vertébrés a la propriété de concentrer le strontium contenu dans les fluides, cette propriété étant plus particulièrement celle des cristaux d’apatite qui entrent dans la composition de la substance osseuse. Pour l’usage auquel ils sont destinés, les os doivent bien entendu subir une préparation qui leur évitera de dénaturer le lait dans lequel ils sont plongés.
- Différentes préparations ont été réalisées : os « inorganiques » déprotéinés après traitement à l’éthylène-diamine ; os sans graisses (traitement à l’alcool et l’éther); os inorganiques et sans graisses (traitement au chlorure de calcium, additionné ou non d’hydroxyde de potassium). Une fois préparés, lessivés et pulvérisés, les os ont été introduits dans des cuves en forme de colonnes pour être mis en présence du lait contaminé par le strontium 85. Les résultats ont varié entre une extraction de 67 à 75 pour 100 du strontium contenu. Des expériences ultérieures ont démontré que la poudre d’os utilisée pouvait être régénérée pour servir à de nouvelles manipulations. Le procédé serait donc susceptible d’être utilisé industriellement.
- Ceinture de Van Allen autour de Jupiter
- Une communication récente de l’Institut Technologique de Californie fait état de l’existence probable d’une ceinture de particules autour de Jupiter, ceinture analogue à celle découverte autour de la Terre par Van Allen (voir La Nature, avril i960, p. i46-i54). Les ondes radiométriques en provenance de Jupiter seraient polarisées, indiquant qu’elles proviennent de particules chargées se déplaçant en spirale dans le champ magné-
- tique de la planète. Le caractère non thermique de la radiation serait dû à « l’effet synchrotron » caractéristique des particules en mouvement rapide. Suivant l’astronome indien V. Radha-krishnanet l’astronome australien J. A. Roberts, la ceinture de Van Allen de Jupiter se situerait à un peu plus de 3oo 000 km de la surface de la planète et produirait io14 fois plus d’énergie radiométrique que la ceinture terrestre.
- La coexistence de notre espèce avec l’Homme de Neandertal
- L’Homme e Neandertal, dont l’apparition remonte à environ 100 000 ans, est certainement beaucoup plus ancien que l’espèce Homo sapiens à laquelle nous appartenons et que l’on fait remonter à 40 000 ans environ. Cenendant les deux espèces, ont certainement coexisté, et des fouilles récentes faites au Moyen-Orient par T. Date Stewart, de la Smithsonian Institution, le confirment.
- Des ossements découverts dans les grottes de Shanidar, en Iraq,
- et du Mont Carmel, en Palestine, se sont révélés approximativement contemporains d’après leur contenu en carbone 14. Les ossements de la grotte de Shanidar sont d’un type neandertalien ; ceux du Mont Carmel appartiennent, les uns à l’Homo sapiens, les- autresi à un homme de Neandertal très semblable à celui qu’on connaît en Europe. Stewart est d’avis que les deux espèces ont occupé les grottes à des époques voisines mais ne se sont pas croisées.
- p.408 - vue 411/558
-
-
-
- Les décisives expériences spatiales
- d’août I960
- L’envoi d’un homme dans l’espace paraît proche
- Coup sur coup, les Américains et les Soviétiques sont parvenus durant le mois d’août à faire revenir sur terre des objets « satellitisés ». Ce sont les Américains qui ont été les premiers à mettre à leur actif cet exploit : le i3 août, ils réussissaient à récupérer la petite capsule spatiale placée à bord du satellite Discoverer XIII. Une semaine plus tard, ils rééditaient, cette performance avec le Discoverer XIV, mais alors que la capsule dvi précédent était tombée dans la mer, ils parvenaient cette fois à la faire saisir en vol par des avions spécialement équipés. Cependant, la veille de cette seconde expérience, les Soviétiques avaient de leur côté lancé un second vaisseau-satellite avec deux chiennes à bord et, deux jours plus tard, ils réussissaient à ramener sur terre les deux animaux vivants. C’était la seconde fois que des créatures vivantes étaient « satel-litisées » (on se souvient qu’une chienne avait été placée à bord du Spoutnik II), mais c’était la première fois qu’elles n’avaient pas à payer cet honneur du sacrifice de leur vie...
- Quoique se soldant par un résultat qui à première vue est presque identique, les expériences menées à bien par les Américains et par les Soviétiques diffèrent à un triple point de vue.
- D’abord, par les conditions dans lesquelles elles se sont déroulées. Le numérotage des satellites américains porteurs des capsules récupérées parle de lui-même : l’essai n’a pu être mené à bien qu’après douze tentatives. Il s’en faut d’ailleurs que toutes se soient soldées par des échecs puisque les premiers lancements étaient seulement destinés à vérifier le bon comportement de la fusée porteuse, une Thor-Agena, puis à « tester » le satellite lui-même. C’est ensuite seulement que l’on a placé à bord de l’engin des a capsules » d’un poids d’une centaine de kilogrammes environ, mais les premières à avoir été ainsi lancées n’ont pu être retrouvées. Franchir ces étapes préliminaires a demandé environ une année.
- C'est le i5 mai i960 que les Soviétiques ont mis à feu la fusée porteuse de leur premier « vaisseau-satellite » : en principe aucune récupération ne devait être tentée, et d’ailleur? l’expérience ne s’est pas déroulée conformément aux prévisions. Néanmoins, trois mois plus tard, le second « vaisseau-satellite » prenait son envol et, avant que la tentative de récupération n’ait lieu, les Soviétiques annonçaient que des animaux avaient été placés à bord et seraient ramenés vivants au sol. C’est au cours d’une conférence de presse donnée par MM. Blagonravov et Sedov dans les locaux où se déroulait à Stockholm le XI0 Congrès International d'Astronautique que les savants russes ont fourni cette dernière précision : tant leur attitude que le ton qu’ils ont utilisé montraient qu’ils étaient assurés du succès. D’autres tentatives, secrètes celles-là, avaient-elles été effectuées ? Il n’existe pas à l’heure actuelle beaucoup de raisons de le penser mais on sait que les fusées utilisées pour communiquer au vaisseau-satellite, qui pèse 4 600 kg, sa vitesse de satellitisation ont fait l’objet d’une double série de lancements dans l’Océan Pacifique.
- Ce rapprochement entre les « approches » américaine et soviétique impose une conclusion qui ne présente d’ailleurs aucun caractère d’originalité puisqu’elle s’imposait déjà à la suite des « tirs à la Lune » que les États-Unis et l’U.R.S.S. ont effectués : les Américains, soucieux de faire le plus vite possible pour combler leur retard sur leurs rivaux, procèdent à des essais avec un matériel dont la mise au point doit s’effectuer, estiment-ils, de façon progressive; les Soviétiques* qui savent
- j Fig. 1. — La capsule du Discoverer XHl et son parachute.
- Le président Eiscnhower examine la capsule que lui présentent le général T. I). Wliite, chef d’état-major de l’Armée de l’Air, et le colonel C. G. Mathison, qui dirigea l’opération de récupération.
- combien leur avance est confortable, perfectionnent siins hâte leurs engins et se résolvent à les lancer seulement une fois acquise la preuve formelle qu’ils ont toutes chances de se comporter comme prévu.
- Second point de vue : les performances et les méthodes. On sait de façon à peu près précise les moyens mis en œuvre par les Américains pour provoquer le retour sur terre de leur capsule spatiale : le satellite Discoverer se fragmente en trois parties dont une doit être récupérée (c’est, évidemment, la capsule), une autre retombe sur le sol mais est perdue et la troisième continue à graviter autour de la Terre. La capsule, qui revêt la forme d’un tronc de cône de près de 1 m de haut sur quelque 70 cm de large et est recouverte d’une « coiffe » protectrice, est fixée à l’extrémité du second étage de la fusée porteuse. C’est ce second étage tout entier qui se « satellitise » et constitue à proprement parler le Discoverer. L’engin, naturellement, est stabilisé et dans sa ronde autour de la Terre il se déplace la capsule tournée vers l’avant. Aussi, quand le moment est venu d’effectuer la récupération (lors de la
- p.409 - vue 412/558
-
-
-
- 410
- dix-septième révolution), le Discoverer doit effectuer un « tête-à-queue » qui oriente la capsule vers l'arrière. Trois opérations alors se succèdent à un rythme rapide : la capsule est détachée du satellite, des fusées « vernier » lui impriment un mouvement de rotation autour de son axe et des rétro-fusées diminuent sa vitesse. Toutes ces opérations se déroulent sur instructions télécommandées lancées par un poste situé dans l’Alaska, alors que le satellite, qui décrit une orbite « polaire », se trouve approximativement au-dessus du Pôle Nord. Le Discoverer continue à graviter mais, allégé du poids de la capsule, il décrit alors une orbite différente de celle qu’il parcourait auparavant. Quant à la capsule, toujours nantie de sa « coiffe », elle se met à perdre de l’altitude, en s’engageant sur une trajectoire qui doit l’amener à reprendre contact avec la Terre au sud des îles Hawaï. Sitôt la « rentrée » effectuée, c’est-à-dire alors que l’engin se trouve déjà assez proche du sol, la capsule se débarrasse de sa « coiffe » et, allégée à son tour, déclenche un double système de parachute qui ralentit sa tombée. C’est à ce moment qu’elle doit être saisie en plein vol par les filets que traînent derrière eux des avions de transport C 119. Faute de voir cette opération réussir, la capsule tombe dans 1a. mer où elle flotte, émettant un« filet de fumée, jusqu’à ce qu’elle puisse être hissée à bord d’tftï navire.
- On possède moins de détails sur la manière dont les Soviétiques opèrent mais, tel qu’il est connu, leur procédé diffère sensiblement de celui des Américains. Le « vaisseau-satellite » se fragmente également en trois parties, mais toutes trois redescendent au sol. Le vaisseau-satellite, qui s’est détaché du dernier étage de la fusée porteuse, lequel gravite indépendamment, comporte une « cabine » et une chambre où sont groupés des dispositifs destinés à assurer sa stabilisation, son orientation et son freinage. Une fois le moment venu du retour sur Terre, lors de la dix-huitième révolution, le mécanisme de freinage est mis en iftarche et l’ensemble du vaisseau-satellite « décroche » de l’orbite elliptique qu’il décrivait. La chambre à dispositifs continue alors d’assurer son guidage et c’est seulement lorsque le vaisseau-satellite est engagé sur la trajectoire voulue qu’elle en est détachée : elle tombe et rien n’étant prévu pour assurer sa protection, elle se consume en prenant contact avec les couches denses de l’atmosphère. La cabine, elle, se trouve ralentie : le mécanisme utilisé à cet effet n’a pas été indiqué; on croit savoir que la trajectoire de chute est très longue : 11 000 km. Aussi certains observateurs, se basant sur le dispositif utilisé par les Russes pour ralentir la chute des ogives de certaines fusées expérimentales, croient-ils que ce dispositif consiste en un ensemble d’ « aéro-freins ». C’est alors qu’elle est parvenue à faible altitude, 7 000 ou 8 000 m, que la cabine,
- Fig. 2. — Schéma de la récupération en vol de la capsule du Discoverer.
- A, l’avion C 119 déploie son filet trapézoïdal ; B, le parachute est accroché r C, l’ensemble est hissé à bord de l’avion.
- se scindant à son tour en deux parties, éjecte un « container ». Le « container » et ce qui reste de la cabine, sans doute à l’aide de systèmes à parachute, voient encore leur vitesse réduite et se posent sur le sol respectivement à 6 m/s et 10 m/s. Deux objets sont donc récupérés. A quelle distance sont-ils tombés l’un de l’autre P On l’ignore, de même que l’on ne sait pas quel a été le point de chute, cette question ne présentant, aux dires des Soviétiques, « aucun intérêt scientifique ». On ne sait pas non plus quels sont les poids respectifs de la chambre à dispositifs, de la cabine et du container.
- L’importance des charges utiles « récupérées » par les Amé-
- Fig. 3. — Schéma de la technique utilisée pour récupérer la capsule d’un Discoverer.
- Éjectée à partir de l’orbite du satellite, la capsule est placée sur une trajectoire de « rentrée » par un système de rétrofusées. A 16 000 m d’altitude environ un parachute se déploie et un émetteur envoie des signaux. Des avions C 119 se guident sur les signaux, ainsi que des navires. Ceux-ci récupèrent la capsule à la surface de l’Océan si les avions n’ont pas réussi à l’accrocher en vol. C’est ce qui s’est produit pour le Discoverer XIII, lancé le 10 août de la base de Vanden-berg (Californie). Éjectée environ 27 h plus tard au-dessus de l’Alaska, la capsule a mis ,7 mn à descendre et a été repêchée par des hommes-grenouilles de la Marine américaine à 480 km au nord-ouest des îles Hawaï.
- (Document
- du Centre cultural américain).
- Orbite ^
- Séparation de la Capsule
- Réorientation
- Rétropropulsion
- Rentrée dans l'atmosphère
- Déploiement du parachute
- Signaux émis par la capsule
- p.410 - vue 413/558
-
-
-
- Fig. 4. — Récupération de la capsule du Discoverer XIV près des îles Hawaï.
- En haut, des câbles de nylon avec des crochets forment un filet trapézoïdal que traîne un C 119 de l’U. S. Air Force ; l’appareil vient d’échouer pour la deuxième fois dans sa tentative. En bas à gauche, au troisième essai le parachute est accroché. A droite, les câbles hissent à bord parachute et
- capsule (Photos aimablement communiquées par le Centre culturel américain)
- p.411 - vue 414/558
-
-
-
- 412
- Fisr. 5. — Vue en arraché du container et de la cabine du vaisseau satellite soviétique.
- I, ballon du système
- d'aération ; 2, méca-
- nisme qui déclenche l’éjection de la cabine ; 3, bloc d’installation du goniomètre ; 4, batterie pour le chauffage des éprouvettes contenant les microbes ; 5, batterie ; 6, bloc d’appareils de mesure ; 7, enve-
- loppe du container ; 8, transmetteur de mouvement ; 9, cabine de
- l'animal ; 10, micro ;
- II, antenne de goniomètre ; 12, soupapes ;
- 13, caméra de télévision ; 14, miroir ;
- 15, système de ventilation ; 16, dispositif
- automatique pour l’ali-menlalion des animaux. (Document aimablement communiqué par le Bureau soviétique d'information).
- ricains el par les Soviétiques dicte la nature des expériences. La capsule des premiers ne contenait qu’un émetteur radio et quelques instruments dont la liste détaillée n’a d’ailleurs pas été rendue publique. La cabine russe et son container au contraire renfermaient nombre de choses... Des animaux étaient répartis entre les deux fragments récupérés : .deux chiennes, Belka et Strelka, et douze souris se trouvaient dans le container; a rats et 28 souris avaient pris place dans la cabine. Des insectes, des plantes, des graines de céréales, des microbes, des morceaux de peaux comptaient également au nombre des objets embarqués dans le container. Une liste détaillée en a été fournie. Relevons seulement .la présence de mouches Drosophiles, d’échantillons de l’algue Chlorella, des cultures de champignons Actinomycètes, des graines de maïs, de blé, d’oignon... Quant aux microorganismes, ils étaient répartis en 35 ampoules : 11 ampoules de bacilles entériques K 12, C ampoules de bacilles entériques B, 4 ampoules de bacilles entériques du type aéro-gène, 2 ampoules de bacilles de fermentation butyrique, 6 ampoules d’acide désoxyribonucléique, 3 ampoules de bactériophages T 2, 3 ampoules de bactériophages i3-ai.
- Des mesures physiologiques ont été effectuées tout au long du vol sur les deux chiennes. Voici quelques-uns des résultats transmis lors du vol du satellite :
- Stelka Belka
- Pouls (nombre de battements par minute) : — —
- Avant le lancement ........................... 90 75
- Pendant le vol de la fusée porteuse ........ 160 150
- Une heure et demie après le lancement... 65 72
- Rythme respiratoire :
- Avant le lancement............................ 60 24
- Pendant le vol de la fusée porteuse ........ 125 240
- Une heure et demie après le lancement... 24 12
- Notons que la seconde série de mesures porte sur la période d’accélération et que la troisième est relative à l’état d’impesanteur.
- Ces indications ont ^poussé les spécialistes soviétiques à admettre que l’annihilation de la pesanteur n’avait pas empêché les animaux de se retrouver après la période d’accélération dans des conditions physiologiques assez proches de la normale. Les deux bêtes, a-t-il été également indiqué, ont été récupérées en bonne santé mais ont été, comme il est normal, placées en
- observalion, Leur comportement n’a d’ailleurs cessé d’être suivi tout au long de l’expcrience par deux caméras de télévision placées à bord du container. Celui-ci comportait sans doute des hublots puisque, a-t-il été précisé, la lumière solaire qui pénétrait à l’intérieur de l’habitacle a été utilisée au maximum. Les images transmises au sol ont permis de s’assurer que les deux bêtes supportaient bien le défaut de pesanteur, mais elles ont aussi prouvé qu’elles n’avaient pas été sans souffrir de l’accélération et de la décélération.
- Des détails ont également été fournis sur la manière dont les deux chiennes ont été nourries durant le vol : elles ont eu à absorber 331 g par jour d’une nourriture constituée de viandes entrelardées, de semoule d’avoine, de saucisson, de vitamines, d’eau et d’agat-agar.
- Quant à l’équipement scientifique placé à bord du container et de la cabine, il comportait des appareils pour l’élude du rayonnement cosmique, des blocs de photo-émulsion grasse destinés à l’étude de la matière rencontrée par l’engin durant son vol, un équipement dosimétrique destiné à l’examen de la répartition des couches de radiations, enfin un équipement destiné à l’élude des radiations solaires de courte longueur d’onde et comprenant notamment un ensemble d’accélérateurs électroniques munis d'un système à filtres et des compteurs Geiger à extinction automatique spécialisés dans l’étude des émissions de rayons X lors des éruptions solaires.
- Reste à savoir quelles sont les perspectives offertes par les expériences, américaine et soviétique.
- 11 est incontestable, tout d’abord, qu’au point où ils en sont de leurs préparatifs, les Américains ne sont pas à même de lancer un satellite habile par un homme : les dispositifs nécessaires à la récupération de la. capsule ne sont pas complètement au point. Il a été très difficile, par exemple, de stabiliser le Diseovcrcr XIV, et les spécialistes ont cru un temps qu’ils ne pourraient même pas tenter de faire redescendre la capsule sur terre. D’autre part, la taille de celle capsule ne permet pas d’y loger un homme. Force leur est donc d’étendre à une autre capsule qui pèsera une tonne et demie, les essais effectués avec la capsule de taille réduite. Mais on ne multiplie pas la charge utile par dix sans être astreint à de nouvelles mise& au point...
- p.412 - vue 415/558
-
-
-
- 413
- Par ailleurs on n’envisage pas pour le moment aux États-Unis de doubler l’équipage humain de la capsule en vraie grandeur d’un appareillage scientifique très complexe : les observations physiques continueront d’être effectuées par des satellites spécialisés. La raison de cette distinction sc comprend aisément : la place fait défaut à bord d’une capsule récupérable d’une tonne et demie pour loger à bord un homme et des instruments. .D’autre part, la capsule n’a pas été conçue pour servir uniquement de support à un lot d’appareils.
- Aussi y a-t-il lieu de s’attendre que nombre de mois s’écouleront avant que les Américains puissent lancer un satellite habité. Durant ce laps de temps, ils continueront à procéder à l’envoi d’engins spécialisés, du type Tiros ou Midas, et peut-être aussi au lancement de nouveaux satellites, Courrier, Sa.mos..., également spécialisés dans l’exécution de missions précises.
- Le lancement et la récupération du vaisseau-satellite permet aux Soviétiques d’envisager un programme tout différent. D’abord il leur est possible dès maintenant de lancer un homme autour de la Terre. Sans doute les Russes procéderont-ils à d’autres essais préalables et il a même été annoncé qu’un prochain vaisseau-satellite serait lancé avec un singe à bord, ce dernier étant chargé de relayer les chiens dans l’étude des réactions de l’organisme vivant aux conditions du vol et à l’ac-
- L’adaptation des animaux à
- Le développement des avions très rapides et plus encore celui des fusées spatiales ont conduit depuis quelques années à se demander quels seraient les effets physiologiques d’une forte accélération ou, ce qui revient au même, d’un champ de pesanteur fortement supérieur à celui de la Terre. Le comportement des animaux inclus dans les récents engins américains et soviétiques a sans doute donné quelques lumières à ce sujet. D’autre part, de nombreuses expériences ont été faites sur l’homme, dans des cabines animées d’un mouvement circulaire rapide ou dans des chariots accélérés sur rails. Mais toutes ces expériences ont été de courte durée. Il y a intérêt à connaître quels effets aurait sur le vivant une pesanteur accrue pendant des périodes prolongées.
- Il ne s’agit pas dans ce cas d’établir les maximums supportables mais plutôt de se rapprocher des conditions que rencontreraient de futurs astronautes dans une fusée à accélération constante ou, éventuellement, à la surface d’un astre massif dont le champ gravitationnel serait supérieur à celui de notre globe, bien qu’un voyage sur un tel astre ne paraisse pas promis pour un avenir proche. Quels pourraient être à la longue les effets de tels champs ?
- Des expériences ont été faites sur la àouris, par le professeur Charles C. Wunder, au Collège de Médecine de l’Université de Tlowa (U.S.A.). Une centrifugeuse tournant à 95 tours par minute porte i4 cages contenant des souris qui passent leur vie entière dans un état de surpesanteur correspondant l\ 2 g, soit au double du champ terrestre. Cela n’a pas empêché les souris de produire neuf portées de jeunes parfaitement viables. Mais on assiste alors à un phénomène d’adaptation somatique des jeunes extrêmement curieux. Les souris avaient une marche lourde et difficile à cause du doublement de leur poids, mais
- Le blindage nécessaire des
- L’ingénieur Norris F. Dow, de la General Electric (U.S.A.) est d’avis que la protection d’éventuels astronautes contre les radiations cosmiques ne serait pas aussi aisée qu’on le pense généralement. L’équipage d’un satellite habité, sur une orbite à 3 000 km au-dessus du sol terrestre, serait soumis à l’effet des protons rapides, de la ceinture de Van Allen interne qui contient justement les particules les plus énergiques. Selon M. Dow, les hommes recevraient une dose mortelle de 3 000 r.e.m. par semaine et il
- lion des radiations et des rayonnements cosmiques. Mais on peut croire que l’expérience décisive n’est plus très éloignée.
- Le vaisseau-satellite semble toutefois pouvoir servir à d’autres fins car il ne paraît pas être « spécialisé » outre mesure dans le rôle de véhicule habité : son poids et son agencement permettent de loger à bord de très nombreux instruments et même d’embarquer conjointement un homme et des appareils. En d’autres termes, les Soviétiques semblent maintenant disposer d’un a satellite à tout faire » qui peut être utilisé aussi bien pour la conquête de l’espace par l’homme que pour l’étude puis l’exploitation de l’environnement terrestre.
- Jusqu’à présent, les Américains avaient réussi, c’est l’avis de tous les hommes de science, à accumuler plus d’observations scientifiques sur l’espace circumterrestre que les Soviéliques. Ces derniers ne vont-ils pas pouvoir, grâce à leur vaisseau-satellite, entreprendre des observations qui pour l’instant demeurent interdites aux Américains ? En effet, l’importance de la « charge utile » dicte la nature des expériences qu’il est possible d’entreprendre et surtout les instruments logés dans les engins russes pourront être récupérés et leurs observations étudiées tout à loisir, sans qu’il soit nécessaire de recourir aux transmissions par radio.
- N i colas Vj en ney.
- une centrifugation prolongée
- les animaux adultes ne montrèrent aucune modification notable de leur conformation. Au contraire, chez les jeunes nés dans la centrifugeuse, on note que le fémur augmente de diamètre, en particulier que sa section devient plus ronde, donnant à l’os plus de résistance. Cette modification du fémur devient appréciable moins d’une semaine après la naissance. D’autre part, quand de jeunes souris sont placées dans la centrifugeuse, elles perdent rapidement beaucoup de poids mais elles commencent à le regagner après 4 ou 5 jours, montrant en définitive une adaptation assez rapide à la forte pesanteur. Elles ne deviennent cependant jamais aussi grosses que des souris ordinaires.
- Des observations analogues ont été faites à l’Universilé de Californie, sur des poulets soumis dans ce cas à un champ gravitationnel plus élevé, atteignant 4 g. Le docteur Alfred Smith a remarqué un accroissement de volume des muscles des pattes qui atteint un facteur 7. En revanche, les poulets ne paraissent pas capables de se reproduire dans un champ aussi intense : les œufs pondus sont infertiles. On observe enfin des troubles digestifs chez ces animaux quand on les remet parmi leurs congénères et qu’ils retrouvent une pesanteur normale, donc 4 fois inférieure à celle qu’ils avaient été entraînés à supporter.
- Cette dernière observation viendrait à l’appui de l’opinion selon laquelle le défaut de pesanteur dans une fusée spatiale non accélérée, ou même à la surface de la Lune où la gravité n’atteint que. 0,16 g, poserait à des voyageurs d’importants problèmes d’adaptation physiologique, notamment en ce qui concerne l’absorption et la digestion des aliments. Sur ce point, les prochaines expériences spatiales avec des animaux puis avec des hommes ne manqueront pas d’appox’ter des renseignements décisifs.
- J. F.
- habitacles interplanétaires
- faudrait, pour protéger un petit habitacle, au moins b t de plomb, ce qui semble prohibitif. Même en dehors de la ceinture de Van Allen, les faisceaux de protons produits par les sursauts d’activité solaire pourraient mettre en danger un équipage mal protégé. S’appuyant sur ces considérations, M. Dow est d’avis que les « stations interplanétaires » de grandes dimensions qu’on envisage déjà sont irréalisables, en raison du poids des blindages qu’elles nécessiteraient. J- F.
- p.413 - vue 416/558
-
-
-
- Les protéines livrent peu à peu les secrets de leur constitution
- Les protéines se placent à la base de la chimie des êtres vivants et il est peu de fonctions vitales qui ne leur doivent l’essentiel. C’est à ce groupe qu’appartiennent les enzymes, catalyseurs de presque toutes les réactions nécessaires à la vie, ainsi que les hormones et toutes sortes de substances qui participent à la défense de l’organisme, à la respiration des tissus, à la contraction des muscles, sans compter les innombrables éléments constitutifs de la cellule et de l’organisme, et dont nous ne connaissons pas toujours le rôle. Mais le caractère instable de ces molécules géantes en face des conditions expérimentales rend l’étude de leur structure particulièrement difficile; aussi n’est-il pas étonnant que les protéines aient été classées dès l’origine par des propriétés physico-chimiques d’ensemble comme leur solubilité dans divers milieux, sans préjuger en rien des configurations profondes qui en sont responsables.
- Les moyens d’étude de la molécule sont aujourd’hui très perfectionnés. Diverses méthodes de fractionnement permettent de préparer à l’état très pur un nombre immense de protéines et même d’obtenir certaines d’entre elles sous une forme cristallisée, sans porter atteinte à leurs propriétés essentielles, ce qui rend possible l’acquisition de renseignements très préois 6ur le poids moléculaire, la forme, les dimensions et la charge électrique des particules, ainsi que sur certains aspects de leur configuration. Il y a quelques années, Sanger et ses collaborateurs ont réussi à élucider la structure chimique de l’insuline et à montrer comment les acides aminés se placent bout à bout dans un ordre déterminé pour constituer une molécule possédant la propriété biologique de l’hormone, qui est de contrôler le taux du glucose dans le sang. Ces résultats ont rendu une très grande confiance aux biochimistes dans ce domaine, en montrant que la complexité des protéines ne constitue pas une barrière infranchissable à l’analyse détaillée des motifs structuraux responsables de leurs propriétés.
- L’enchaînement des acides aminés et les trois niveaux de structure
- On sait que les acides aminés, de formule générale :
- R — CH(NH„) — COOH,
- s associent pour donner des chaînes « polypeptidiques » de type :
- H2N — CH — CO — NH — CII — CO — NH — ... — CH — COOH
- k r2 r„
- où la lettre R désigne les « résidus », c'est-à-dire les parties des acides aminés qui ne participent pas directement à la liaison peptidique et s’insèrent aux différents niveaux de la chaîne. La nature emploie une vingtaine d’acides aminés dans toutes les protéines du monde vivant, ce qui donne un nombre immense de combinaisons possibles, si l’on songe que l’albumine du sang possède, avec un poids moléculaire moyen (M = 65 ooo), plus de 600 de ces chaînons. En outre les résidus latéraux vont créer à tous les niveàux des groupements chimiques variés capables de réagir entre eux lorsqu’ils se trouvent placés en contact par les replis de la chaîne, et forment ainsi des ponts dont le plus stable est la liaison disulfure — S — S —, formé après oxydation par deux résidus de
- 0=C-(CH2).
- c—0
- ’ O y *•
- L—N-/-----1
- Fig. 1. — Exemples de liaisons non covalentes entre résidus
- d’acides aminés, dont l’existence conditionne la structure
- des protéines.
- a : attraction électrostatique entre groupes ionisés (alt acide glutamique-résidu terminal ; a2, lysine-résidu terminal), b : pont hydrogène (tyrosine-acide aspartique), c : force de Van der Waals (c1 valine-alanine ; c2, sérine-sérine). d : réunion de pôles hydrophobes (du isoleucine-isoleucine ; da, phénylalanine-phénylalanine).
- cystéine (porteurs chacun d’un radical — SH). La figure 1 donne des exemples de ces liaisons qui vont contribuer à donner à l’ensemble une configuration bien définie en mettant en jeu des énergies plus ou moins grandes, les moins stables étant facilement brisées par des actions extérieures qui viennent par exemple du solvant, ayant pour effet de créer des petites modifications dans la molécule, comme on peut l’observer parfois en faisant varier la concentration, la salinité et l’acidité de la solution.
- On peut donc envisager la structure des protéines comme réglée à plusieurs niveaux : la structure primaire réside dans la succession de certains acides aminés dans un ordre déterminé, où la présence de cystéine peut déterminer des ponts disulfures qui imposent des replis à une même chaîne ou relient deux chaînes différentes (c’est le cas de l’insuline). Ici tout est réglé par des liaisons stables de type « covalent » qui ne peuvent être brisées qu’au moyen d’une véritable réaction chimique.
- Ces liaisons déterminent dans l’espace la structure secondaire de la chaîne, pour laquelle on peut construire à l’avance différents modèles (fig. 2) où les restrictions imposées pour les distances entre atomes et les angles entre valences doivent être respectées. On sait que ces données peuvent être calculées à partir des diagrammes de diffraction aux rayons X sur des corps cristallisés; en utilisant des composés peptidiques n’ayant que deux ou trois acides aminés ou les polymères synthétiques d’un même acide aminé, le problème est relativement simple. Il est applicable également à des protéines cristallisables dont les chaînes forment de longues fibres parallèles ou régulièrement entrelacées.
- Parmi les différents modèles construits, celui de la figure 2 serait le plus voisin de la réalité et pourrait s’appliquer à certaines protéines fibreuses. On voit que les quatre atomes de la liaison peptidique — CO — NH — sont dans un même plan ; ces groupes contractent deux à deux une liaison « hydrogène » entre l’atome d’oxygène et l’hydrogène porté par (’azote, ce qui a pour effet de stabiliser au maximum l’ensem-
- p.414 - vue 417/558
-
-
-
- 415
- ble de la structure. Toute action ayant pour effet de couper les ponts hydrogène (ou ponts H) doit donc modifier la structure secondaire; c’est probablement ce qui se passe en solution aqueuse où les molécules d’eau également capables de former de telles liaisons en divers points de la chaîne facilitent le déroulement de celle-ci en filaments désordonnés ou diversement repliés. La structure secondaire est modifiée dans les cristaux de protéines aussi, par incorporation de molécules d’eau, de sel et de métaux lourds dans le réseau.
- La structure tertiaire est celle que confèrent les différents modes de liaisons représentées sur la figure i, elles-mêmes diversement influencées par les conditions du milieu. Lorsque ces liaisons sont fortes, la molécule peut se présenter sous
- Fig. 2. •— Schéma
- d’une chaîne polypeptidique en hélice oc.
- Les radicaux R s’insèrent aux divers niveaux de la rhaîne, constiluée par des atomes d’azote (boutes noires), de carbone (boules blanches), d’oxygène (boules ombrées) et d’hydrogène (boules blanches plus petites). Les ponts hydrogène, figurés en pointillé, relient entre elles les spires. On comprend que leur action tend à s’opposer au déroulement de la structure. Le pas de l’hélice est de 5,44 À (D’après Sangeu).
- forme de pelote serrée portant à sa surface des charges électriques et un grand nombre de molécules d’eau, les groupements « hydrophobes » (chaînes grasses, radicaux benzéni-ques) étant rejetés à l’intérieur de la structure. Lorsque ces liaisons sont faibles ou peu nombreuses, les chaînes se projettent au hasard dans le solvant en formant une texture très lâche.
- Il est certain que ces problèmes de configuration jouent un rôle énorme dans toutes les propriétés des protéines, en faisant appel à des arrangements spécifiques où certains motifs sont dissimulés aux actions extérieures et ne peuvent réagir, alors que d’autres exposent à la surface de la protéine des relations spatiales définies. Il n’est pas douteux qu’en fin de compte la variété de ces aspects repose sur la succession même des acides
- aminés d’où découlent toutes les autres propriétés. Or ces connaissances sont maintenant accessibles lorsque le poids moléculaire n’est pas trop grand, ce que montre l’étude de la ribonucléase que nous prendrons maintenant comme exemple.
- Cette protéine est une enzyme répandue dans tous les tissus; elle possède une action biologique remarquable : la scission de tous les acides ribonucléiques en certains points de leur chaîne. On peut la préparer en grandes quantités à l’état très pur, ce qui est nécessaire pour effectuer une détermination très précise de la teneur exacte en chaque acide aminé. La protéine doit
- Collidine
- Fig. 3. — Chromatographie sur papier d’un mélange d’acides aminés.
- Le mélange de départ est placé en haut à gauche de la feuille de papier et entraîné dans le sens de la flèche par l’écoulement du premier solvant (phénol). Les acides aminés sont entraînés à des vitesses inégales, d’autant plus rapidement qu’ils sont plus solubles dans le phénol et moins fortement adsorbés. L’opération est répétée dans le sens perpendiculaire au moyen d’un deuxième solvant. Un réactif permet de révéler la position prise par chaque acide aminé (en noir sur le schéma, constituants désignés en abrégé par les trois premières lettres).
- donc être hydrolysée, afin de libérer ces divers constituants que l’on peut ensuite séparer et doser par chromatographie (fig. 3). La sensibilité de ces méthodes est en général suffisante pour effectuer un tel travail et permet de calculer le nombre de résidus d’acides aminés par molécule dont le poids moléculaire doit être connu avec exactitude. Pour la ribonucléase il n’est que de i3 6oo, d’après des mesures physiques. La formule suivante, qui représente 124 chaînons, donne un poids moléculaire de i3 683 (le chiffre qui suit chaque acide aminé représente le nombre d’exemplaires de cet acide que l’on trouve dans la chaîne) :
- Acide aspartique, 15 Acide glutamique. 12
- Glycocolle ........ 3
- Alanine .......... 12
- Valine............. 0
- Leucine ........... 2
- Isoleucine .....
- Sérine .........
- Thréonine ......
- Méthionine .....
- Proline ........
- Phénylalanine ..
- 3 15 10
- 4 4 3
- Tyrosine .... 6
- Histidine .... 4
- Lysine ...... 10
- Arginine .... 4
- Cystéine .... 8
- Comme une hydrolyse suivie d’oxydation libère 8 radicaux de cystéine, la structure primaire peut admettre 4 liaisons disulfures. Au cas où ces liaisons serviraient à relier entre elles plusieurs chaînes polypeptidiques, une oxydation convenable de la ribonucléase devrait amener une chute du poids moléculaire en brisant ces liaisons et en produisant une frag-
- p.415 - vue 418/558
-
-
-
- •410
- Fig. 4. — Appareil de chromatographie sur colonne.
- A travers la colonne centrale contenant un adsorbant convenable (échangeur d’ions) s’écoule une solution saline dont la concentration et l’acidité varient de façon continue ( a u moyen du dispositif placé en haut). Les divers constituants du mélange adsorbé sur la colonne sont entraînés à des moments différents et recueillis sous forme de fractions par le collecteur placé au-dessous.
- (Photo Service des Virus, Institut Pasteur).
- menlalion de l'édifice. L’absence d’un tel phénomène permet de se représenter la molécule comme étant constituée d’une seule chaîne.
- Une autre voie conduit au môme résultat : si nous considérons la succession des acides aminés dans une chaîne non fermée sur elle-même, on doit trouver à une extrémité un radical terminal — MU qui n’entre dans aucune liaison covalente, et de l’autre côté un radical acide — COOI1. La fixation d’un produit tel que le iluorodinitrobenzène sur le radical aminé •—NH2 permet de reconnaître Je dérivé formé en effectuant une hydrolyse, puis une chromatographie (fig. 5) : pour la ribonucléase on obtient toujours la lysine. Du côté opposé on isole la valine, après l’avoir détachée de l’extrémité de la chaîne par une enzyme spéciale, la carboxypeptidase. L’opération ne permet de recueillir quantitativement qu’un seul acide aminé pour chaque bout : il n’y a donc bien qu’une seule chaîne.
- En examinant la figure 6 où l’ordre des 124 acides aminés a été en grande partie déterminé, on peut se rendre compte du caractère laborieux d’une telle reconstitution. Presque toutes les méthodes consistent à scinder les protéines en chaînons plus courts que l’on peut séparer ; c’est ce qui permet l’usage des enzymes qui attaquent les protéines en provoquant leur hydrolyse à certains niveaux. La trypsine coupe les liaisons peptidiques là où le radical acide est fourni par la lysine ou par
- l’arginine. Si on modifie la lysine comme plus haut par une substitution (voir la figure 5), la trypsine ne scinde plus la chaîne qu’au niveau de l’arginine. En combinant l’attaque de différentes enzymes sur la protéine, que l’on a oxydée en vue d’étirer la structure en brisant les ponts disulfures, il est possible d’obtenir un certain nombre de tronçons plus ou moins courts que l’on peut livrer à des procédés d’extraction chromatographique très sélectifs.
- La dégradation progressive de ces produits (en détachant par exemple les acides aminés à partir des extrémités) permet d’en connaître l’agencement. Des recoupements permettent de reconstituer la composition en acides aminés de toutes les parties de la molécule et de tracer la succession des résidus le long de la chaîne.
- Ce patient travail d’analyse a été mené à bien de façon plus ou moins complète avec de nombreux produits, où se rangent notamment des enzymes, des hormones et des protéines jouant un rôle dans la respiration. En principe on devrait se trouver en mesure d’en prévoir les structures secondaires et tertiaires, mais ces données sont encore rarement accessibles de façon directe; il faut se contenter d’estimations générales au moyen de méthodes chimiques ou physiques qui s’efforcent de changer la structure à trois dimensions de la molécule. On peut par exemple modifier l’importance des ponts II en utilisant des solutions concentrées de certains corps comme l’urée ou la guanidine. Nous avons vu le rôle stabilisateur joué par ces
- NH2
- ch2_ch2
- ch2_ch2
- CH _ C00H I
- NH2
- Fig. 5. — Exemple de marquage chimique d’un acide aminé.
- Le Iluorodinitrobenzène (en haut à gauche) est fixé sur les groupements aminés de la lysine (en haut à droite). En bas, peptide isolé de la ribonucléase (voir fig. 5) par digestion à la pepsine et contenant le dérivé de la lysine. De tels dérivés, appelés dérivés DNP (dinilrophényl) sont couramment utilisés pour bloquer les fonctions amines et marquer un acide aminé que l’on peut identifier par chromatographie.
- liaisons. Leur suppression introduit des modifications de structure qui ont des répercussions sur les propriétés physiques, et qui sont capables de changer les relations spatiales entre les divers pôles chimiques.
- On estime que Go pour 100 de la molécule d’insuline possède la disposition en hélice, là où se trouvent les atomes de soufre. Il y a donc d’assez nombreux ponts II. Or les atomes d’hydrogène sont assez mobiles et s’échangent facilement avec ceux des molécules d’eau de la solution. On peut imaginer que là où les chaînes sont repliées, les atomes qui participent aux ponts H sont plus dissimulés et moins facilement échangés que ne le sont les atomes qui appartiennent à des groupes latéraux ou à des parties non enroulées. Que va-t-il se passer si l’insuline est dissoute dans de l’eau lourde P Gelle-ci va céder une partie de son deutérium (isotope lourd de l’hydrogène) pour recevoir
- p.416 - vue 419/558
-
-
-
- 417
- Fig. 6. — Séquence
- des acides aminés dans la molécule de ribonucléase pancréatique du Porc. Dans ce schéma les acides aminés sont désignés en abrégé par les trois premières lettres, sauf l’asparagine (An) et la glutamine (Gn) qui sont les amides des acides aspartique et glutamique. Pour certains (cercles en trait fort) l’ordre de la succession est exactement connu. Pour d’autres (cercles en trait fin) la position est attribuée de façon certaine-à une région de la chaîne sans que les détails de la séquence soient définitivement établis. La localisation des ponts disulfures se fait par examen des produits de dégradation obtenus avant et après rupture de ces liaisons, ce qui permet de situer la cystéine par rapport aux autres acides aminés. Les points de rupture de la chaîne par la trypsine sont indiqués par les flèches.
- (D’après Anfinsen et divers groupes de chercheurs américains).
- anM™1
- lEXserXmetYth
- VAL
- ALA
- VAL
- anJ(th
- ALA
- THRÏ PHE1(VAL)(h I S)(G LU)(S E R)(LEU)(aLA)(ASP
- les atomes d’hydrogène ordinaire de la molécule. L’insuline chargée en deutérium est alors précipitée et séchée, et redissoute dans une solution ordinaire où l’apparition d’eau lourde dans le temps est mesurée. Dans cette hormone il y a théoriquement 91 atomes d’hydrogène échangeables; parmi ceux-ci, 60 le sont presque instantanément, les autres plus lentement. Au contraire tous sont échangés aussitôt quand la protéine est redissoute dans une solution chaude ou contenant une forte teneur en urée. Cette différence est apparemment due à la disparition de l’enroulement des chaînes A et B (fig. 7). Aussi beaucoup de protéines sont-elles très instables; une action trop brutale peut amener des changements irréversibles de structure, une altération souvent appelée « dénaturation ».
- Structure et propriétés biologiques
- Cette fragilité rend souvent la manipulation des protéines très délicate. Une enzyme ou une hormone perdent leurs propriétés après dénaturation en devenant une entité seconde, en général moins soluble et biologiquement inerte. Mais il n’est pas certain que l’intégrité de toute la structure soit nécessaire au maintien de la fonction, car dans bien des cas la substitution ou la suppression de certains groupements restent sans effet.
- L’enlèvement des trois derniers chaînons de la ribonucléase, l’alanine, la sérine et la valine, n’altère en rien son pouvoir enzymatique sur l’acide ribonucléique. Le résidu 121, l’acide aspartique, est au contraire absolument nécessaire et paraît
- r-S-S
- chaine A
- chaine B
- Fig. 7. — Schéma de la molécule d’insuline.
- On voit que la structure comprend deux chaînes inégales soudées par l’intermédiaire des atomes de soufre (la molécule a donc 6 radicaux de cystéine). La forme en hélice est stabilisée par des ponts hydrogène dont quelques-uns seulement sont représentés.
- jouer un rôle dans la structure tertiaire, cette disposition à trois dimensions qui confère à la chaîne ses propriétés. Les biochimistes ont un moyen indirect de visualiser les modifications de cette structure. En regardant la figure 6 nous voyons que la ribonucléase possède 6 résidus de tyrosine, acide aminé qui a la propriété de présenter dans l’ultraviolet un spectre d’absorption présentant un fort maximum pour la longueur d’onde de 2 800 Â. L’enzyme donne bien le même maximum d’absorption (comme la grande majorité des protéines), mais le spectre est légèrement décalé vers des longueurs d’onde plus courtes. Cela est dû aux modifications électroniques de la tyrosine par suite des aetions réciproques qu’elle subit au sein de la molécule de protéine. En fait l’anomalie disparaît si le pro-
- p.417 - vue 420/558
-
-
-
- 418
- duit est dissous dans une solution concentrée d’urée, mais l’enzyme est inactivée. Or nous savons deux choses, primo que l’urée coupe les ponts H, secundo (d’après la figure i) que la tyrosine est à même de contracter de telles liaisons avec des radicaux acides libres, comme celui de l’acide aspartique. Bien plus, le pouvoir enzymatique disparaît au même moment que l’anomalie du spectre, dont l’observation fournit un moyen original de doser l’activité de la préparation sans avoir recours au test habituel d’hydrolyse de l’acide nucléique. Des liaisons H contribuent donc à donner au centre actif sa configuration spécifique.
- Par contre l’activité n’est pas détruite après rupture de la liaison disulfure contractée par le 26e résidu; cette liaison n’est donc pas indispensable. Entre elle et le premier résidu (la lysine) s’étend une portion de chaîne qu’on peut séparer en faisant agir une enzyme bactérienne, la subtilisine; la scission a lieu entre les résidus 20 et 21, l’alanine et la sérine. L’opération se traduit par une perte d’activité pour la ribonucléase et, comme il se doit, par la disparition de l’anomalie du spectre. Chose curieuse, quand les deux fragments sont remis en présence l’un de l’autre, la préparation retrouve son pouvoir enzymatique et l’anomalie du spectre reparaît; il y a donc réactivation du corps principal de la molécule par la « queue » des vingt acides aminés. En se fixant par des liaisons spécifiques et non covalentes, ce polypeptide contribue à maintenir, d’une façon que nous ignorons, la disposition indispensable à l’activité de l’enzyme.
- De tels phénomènes sont probablement fréquents dans la nature; certaines hormones sont des protéines de très petite taille ou des polypeptides qui ont à peine plus d’une dizaine de résidus dans leur chaîne. Il n’est pas exclu que leur rôle soit précisément de modifier ainsi l’activité de certaines enzy-
- /AÜfflSPMSRWSPMSPYLYSjU LEWAl
- S _ S
- ;pjwspwspmsr(lysj
- s _s
- Fig. 8. — Activation autocatalytique de la trypsine.
- La molécule de trypsinogène libère spontanément un court peptide dont le départ amène des modifications structurales importantes aboutissant à la molécule de trypsine. Une partie de la chaîne se replie en hélice. Des arrangements spécifiques localisés peuvent donc conditionner la disposition de l’ensemble de la chaîne et par conséquent l’activité biologique du produit.
- (D’après Pechère et Neurath).
- mes. Dans le cas de la trypsine, qui naît spontanément à partir du trypsinogène, cm assiste à l’expulsion d’un chaînon qui n’a que 6 résidus, ce qui permet à une partie du reste de la chaîne de s’enrouler en hélice et de former de nouvelles liaisons (fig. 8). Il est donc permis de penser que des peptides possédant des séquences déterminées d’acides aminés jouent un rôle de régulateurs des processus métaboliques dans l’organisme par leur action sur la structure de certaines protéines, afin de libérer ou de supprimer au bon moment l’activité de ces produits.
- Structure, mutations, espèces
- La succession des acides aminés dans une protéine est-elle rigoureusement déterminée ? Pauling, avec ses collaborateurs, est le premier à avoir montré le remplacement héréditaire d’un acide aminé par un autre dans un produit biologique, l’hémoglobine humaine. Il existe plusieurs variétés d’hémoglobines anormales en rapport avec certains troubles anémiques. Dans la maladie appelée sicklémie, les globules rouges prennent une forme anormale en faucille dès que s’abaisse la teneur du milieu en oxygène (La Nature, février ig55, p. 64-65); ce caractère se transmet comme un facteur mendélien récessif dans les populations noires exclusivement et correspond à une hémoglobine anormale (hémoglobine S) dont les propriétés physiques sont légèrement différentes. Parmi les peptides que libère la digestion trypsique à partir de plusieurs hémoglobines, l’un d’eux attire l’attention, car il diffère selon qu’il s’agit d’hémoglobine normale ou des variétés S ou C. A l’acide glutamique se substituent dans un cas la valine, et dans l’autre la lysine (fig. 9), dont les charges différentes à l’état ionisé expliqueraient les changements de solubilité et de mobilité dans un
- Hb A 4ms. t
- 1 +
- Hb S HIS î
- +
- Hb C ^HIS _
- Figr. 9. — Séquence des
- J - ÜLU * Ll J .
- î t
- On voit que le passage de l’hémoglobine normale (A.) aux hémoglobines S et C comporte le changement d’un seul acide aininé et introduit pour l’hémoglobine C un groupement ionisé de signe contraire. Les flèches indiquent, les points de coupure obtenus par la trypsine.
- champ électrique pour la molécule entière. Ce phénomène provient de la mutation d’un même gêne; la place des acides aminés serait donc déterminée de façon rigoureuse au moment des synthèses, grâce à l’information détenue par un grand nombre de gènes.
- Ce problème a de vaste prolongements, d’un côté la spécificité des protéines sous la dépendance d’une séquence déterminée d’acides aminés, de l’autre les nombreux travaux, notamment sur les virus des bactéries, prouvant le rôle fondamental joué par les acides nucléiques dans la transmission des caractères héréditaires. La succession des nucléotides dans les chaînes d’acide désoxyribonucléique doit constituer un code caractéristique de l’espèce ou de l’individu, code capable de régler les synthèses dans leurs plus petits détails, car on peut imaginer une correspondance directe entre chaque acide aminé et un certain niveau de la chaîne nucléique constitué par deux ou trois nucléotides. En changeant la position d’un nucléotide, une mutation provoquerait le remplacement d’un résidu dans la molécule intéressée. Si les yeux de l’expérimentateur lui permettaient de « lire » les chaînes de l’acide nucléique du haut en bas, les séquences des acides aminés lui apparaîtraient aussitôt! Bien sûr, dans l’attente d’une confirmation expérimentale, le caractère spéculatif de ces hypothèses ne doit pas nous échapper.
- La perte d’une enzyme intermédiaire du métabolisme est un phénomène fréquent à la suite d’une mutation chez les bactéries. On peut se demander s’il ne s’agit pas d’une modification dans la séquence des acides aminés au sein de la molécule d’enzyme; le remplacement de l’un d’eux dans une région de la chaîne non nécessaire à l’activité ne serait décelable qu’après une analyse détaillée de la structure; aussi certaines mutations doivent-elles passer complètement inaperçues de l’expérimentateur. Il
- p.418 - vue 421/558
-
-
-
- 419
- n’en esl pas de même si le centre actif est atteint : en continuant peut-être la synthèse, la cellule ne va libérer qu’une * protéine inutile et sans pouvoir que nous ne pourrons déceler.
- L’analyse permet de mettre en évidence des différences entre espèces, ce qui, dans les exemples que nous avons pris, n’empêche pas chaque ribonucléase d’attaquer n’importe quel acide ribonucléique du monde vivant et une insuline quelconque de traiter efficacement le diabète chez l’homme. On peut supposer que les différences touchent précisément les positions de la structure qui ne sont pas essentielles pour l’activité; c’est du moins ce qui découle de certaines observations lorsque l’analyse a pu être faite. Le raisonnement inverse s’applique : le remplacement du résidu 37 de la ribonucléase de bœuf (lysine) s’effectue chez le mouton par l’acide glutamique, dont la charge est opposée; il est donc probable que la position Zq ne joue aucun rôle dans la disposition responsable de l’activité. Dans les diverses insulines étudiées, l’extrémité C de la chaîne B et la région centrale qui contient les ponts disulfures (fig. 7), toutes deux présumées essentielles pour l’activité, ne montrent aucun changement.
- Nous sommes en présence d’une sorte d’anatomie comparée à échelon moléculaire, capable de donner les renseignements les plus utiles sur les relations qui existent entre la structure des protéines et leurs fonctions. Plusieurs laboratoires étudient actuellement la constitution de certains corps tels que l’hémoglobine, la myoglobine et le cytochrome C, dont l’avantage est d’appartenir à un grand nombre d’êtres vivanfs. Le cytochrome C joue un rôle de transporteur dans la respiration. Parmi les peptides isolés au cours de l’analyse, l’un d’eux offre la même séquence dans trois espèces, le bœuf, le cheval et le porc :
- ... -Val-Glu-Lys-Cys-Ala-Glu-Cys-His-Thr-Val-Glu-Lys- ...
- nh2 nh2
- Ce peptide se retrouve plus ou moins modifié dans d’autres espèces aussi disparates que le poulet, le saumon, le ver à soie, la levure de bière et une bactérie, avec le motif commun :
- Lys 1
- ou V — Cys — X — Y — Cys — His -— Thr —...
- Arg )
- Comme les deux résidus de cystéine servent de point d’attache au groupement porphyrinique, noyau chimique qui contient du fer (comme dans l’hémoglobine) et dont le rôle est essentiel, cet aspect apparemment minime a traversé sans changement l’énorme diversification de l’évolution.
- leur structure primaire si les régions affectées ne jouent pas un rôle essentiel. Peut-être des variations faibles de la structure à trois dimensions sont-elles également tolérées. Il n’est pas exclu que des divergences très faibles puissent exister dans un même organisme quand des mutations ont modifié les synthèses de certaines cellules.
- On peut également envisager des « microvariations », non plus à l’échelon génétique mais à l’échelon métabolique : au cours de la synthèse un acide aminé serait remplacé par un autre dont la forme spatiale est très voisine; c’est par exemple le cas de la valine et de l’isoleucine. Or de telles variations semblent rares, la nature exerçant sur ces éléments une discrimination très précise. C’est pourquoi les expérimentateurs ont eu l’idée d’utiliser des « analogues » : il s’agit d’éléments artificiels dont la configuration spatiale imite celle des produits naturels, ainsi que certaines de leurs propriétés (fig. 10). Ce sont en somme des « faux », des imitations que l’expérimen-
- Phénylalamne
- H
- A
- p Fluorophénylalanme
- Y
- A
- V
- CH? | ch2
- CH.NH? CH-NH;
- COOH COOH
- Méthionine Norleucine
- ch3 CH,
- / / d
- s j ch2 [
- CH? j C CH, | c
- ch2 ch2
- ch,nh2 1 * CH.NH;
- COOH COOH
- Fig-, 10. — Exemple de « corps analogues ».
- Dans un cas, un atome d’hydrogène de la phénylalanine est remplacé par un atome de fluor. Dans l’autre, le soufre de la méthionine est remplacé par un radical. Les analogues ont une forme moléculaire dans l’espace très voisine de celle de l’élément auquel ils sont substitués.
- La synthèse naturelle des protéines se fait-elle sans accrocs ?
- La biochimie dispose actuellement de méthodes suffisamment précises pour discerner de très petites différences de constitution entre deux protéines. On peut imaginer l’existence de variétés isomères ayant les mêmes résidus placés dans un ordre différent ou de produits n’ayant qu'approximativement la même séquence. Cette éventualité semble démentie par les faits, puisque l’analyse en serait fortement obscurcie et ne permettrait pas les recoupements indispensables. A vrai dire ces recherches ont été menées à bien sur des protéines de petite taille; que dire d’éléments à poids moléculaire bien plus élevé, tels que gamma-globulines du sérum ! Ces protéines, dont le poids moléculaire avoisine 160000, forment une « population » de molécules non absolument identiques contenant les très nombreux anticorps spécifiques responsables de l’immunité. Or nous avons vu que l’activité biologique de certaines molécules supporte aisément de légers changements apportés dans
- tateur livre volontairement au métabolisme en vue d’en dérouter les mécanismes. L’incorporation des analogues dans les protéines est possible parfois, à la place du composé normal. Mais il est concevable que cette incorporation introduise un élément nuisible. L’analogue se comporte alors comme un véritable poison, en déréglant sans doute l’activité de quelque enzyme importante du métabolisme.
- Les synthèses des protéines ne sont dpnc pas absolument exactes, puisque certains acides aminés peiivent être substitués; mais il faut reconnaître qu’elles comportent peu d’erreurs. Tous les jours s’aceumulent des observations qui montrent que la spécificité des protéines souffre peu d’écarts et qu’il doit exister dans leurs mécanismes d’assemblage une étonnante précision de la discrimination des structures. Mais l’analyse des structures, si longue et coûteuse qu’ellé' soit, a l’avantage de nous montrer que cette discrimination est aveugle, et concerne aussi bien des parties de la molécule qui paraissent inutiles.
- Jean Pelmont, Agrégé de l’Université.
- p.419 - vue 422/558
-
-
-
- 420
- Le phénomène astronomique le plus lointain
- GALAXIES EN COLLISION A 6 MILLIARDS D’ANNÉES-LUMIÈRE
- Une communication récente de l’astronome Rudolph Min-kowski, des observatoires du Mont Wilson et de Palomar, fait état de la découverte d’une collision de galaxies située très profondément dans l’espace. On sait que de tels phénomènes présentent un grand intérêt théorique, particulièrement en radioastronomie, car ils donnent lieu à des émissions hertziennes très puissantes dans la gamme des ondes métriques. Ils sont malheureusement rares et surtout très difficiles à identifier optiquement. On a pu en observer dans Persée et dans le Centaure (N.G.C. 1275 et N.G.C. 5i28), mais c’est la collision de la constellation du Cygne (appelée Cygnus A) qui a excité jusqu’à présent le plus d’intérêt. L’interpénétration à grande vitesse des nuages de gaz et de poussière des deux galaxies, qui semblent s’aborder presque de face, donne lieu à une émission non thermique qui est la seconde en intensité de toutes les sources lointaines observées, qu’elles soient galactiques ou extra-galactiques. L’identification optique de cette source a permis d’estimer son éloignement à environ 700 millions d’années-lumière. On devine quelle doit être l’intensité réelle de l’émission pour que nous la recevions sur la Terre comme une des mieux décelables malgré son extrême éloignement.
- On sait que les galaxies lointaines nous fuient (ou paraissent nous fuir) avec une vitesse proportionnelle à leur distance. Le rapport entre cette vitesse de fuite et l’éloignement est donné par la « constante de Hubble », actuellement fixée à 75 km par seconde par mégaparsec (1 mégaparsec égalant 3,26 millions d’années-lumière). C’est dire qu’une galaxie qui, par exemple, nous fuit à la vitesse de 7 5oo km/s est à une distance de 326 millions d’années-lumière. Quant à la vitesse de fuite, elle est estimée d’après l’ampleur du déplacement du spectre optique vers le rouge (effet Doppler).
- Plus récemment, on a mesuré aussi le déplacement de la raie 21 cm émise par l’hydrogène neutre qui baigne les galaxies (spectre radio). On considérait jusqu’à l’année dernière que le déplacement de la raie 21 cm corroborait celle du spectre optique, et qu’on pourrait par conséquent estimer directement la distance d’une source radio lôintaine par l’analyse de ce spectre radio. On admet maintenant que cette raie n’est pas décelable dans le spectre radio de Cygnus A. Cela n’infirme nullement, bien entendu, le principe parfaitement admis d’un changement de profil de la raie 21 cm par effet Doppler, lorsque cette raie est bien analysable à partir des nuages d’hydrogène neutre de notre propre Galaxie. Mais l’espoir s’estompe d’estimer directement la distance des sources radiométriques de l’espace lointain, du moins pour le moment. Nous devons nous contenter de l’observation, d’ailleurs parfaitement sûre, du spectre optique des collisions de galaxies.
- Or, la collision que vient de photographier Rudolph Min-kowski dépasse d’environ 10 fois la distance de Cygnus A. La difficulté d’une telle performance provient de la nécessité de faire coïncider aux grandes distances les localisations optiques et radiométriques. C’est ce qui a rendu très rares jusqu’à présent les découvertes de collisions de galaxies. Heureusement, les nouveaux radiotélescopes de Cambridge et d’Owens-Valley (Californie) ont pu préciser la région du ciel d’où provenait l’émission. Tl y a une dizaine d’années déjà que les radioastro-nomes de l’Université de Cambridge avaient découvert une radio-source faible dans la constellation du Rouvier. Mais sa localisation était imprécise par suite du faible pouvoir de résolution des appareils utilisés à l’époque. Minkowski avait bien
- recherché, avec le grand télescope de 5 m du Mont Palomar, un objet optiquement décelable qui correspondît à la source du Rouvier. Cependant il n’avait rien découvert. Une fois de plus l’émission radio paraissait surgir du vide.
- Il faut bien comprendre que le champ du grand réflecteur de 5 m est extrêmement étroit. Il existe bien des télescopes de Schmidt à champ étendu, mais leur diamètre est en même temps plus réduit. Celui qui est utilisé à Palomar ne pénètre pas assez profondément dans l’espace avec son miroir de 1,20 m. D’autre part, les temps de pose doivent être très longs pour que les objets les plus éloignés impressionnent les plaques photographiques. Il ne saurait donc être question de braquer le télescope de 5 m au hasard : pour espérer faire une découverte, il faut commencer par savoir où l’on doit chercher. C’est aux radiotélescopes de le dire, pourvu qu’ils disposent d’un pouvoir de résolution suffisant et que la source observée soit assez puissante pour faire parvenir à la Terre un rayonnement appréciable. Cette dernière condition est heureusement remplie par les collisions de galaxies qui rayonnent fortement dans le domaine hertzien. L’émission d’ondes métriques de Cygnus A, par exemple, est d’une intensité égale à celle de son émission lumineuse.
- Une localisation plus précise de la radio-source du Bouvier a finalement permis à Minkowski de pointer plus efficacement le réflecteur de 5 m. Après 2 h de pose photographique, il a pu obtenir l’image minuscule de deux galaxies en collision; mais 9 h de pose ont été nécessaires pour en définir le spectre global. Le déplacement considérable de ce spectre vers le rouge indique une vitesse de récession de i45 000 km/s, soit près de la moitié de la vitesse de la lumière. Le record de vitesse de 120 000 km/s, détenu jusqu’à présent par les observations de Baum, se trouve très largement battu. Du reste, cela donne à penser que les galaxies en collision de la constellation du Bouvier doivent avoir une très grande luminosité pour que leur spectre soit encore observable. D’après la valeur actuellement admise de la constante de Hubble, la vitesse de i45 000 km/s,' indiquée par le déplacement global du spectre des deux galaxies découvertes par Minkowski, correspond à l’énorme distance de 6,5 milliards d’années-lumière.
- A 12 milliards d’années-lumière verra-t-on les débuts de l’Univers ?
- Nous pénétrons là un passé antérieur à la naissance du globe terrestre et même probablement du Soleil. On peut donc imaginer que les galaxies du Bouvier ont continué depuis 6 milliards d’années à accélérer leur mouvement et ont atteint maintenant une vitesse proche de celle de la lumière. Le rayonnement qu’elles émettent en ce moment même ne pourrait plus jamais parvenir à la Terre. Mais sans doute la notion de simultanéité que nous venons d’indiquer n’a guère de sens quand on considère l’ensemble de l’Univers. Nous rie pouvons légitimement parler de présent à propos de galaxies dont aucun signal instantané n’est susceptible de nous parvenir. Demandons-nous plutôt ce que nous pourrions voir si la puissance des télescopes nous permettait de plonger dans le passé jusqu’à l’époque que l’on peut assigner aux débuts de l’expansion, dans l’hypothèse de 1’ « atome primitif ».
- De nombreux cosmologistes, de Lemaître à Gamow, ont
- p.420 - vue 423/558
-
-
-
- Fig. 1. — La radio-source de Cygnus A.
- C’est la plus puissante des sources radioélectriques extragalactiques et la première qui ait été décelée. En pointant dans la direction de l’émission radio le télescope de 5 m du Mont Palomar, Baade et Minkowski (1954) ont pu en obtenir des photographies. On voit deux galaxies en collision, déformées sous l’effet des forces de gravitation.
- (Photo des Observatoires des Monts Wilson et Palomar).
- pensé que l’Univers était né de la gigantesque explosion d’une sorte d’atome primitif (isotope du neutron, a-t-on dit plaisamment, puisqu’on n’a aucune raison de croire que les charges positives et négatives de l’Univers ne se compensent pas') ; les galaxies en fuite seraient les débris de ce monstrueux atome.
- Dans cette hypothèse, en se basant d’une part sur l’espacement moyen des amas de galaxies voisins, d’autre part sur la constante de récession actuellement admise, on peut calculer que toutes les galaxies étaient réunies en un bloc, un univers hyperdense,
- 11 y a une douzaine de milliards d’années.
- La collision de galaxies découverte par Minkowski nous mène déjà à plus de 6 milliards d’années-lumière. Si l’on pouvait doubler la portée du grand télescope de Palomar et atteindre les
- 12 milliards, on se demande alors ce que nous verrions. Les avis sont très partagés sur ce point.
- Apercevrions-nous dans le passé le centre d’expansion P Cette hypothèse aboutit à d’évidentes contradictions dans un espace plan, euclidien, où la lumière émanée du centre suit une direction parallèle au mouvement d’expansion radiale des galaxies. La lumière dépasse les galaxies en marche tandis que l’Univers en expansion prend la forme d’un halo entourant un centre où plus rien ne subsiste.
- Mais il ne faut pas oublier que la plupart des modèles d’univers font appel à une courbure de l’espace qui est liée au champ de gravitation en Relativité générale. Ces modèles sont basés sur des géométries hvperdimensionnelles à courbure positive (Riemann) ou négative (Lobachevsky). Les modèles à courbure négative, hyperbolique, donnent lieu à des situations voisines de celles qui sont rencontrées dans un espace euclidien. On peut cependant imaginer, comme le fait Gamow, qu’il n’y a pas de centre ponctuel et que l’expansion se fait à partir d’un état de densité qui s’étend à l’infini. 11 n’est pas contradictoire, théoriquement, qu’un univers infini et uniformément dense entre néanmoins en expansion. Une autre hypothèse serait d’ailleurs à envisager : il existerait un centre permanent qui équivaudrait à une source de matière émanant d’un « sous-espace ».
- Mais de telles considérations ne sont guère satisfaisantes pour l’esprit et à ce compte la théorie de Hoyle reste plus
- vraisemblable. On sait que cette théorie admet un état de densité stable de l’Univers où l’expansion est toujours exactement compensée par la naissance de nouvelles galaxies qui viennent combler les vides de l’espace. L’Univers de Hoyle est infini et. ne comporte naturellement pas de centre.
- C’est dans le domaine des modèles d’univers fermés à courbure positive, analogues à la « surface » d’une sphère, qu’il est théoriquement possible d’atteindre dans le passé une région de densité maximale. La notion de centre d’expansion reste cependant ambiguë, car une surface courbe fermée ne comporte pas de centre. Paris n’occupe pas une position plus centrale que New York par rapport à l’ensemble des continents terrestres. Dans un univers fermé, construit à la surface d’une hypersphère, l’espace à 3 dimensions où baignent les galaxies est courbé dans une 4e dimension, exactement comme la surface à 2 dimensions d’une sphère est courbée dans une 3e. Il en résulte qu’un tel univers est fini quoique sans limites et qu’aucune galaxie n’est centrale.
- Cependant, comme la lumière s’enroule autour de l’espace fermé, nous pouvons théoriquement apercevoir notre propre
- p.421 - vue 424/558
-
-
-
- galaxie dans un passé correspondant au temps que met la lumière à faire un tour d’univers. D’ailleurs, à mesure qu’on s*enfonce dans le passé, la lumière met de moins en moins de temps à circuler autour d’un espace dont le degré d’expansion est moindre et le rayon de courbure plus petit. La surface de l’hypersphère se réduit jusqu’à un minimum et la matière qui y est répandue atteint une densité moyenne p maximum. Einstein avait du reste comparé son modèle d’univers à un ballon de caoutchouc sur lequel sont peintes les galaxies. Quand on gonfle le ballon les galaxies s’écartent les unes des autres; mais si on le dégonfle elles en" viennent à se toucher.
- D’autre part, dans un univers hypersphérique, les rayonné-^ mcnls partis d’une région de plus grande densité, c’est-à-dire d’une époque où le rayon de l’hypersphère était moindre, doivent en pi'incipe nous parvenir de tous les côtés en suivant la courbure de l’espace. Une telle région dense n’apparaîtrait alors que comme un fond lumineux peu intense, également distribué sur toute#; la sphère céleste ; dans le rayonnement hertzien nous atteindrions un continuum de brillance finie. C’est ainsi, par exemple, qu’un observateur situé sur la Terre, au pôle Nord, apercevrait le pôle Sud dans toutes les directions, suivant tous les méridiens, en admettant bien entendu
- que la lumière ait pour particularité de suivre la courbure du globe terrestre.
- Il semble malheureusement que la dimension et la vitesse d’expansion de l’Univers actuel aboutissent à l’extinction de tous les rayonnements trop lointains. Les spectres lumineux deviennent inobservables, quoiqu’on puisse encore envisager la possibilité de les déceler sur les plus grandes longueurs d’onde où ils se trouvent transposés par effet Doppler. Mais il ne saurait de toute façon être question d’atteindre des objets dont la vitesse de récession approche de celle de la lumière. Nous pouvons «encore, cependant, apercevoir des galaxies qui ont franchi depuis longtemps l’horizon observable, du moment que' leur lumière a pris le départ quand leurs vitesses étaient moindres. Des trains de photons, déjà dépourvus de continuité; avec leur source, sont de toutes parts en route pour nous parvenir. Nous avons ainsi des chances de recevoir les signaux lumineux d’une époque où les galaxies étaient plus serrées, mais Jd /semble que nous n’en ayons aucune de parvenir dans l’espace hypersphérique jusqu’au lieu de la plus haute densité. Avant d’avoir achevé son voyage autour du Cosmos, la lumière originelle s’est éteinte.
- Jacques Fouchet.
- La turbine à gaz passe de l’avion à l’automobile
- Lorsqu’on parle de turbomachines, on pense immédiatement aux turboréacteurs de poussée élevée ou aux turbopropul-seurs qui équipent les avions à réaction les plus modernes. Cependant, il existe une gamme beaucoup plus modeste de turbomachines dont les applications sont très nombreuses et dont la société française Turboméca est, comme nous le verrons plus loin, le spécialiste incontesté. Outre l’utilisation pour la propulsion d’avions légers ou d’hélicoptères, de telles machines commencent à se faire une place dans l’industrie de l’automobile.
- Contrairement aux propulseurs de grande puissance qui sont tous construits autour d’un cOpapresseur axial, les petites turbomachines utilisent des compresseurs centrifuges; en effet, le compresseur axial voit son rendement baisser pour les faibles débits. Toutefois, certains réacteurs Turboméca associent un étage centrifuge à un étage axial supersonique, ce qui a permis d’atteindre des taux de compression de 5.
- Sous l’impulsion de son directeur technique, Joseph Szydlow-sky, la Société Turboméca a réalisé une trentaine de petits propulseurs dont les performances s’étagent de ioo à i 200 kg de poussée pour les turboréacteurs et de 4oo à 1 000 ch de puissance pour les turbopropulseurs ; ils sont actuellement construits sous licence dans quatre pays différents : Etats-Unis, Grande-Bretagne, Yougoslavie, Espagne.
- Parmi les avions légers ainsi équipés, on peut citer l’avion d’entraînement Fouga « Magister », utilisé dans le cadre de l’O.T.A.N. pour la formation des pilotes de chasse.
- Mais c’est surtout dans les applications au vol vertical que les qualités des petites turbines à gaz sont le mieux mises en évidence. Leur poids spécifique particulièrement faible les prédispose à la propulsion des hélicoptères. Il est impossible d’énumérer tous les appareils réalisés suivant ces principes. Citons, en France, l’Alouette II, équipée d’une turbine libre Artouste II de 35o ch, et la Super-Alouette, premier hélicoptère lourd de transport français, équipée de trois turbines libres Turmo III de 750 ch.
- Pour les avions qui utilisent la portance par réaction pour compléter la portance de la voilure au moment du décollage ou de l’atterrissage, on a la possibilité de décomposer la poussée totale en plusieurs parties, et d’utiliser certains moteurs à la fois pour fournir la portance et la poussée vers l’avant. C’est ainsi que la firme américaine Bell réalise un prototype qui sera équipé de huit réacteurs basculants de 900 kg de poussée chacun, groupés deux par deux à chaque extrémité de la voilure, au milieu et à la queue du fuselage.
- Enfin, les petits turboréacteurs sont parfois utilisés comme propulseurs d’appoint sur les avions lourdement chargés; c’est le cas du cargo Nord 25o2 équipé de deux Marboré en bouts d’aile, qui lui fournissent un supplément de 4oo kg de poussée.
- m
- # *
- La première application de la turbine à l’automobile remonte à 1950, avec la voiture anglaise Rover sur laquelle avait été montée une turbine de 120 ch et qui atteignit 200 km/h. Depuis, plusieurs sociétés se sont intéressées à la question et ont réalisé divers prototypes. Aux États-Unis, General Motors a construit successivement les « Firebird » I, II et III,'dont la dernière possède une turbine de 225 ch. En France, la Régie Renault a réalisé une voiture expérimentale, 1’ « Etoile filante » (fig. 1), propulsée par une turbine à gaz Turboméca « Turmo I » de 270 ch, qui tourne à 28 000 tours/mn. Cette voiture, profilée aérodvnamiquement, possède deux dérives verticales arrière qui servent à accroître sa stabilité de route. Elle a atteint la vitesse de 807 km/h.
- Quelles sont les raisons qui militent en faveur du remplacement du moteur à piston par la turbine à gaz dans l’automobile P En premier lieu, il faut citer la réduction du nombre de pièces en mouvement qui se limitent au compresseur, aux turbines et aux arbres de transmission. Les turbines à gaz utilisées ici seront en effet du type à turbine libre, c’est-à-dire
- p.422 - vue 425/558
-
-
-
- 423
- Fis. 1. — L’ « Étoile filante », voiture expérimentale de la Régie Renault, à turbine Turboméca.
- Réservoir caoutchouc type Aviation
- Filtre à combustible
- Suspension AV. de turbine
- Echappement
- Dynamo tachymétrique
- Réservoir Kérozène
- Fusée articulée sur rotules à billes Barre de torsion Cardan de commande de frein (frein à disque suspendu) Disque de frein
- Barre de direction
- que la turbine est en deux éléments, l’un entraînant le compresseur, et l’autre l’essieu des roues motrices. En outre, ces mouvements sont des mouvements de rotation et non des mouvements alternatifs comme dans le moteur à piston. Tout cela se traduit par une usure plus faible et des vibrations pratiquement inexistantes, même aux plus fortes vitesses de rotation du moteur.
- Autre avantage : quelle que soit la vitesse de la voiture, le couple développé par la turbine à gaz peut être réglé sur le couple résistant en restant en prise directe, ce qui signifie la disparition des trains d’engrenages complexes et du changement de vitesse.
- On peut alors se demander pourquoi la turbine ne s’est pas encore imposée définitivement. C’est qu’aux avantages précédents s’opposent quelques inconvénients graves auxquels les techniciens sont en train de remédier. Le premier est le bruit dû aux gaz d’échappement, sorte de sifflement de fréquence élevée, de même nature que celui que peut faire un avion à réaction, et qui est particulièrement inadmissible pour des véhicules qui ont à circuler en ville; des silencieux efficaces sont en cours de mise au point. En outre, la consommation de combustible de ces petites turbines à gaz est encore assez élevée par rapport à celle des moteurs à explosion. L’expérience des turbomachines de puissance élevée a montré que cette consommation pouvait être réduite en augmentant la température admissible pour les gaz à l’entrée de la turbine, mais il faut alors employer pour les ailettes de turbine des matériaux réfractaires qui coûtent cher, et il est probable que l’industrie automobile se ralliera plutôt à une seconde méthode, consistant à monter à la sortie de la turbine un échangeur de chaleur qui récupérerait l’énergie thermique restant dans les gaz chauds. Un tel échangeur augmente évidemment le poids total, mais l’avantage que l’on en retire au point de vue de la consommation reste prépondérant. Le dernier modèle construit par Ford a adopté ce principe et la consommation spécifique est tombée au niveau de celle des moteurs à pistons.
- Déjà, aux Etats-Unis, la turbine à gaz est entrée dans la pratique sur les poids lourds de gros tonnage. Citons, en particulier, le tracteur Kennworth de 3o tonnes de poids total qui est équipé d’une turbine Boeing de 195 ch pesant seulement 90 kg;
- un moteur à pistons rendant les mêmes services pèserait près de dix fois plus. En Angleterre, un camion-incendie construit en série est équipé d’un générateur d’air comprimé Turboméca « Palouste » fabriqué sous licence.
- Enfin, dans le domaine de la voiture ultra-rapide, il faut ajouter que Donald Campbell Jr, fils de l’ancien pilote de record, a essayé de reprendre le record de vitesse sur automobile qui appartient depuis 1947 à John Cobb, avec 635 km/h, grâce à une voiture à turbine. Celle-ci, dérivée du turbopropul-seur d’aviation Bristol « Proteus », développe 4 000 ch, soit plus de 1 ch par kilogramme de poids du véhicule. La turbine est directement accouplée aux quatre roues qui sont donc toutes motrices. Lors des essais qui ont eu lieu en septembre sur le fond desséché du Grand Lac Salé aux États-Unis, Donald Campbell a fait une série de tonneaux à 48o km/h, détruisant pratiquement complètement son véhicule. On ignore encore si une nouvelle machine sera mise en fabrication.
- Jacques Spincourt.
- Mobot Mark I, robot polyvalent
- Selon une information du Centre culturel américain, la Hughes Aircraft Cy, de Culver City (Californie), vient de construire un robot aux performances exceptionnelles, spécialement mis au point pour une société atomique du Nouveau-Mexique, où il travaillera dans les « zones chaudes » des installations nucléaires.
- L’appareil, appelé Mobot Mark I, malgré son poids de 2 oOO kg, est d’une grande mobilité. Il a deux yeux, représentés par deux caméras de télévision, et des oreilles sous forme de microphones. Il peut répondre à cent ordres différents, transmis par un câble de 60 m de long. L’opérateur qui le commande utilise deux récepteurs de télévision, un pour chaque œil du robot. Les bras d’acier sont flexibles et mesurent 90 cm de long. Chacun d’eux peut soulever 68 kg et manipuler des objets trop chauds ou trop fortement radioactifs pour qu’un homme puisse les toucher. S’il s’acquitte de travaux de force, le Mark I est également capable de se livrer aux opérations les plus délicates, comme le fraisage d’une dent.
- On peut l’employer pour le sauvetage de sinistrés en cas d’incendie ou d’explosion de gaz. Il pourrait aussi, dit-on, être utilisé pour des explorations sur la Lune, quand le temps en sera venu...
- p.423 - vue 426/558
-
-
-
- 424
- L'étude scientifique du mouton, élément de prospérité pour l'Australie
- De plus en plus rares sont les industries où la matière première est fournie non par un obscur gîte minéral, mais par les représentants d’une espèce animale, haut située dans l’échelle des êtres vivants. Tel est le cas de l’industrie de la laine, considérée non pas tant au stade de la. filature et du tissage, qu’à celui du mouton. Ce mammifère et sa toison, quelque peu délaissés en Europe, sont l’objet de toute la sollicitude de la nation australienne qui entretient un troupeau ovin de i3o millions de têtes et où la laine représente près de 1a. moitié des exportations.
- Alors que, pour le troupeau mondial, le poids moyen des toisons ne dépasse guère 2,5 kg, les moutons australiens portent plus de 4,5 kg de laine et l’on signale même, en Nouvelles-Galles du Sud, une station d’élevage où le poids de la toison excède 5,5 kg.
- A ces résultats ont concouru les efforts de tous les éleveurs, puissamment aidés par les organismes officiels. Il ne se passe pas d’année sans que de nouveaux procédés d’élevage et de traitement soient expérimentés. Quelques-uns, qui ont fait l’objet d’entrefilets dans cette revue, seront brièvement rappelés. Nous ferons plus de place à quelques informations récentes.
- Doit-on, par exemple, selon la méthode classique, laisser paître les moutons sur de larges espaces P Un éleveur australien
- Fig. 1. — Le laboratoire où sont enregistrés les messages transmis par le mouton radio-émetteur (Voir la photo de la couverture).
- en a jugé autrement et concentre i ooo animaux sur seulement 4 ha où ils reçoivent quotidiennement une ration de luzerne.
- Plus curieuses sont les méthodes nouvelles qui sont appliquées pour accélérer et standardiser la tonte des moutons. Des essais ont été faits pour remplacer la tonte proprement dite par une sorte d’épilage, pratiqué sous anesthésie : les fibres de laine sont rompues au niveau de l’épiderme et la récolte en serait, déclare-t-on, considérablement simplifiée.
- On signale également un centre où les animaux sont tondus à la chaîne : une table transporteuse rotative présente successivement le même mouton à quatre ouvriers tondeurs qui opèrent chacun sur une partie déterminée de leur patient. La table porte toujours un mouton prêt à être « rafraîchi ». Quant à celui qui vient d’être dénudé sur toutes ses faces, un mécanisme spécial le bascule sur un toboggan qui l’évacue avec toute la célérité désirable.
- Dans un tout auti’e ordre d’idées, les éleveurs ont dû se préoccuper des maladies de carence dont peuvent souffrir les moutons. L’oligoélément qui paraît leur faire le plus souvent défaut est le cobalt. On remédie en général à de telles insuffisances en faisant sur le sol un épandage de sels minéraux. Dans le cas des vastes espaces où paissent les moutons australiens, ce procédé serait d’un très mauvais rendement. Il ne serait
- p.424 - vue 427/558
-
-
-
- Fig. 2. — Vue de l’appareil qui mesure les différents métabolismes de l’agneau nouveau-né.
- guère plus facile de remédier à la carence en « administrant » périodiquement le cobalt aux moutons, à des doses homéopathiques. C’est pourquoi on a tenté de pourvoir chaque animal d’une réserve de cobalt, apte à lui servir tout au long de sa vie : le procédé consiste en une boulette de kaolin où sont dispersées les parcelles de cobalt et qui, une fois avalée, se loge dans la panse du mouton. Le silicate d’alumine résiste aux sucs digestifs et ne s’use que très lentement. Ainsi le sel minéral ne passe que progressivement dans l’organisme.
- Actuellement l’Australie, grâce surtout aux efforts déployés pendant les trente dernières années, a dominé les principales maladies qui risquaient de décimer son cheptel. Elle a, en outre, apporté de grands perfectionnements à la fertilité des pâturages. Elle espère aboutir enfin à l’éradication du lapin, redoutable concurrent du mouton.
- Les problèmes auxquels il lui faut s’attaquer maintenant concernent la physiologie du mouton en bonne santé, c’est-à-dire les facteurs qui régissent sa productivité.
- Mentionnons parmi ces facteurs : le développement naturel de la toison, la. fécondité des brebis, le pouvoir d’adaptation de l’espèce à différents environnements. En acquérir une connaissance plus approfondie est l’objectif qui a été assigné à un nouveau laboratoire, installé à une trentaine de kilomètres de Sydney, sous le nom de Sheep Biology Laboratory. Ses travaux, espère-t-on, vont permettre en premier lieu d’améliorer le fonctionnement de cette petite usine transformatrice (le mouton) qui absorbe des végétaux cellulosiques et restitue cette précieuse fibre protéinique qu’est la laine. Collectivement, d’autre part, on compte obtenir un accroissement spectaculaire de la population ovine.
- Le laboratoire a été doté des équipements les plus modernes : chauffage à la vapeur, air conditionné, élévateurs hydrauliques, bloc opératoire. Voici quelles sont ses principales divisions :
- Tout d’abord le pacage en plein air, composé de vastes enclos où vit en liberté un mouton qui, nous allons le voir, a été investi d’une véritable mission de confiance. Sur son dos est fixée une antenne, reliée à un minuscule émetteur radio qui lui-même est en connexion avec un appareil étroitement adapté à la mâchoire inférieure (voir la figure de la couverture de cette revue). Ce dispositif a pour but de « radiodiffuser » tous les comportements du mouton en train de paître : Combien de temps consacre-t-il à absorber de la nourriture ? A quels moments arrache-t-il l’herbe ? Quelles sont ses périodes de rumination P Quels sont ses temps de repos P
- Ces informations sont enregistrées, à l’intérieur du laboratoire, grâce à un récepteur radio (fig. i). Elles se gravent automatiquement sur une bande, apportant une documentation de premier ordre sur les habitudes alimentaires de l’animal. Il est aisé de concevoir que cette méthode est plus réaliste qu’une observation directe dans un local fermé, où nécessairement le mouton se comporte de manière moins normale.
- Une deuxième division, celle des salles climatisées, rappelle les installations qui existent dans les phytotrons de Pasadena et de Gif-sur-Yvette. Le mouton en effet, comme les végétaux dans les phytotrons, y est soumis à une série de climats artificiellement reproduits. Les Australiens en effet désirent conduire à bon escient l’élevage du mouton sur toute l’étendue de leur continent : or, il existe des zones, surtout dans le Nord et l’Ouest, où les températures tropicales ont une influence défavorable sur la l'eproduction et l’élevage des bêtes. En d’autres
- p.425 - vue 428/558
-
-
-
- 426
- Fig. 3. — Mouton et agneau, porteurs d’une tonsure quadrângulaire, permettant d’étudier la croissance de la laine.
- zones, au sud du continent, le froid, le vent et la pluie déterminent une forte mortalité parmi les agneaux nouveau-nés.
- Les réactions physiologiques des différentes races de moutons à ces climats extrêmes et à toute une gamme de climats intermédiaires sont étudiées grâce aux salles climatisées dont la température peut varier entre — 70 et + 5o° C et où toutes les intempéries, de même que la succession des jours et des nuits, sont exactement simulées.
- La troisième division se situe principalement dans un gigantesque hall qui peut abriter jusqu’à trois cents moutons et où chaque animal possède son enclos individuel. Les études les plus variées y sont poursuivies. A la naissance d’un agneau, par exemple (fig. 2), après avoir pris sa température (qui démontre ses plus ou moins grandes chances de survivre), on mesure, dans un appareil spécial, ses différents métabolismes.
- Aussi bien sur les jeunes que sur les adultes, on évalue de manière très stricte les rations minimales de nourriture et d’eau qui permettent à l’animal de se développer et de se maintenir en bonnes conditions physiques. La composition du fourrage est, bien entendu, étudiée et l’on s’attache, pour un dosage déterminé, à en constater les effets physiologiques, y compris la production de laine. Des stimulations hormonales ou chimiques complètent souvent le régime alimentaire et leurs effets sont également notés.
- Un certain nombre .de moutons sont spécialisés dans l'étude approfondie de la formation de la laine. Dès leur naissance, une tonsure carrée (tig. 3), encadrée de lignes tatouées sur leur peau, est pratiquée. Et c’est sur cette partie dénudée que l’on examinera par la suite le développement des follicules de laine et la croissance de la toison.
- Mais en dehors de ces constatations faites in vivo, la laine est encore étudiée dans une quatrième division où sont pratiquées les analyses de toisons. Les échantillons parvenus de tous les élevages du continent font l’objet de mesures très précises telles que diamètre des fibres, nombre des enroulements par unité de longueur.
- Un nouveau sujet d’études s’est offert récemment au laboratoire : c’est celui des anomalies de la toison. Quelques moutons, fort rares d’ailleurs (un individu environ sur un million), présentent une structure « en mosaïque » où une partie de la laine est normale, l’autre étant faite de fibres non bouclées, à la fois soyeuses et de couleur dorée. De tels spécimens sont considérés par les chercheurs comme ayant une valeur expérimentale toute particulière. La perspective d’une souche de moutons à fourrure lustrée serait notamment fort intéressante, car ces ovins seraient dès lors capables de rivaliser avec les chèvres qui portent la laine mohair.
- Nul doute en tout cas que ces différentes contributions scientifiques puissent ajouter à la prospérité déjà grande de l’industrie australienne du mouton.
- G. C.
- Les photos qui illustrent cet article nous ont été aimablement communiquées par 1’A.mbassade d’Australie.
- Forages ultra-profonds et énergie géothermique en Sibérie
- Le quotidien soviétique Pravda a annoncé récemment qu’il a été procédé à la création, en Sibérie, d’un Institut pour l’exploration de l’écorce terrestre aux grandes profondeurs. La tâche de cet Institut sera d’élaborer une technique de forage à des profondeurs de 20 à 5o km et même au delà, et d’étudier la possibilité d’exploiter les sources d’énergie souterraine, c’est-à-dire les énormes réserves d’eau chaude que doit recéler le sous-sol. Selon les spécialistes, les premiers forages doivent être pratiqués dans les basses contrées de la Sibérie occidentale et dans la région des volcans en activité du Kamtchatka. O11 suppose, en effet, que le sous-sol de cette partie de la Sibérie occidentale renferme une véritable « mer chaude », dont la superficie pourrait atteindre plusieurs millions de km2. Quant à la région des volcans du Kamtchatka, elle est particulièrement riche en geysers. Dans cette région, les travaux ont déjà commencé. Des centaines de géologues et d’autres spécialistes étu-
- dient, sur place, les moyens d’exploiter ces sources d’énergie géothermique. Six forages y ont déjà été pratiqués. Chacun de ces six trous de forage fournit, sans interruption et sous une pression de i,3 atm, de 3o à 35 m3 d’eau chaude par seconde. La température du mélange d’eau et de vapeur jaillissant du sous-sol atteint de 1O00 à 170° C. Un projet est actuellement à l’étude, en U.R.S.S., pour l'installation d’une centrale électrique alimentée par l’énergie thermique souterraine. Une autre centrale est prévue dans la région de la ville de Pétropavlovsk, non loin du volcan Avalchinsk. On escompte que l’énergie souterraine permettra de couvrir les besoins de toute la population de la presqu’île du Kamtchatka, tant en éclairage et en chauffage qu’en énergie industrielle (sur l’exploitation actuelle de l’énergie géothermique, notamment en Italie et en Nouvelle-Zélande, voir La Nature, août 1909, p. 356-362).
- C. M.
- p.426 - vue 429/558
-
-
-
- Identification des spermatozoïdes X et Y au contraste de phase
- Il existe, parmi les a3 paires de chromosomes humains, une paire qui est en relations directes avec les caractères sexuels. Alors que chacune des 22 autres paires comprend deux chromosomes semblables et de mêmes dimensions, les chromosomes sexuels sont de deux sortes, de formes et de dimensions très différentes, ce qui leur vaut le nom d'hétérochromosomes. Le plus petit, baptisé chromosome Y, porte les caractères mâles; le plus grand, ou chromosome X, porte les caractères femelles. Tandis que la femme, comme toutes les femelles de Mammifères, contient dans toutes ses cellules deux chromosomes X, les cellules de l’homme sont porteuses d’une paire XY. Il en résulte que l’ovule porte toujours un chromosome X, alors que les spermatozoïdes sont de deux sortes, les uns portant un chromosome X, les autres un chromosome Y. Si donc l’ovule est fécondé par un spermatozoïde X, l’œuf, qui réunira deux chromosomes X, donnera une fille; si la fécondation a lieu par un spermatozoïde Y, l’œuf sera de constitution XY et donnera un garçon.
- Le sexe du futur enfant dépendant en fin de compte de la nature du spermatozoïde, on s’est demandé depuis longtemps s’il ne serait pas possible de séparer les deux sortes de spermatozoïdes pour obtenir à volonté un enfant du sexe désiré. On a pensé notamment à séparer les deux types par centrifugation, dans l’idée que les Y devaient être plus légers que les X parce que porteurs d’un chromosome plus petit. Cette plus grande légèreté des chromosomes Y semblait corroborée par le fait qu’il naît io5 garçons pour 100 filles, et que cette différence est sans doute plus grande encore à la conception. On peut, en effet, imaginer que les spermatozoïdes Y sont plus agiles que les X par suite de leur moindre poids et ont par conséquent plus de chances de parvenir les premiers à l’ovule. Mais les procédés de centrifugation ne semblent pas avoir donné de résultats convaincants et d’ailleurs ils pourraient ne pas être sans danger. Quoi qu’il en soit, même en expérimentant sur l’animal, il ne semble pas qu’on ail réussi à ce sujet des opérations concluantes.
- Un pas important vient d’être accompli par le professeur Landrum B. Shettles, du Collège de médecine et chirurgie de l’Université Columbia (New York), qui semble avoir découvert an moyen, sinon de séparer, du moins de distinguer les spermatozoïdes X et Y (Nature, Londres, 21 mai 1960).
- Le professeur Shettles fait sécher une mince couche de sperme sur une plaque de verre et l’examine au microscope à contraste de phase, qui fait apparaître des détails brillants sur fond noir. Il constate que les têtes de spermatozoïdes se classent en deux populations distinctes. Les 'uns, dont la tête est relativement petite, contiennent une masse arrondie, logée au centre, la
- Fig. 1. — Têtes de spermatozoïdes humains photographiés au contraste de phase.
- A. gauche, une tête ronde présumée porteuse du chromosome Y ; à droite, une tête elliptique qui porterait un chromosome X.
- (Photos aimablement communiquées par le professeur Landrum B. Shettles).
- matière du noyau paraissant disposée selon des cercles concentriques (fig. 1, à gauche). Dans les autres, à plus grosse tête, le matériel nucléaire présente une forme elliptique ou ovoïde (fig. 1, à droite); il est moins compact, ce qui permet d’y distinguer plus de détails.
- Il ne se présente aucune forme intermédiaire entre les spermatozoïdes des deux types, et chaque type a des caractéristiques remarquablement constantes dans un même spécimen de sperme. Cependant, les dimensions des têtes sont variables d’un donneur à l’autre, pouvant aller du simple au double. Il y a une prépondérance des petites têtes dans tous les spécimens, mais selon un taux qui jusqu’ici paraît variable.
- D’après les observations du professeur Shettles, il semble que le chromosome sexuel se situe au centre du noyau, et il croit pouvoir assurer que les petites têtes contiennent le chromosome Y, les grandes le chromosome X. On voit alors que le nombre plus élevé des garçons à la naissance ne serait pas dû à une plus grande agilité des chromosomes Y mais à leur prépondérance dans le sperme. En tout cas, le taux de migration des deux types peut maintenant être étudié facilement, et cette étude est en cours. M. Shettles ajoute que l’on pourra contrôler l’efficacité des tentatives faites pour séparer les spermatozoïdes à chromosomes X et Y.
- R. A.
- Fleurs de genêt contre venin de serpent
- Un article du doyen Léon Binet dans la revue Biologie médicale (mars-avril i960) appelait l’attention sur une curieuse observation faite par les bergers du Cantal. Les moutons, déclarent ces derniers, sont moins sensibles aux morsures des vipères lorsqu’ils paissent des pâturages riches en genêts.
- Cette observation a donné lieu à une série d’expériences, dues à G. Billard, puis au professeur Binet. Sachant que le genêt a une forte teneur en spartéine, G. Billard avait mélangé in vitro du sulfate de spartéine au venin de vipère : la toxicité du venin s’en était trouvée fortement atténuée. Dans ses expériences, M. Binet a utilisé du venin de cobra, dont la dose létale pour
- les rats, animaux d’expérience, est de o,35 mg par kilogramme. Une forte proportion de survie a été obtenue, lorsque le venin avait été mélangé à 75 mg et mieux encore à 100 mg de spartéine. Des résultats analogues ont été enregistrés en réalisant un mélange où la spartéine était remplacée par une dose, nettement plus importante, de fleurs de genêts, desséchées et pulvérisées. Les rats ont survécu après injection d’une dose de venin atteignant une fois et demie la dose habituellement mortelle. Les effets du mélange fait in vivo sont moins nets : l’injection simultanée de spartéine et de venin ne semble diminuer en rien la virulence de ce dernier. G. C.
- p.427 - vue 430/558
-
-
-
- 428
- 2
- Une
- La
- population primitive à Madagascar :
- LES ANTANDROY
- vie économique — Les migrations
- La. plupart des Antandroy sont pasteurs et agriculteurs (q3 pour ioo) et on ne peut donc guère parler de répartition professionnelle. La proportion des artisans est très faible : o,4 pour ioo; ce sont notamment des forgerons fabricants d’angady (sorte de bêche légère), ou encore des bijoutiers qui fondent les anciennes pièces de monnaie d’argent pour en faire des bracelets. Il y a dans les centres administratifs quelques ouvriers salariés et quelques domestiques dont l’âge ne dépasse guère !\o ans en moyenne.
- La société antandroy a ses trouvères, ses chanteurs, ses musiciens et ses danseurs ; ils se déplacent de village en village au cours de l’année et ils reçoivent des cadeaux en argent et en nature que l’un d’eux évaluait à i ooo francs C.F.A (2) par village; parfois, ils sont appelés pour un malade. Chanteurs et trouvères ont l’improvisation facile et ils peuvent être intarissables sur un sujet. Les danseurs sont aussi mimes et ils se produisent surtout dans les foires.
- Les guérisseurs, les devins, les astrologues, qu’on désigne sous le nom d’ « ombiasy » (ou sorcier) (fig. 3), ainsi que les « pisoro », c’est-à-dire les prêtres qui offrent le sacrifice à l’hazomanga (autel simplifié auquel on attache la bête à sacrifier) représentent o,i pour ioo de la population masculine. L’âge moyen des ombiasy et des pisoro se situe entre 45 et 6o ans. L’initiation est en effet très longue et le futur ombiasy ou pisoro n’acquiert la maîtrise qu’avec les années; souvent il ne succède à celui qui l’a initié qu’à la mort de ce dernier Parmi les hommes, 4 pour ioo ont accompli leur service mili-
- 1. Voir : Une population primitive à Madagascar : les Antandroy ; 1. La vie au village ; Les bœufs. La Nature, septembre I960, p. 361-368.
- 2. Les francs dont il sera question dans cet article sont des francs C.F.A. (1 franc C.F.A. = 2 F ou 0,02 nouveau franc)
- taire; ce fait influe très légèrement sur la répartition professionnelle et entraîne une diminution des agriculteurs au profit d’autres professions : il n’est pas rare que les gardes de Madagascar ou les salariés qui relèvent de l’administration soient recrutés dans cette catégorie. En général, le service militaire leur a permis d’apprendre un métier ou leur en a donné le goût; aussi, en dehors de ceux qui travaillent pour l’administration, on peut compter i pour ioo d’artisans; quelques-uns travaillent comme chauffeurs chez des commerçants ou des transporteurs, d’autres sont domestiques. Mais la proportion en est très faible et il faut retenir que les quatre cinquièmes de ceux qui ont fait leur service militaire restent agriculteurs et pasteurs : ils retrouvent leur manière de vivre traditionnelle, tant sont forts les liens qui les rattachent à leur pays et à ses moeurs.
- La répartition de la population émigrée n’est pas très différente. Généralement, l’Antandroy qui émigre travaille dans les concessions agricoles et dans des entreprises où sa constitution robuste lui vaut la préférence pour des travaux qui demandent de l’endurance, à défaut d’aucune spécialisation. En Bas-Man-goky, on les trouve souvent métayers pour les Masikoro; parfois, comme à Amborovy, près de Majunga, ils forment un village de laitiers qui approvisionnent une clientèle de la ville; on les rencontre aussi comme casseurs de caillasse pour l’empierrement des routes, et parmi les tireurs de pousse des villes : ce dernier métier, qui le laisse sur les routes avec une certaine liberté, plaît à l’Antandroy habitué aux longues marches.
- On ne peut dire que les émigrés qui reviennent en Androy ont acquis une spécialisation professionnelle ; quelques-uns sont chauffeurs ou encore conducteurs de tracteurs, mais
- p.428 - vue 431/558
-
-
-
- Fig. 2. — Petite fille antandroy en costume de fête.
- l’Antandroy émigré reste fidèle à sa vocation de pasteur. L’émigration n’est qu’un moyen, soit de sortir de difficultés passagères, soit d’acquérir des bœufs avec l’argent gagné, et souvent ce mobile s’ajoute à tous les autres. Le retour au pays ne se conçoit qu’avec quelques bœufs acquis pendant l’absence et la place que l’émigré reprend dans la société est fonction de l’importance du troupeau qu’il a constitué.
- Les salariés ne représentent pas 5 pour ioo de la population autochtone. Dans l’effectif qui travaille pour l’administration sont compris non seulement les employés, mais aussi les travailleurs plus ou moins temporaires et de métiers très divers : gardien, maçon, charpentier, peintre, passeur de bac, chauffeur, travailleur sur route; dans ces métiers divers, on rencontre quelques Antandroy. Le reste des salariés est composé de domestiques, de quelques chauffeurs et manœuvres compris dans la rubrique « commerce et transport », ainsi que des ouvriers des concessions européennes qui sont pour la plupart des Antandroy.
- L’ouvrier travaille à la tâche et celle-ci représente environ •6 heures de travail, c’est-à-dire qu’en fait le salaire est à la journée mais avec la liberté pour l’ouvrier d’accomplir un travail déterminé au moment qui lui convient. L’Antandroy préfère travailler à la tâche parce qu’il sait et voit la quantité de travail à fournir et qu’il garde une certaine liberté dans la répartition de ses heures de travail. Dans les concessions de sisal, la tâche varie pour les coupeurs de i4o à 160 paquets de 30 feuilles par jour.
- Les salaires comportent souvent des avantages en nature : nourriture et logement. Dans les concessions européennes du Mandraré, les ouvriers ont un salaire de 4o à 55 francs C.F.A. par jour et une ration de nourriture : 8oo g à i kg de céréales et graines diverses (voanemba (3), maïs, riz) suivant les concessions. Chaque ouvrier a une case dans un des villages de la concession et un terrain de culture. Les bœufs sont tous parqués dans un endroit qui leur est réservé, avec un passage vers le Mandraré afin qu’ils puissent aller s’abreuver.
- Voici quelques exemples de salaires relevés pour quelques professions en ig55 : chauffeur, 4 ooo F par mois; maçon, 3 ooo F par mois; charpentier. 3 ooo F par mois; bourjane, 8o F par jour; travailleur sur route, 6o F par jour; ouvriers des concessions agricoles : coupeur, 45 F par jour; brosseur, 5o à 55 F par jour.
- En dehors des concessions de sisal du Mandraré qui couvrent 22 ooo ha et occupent une main-d’œuvre importante, des entreprises artisanales comme la Coopérative du mohair d’Ampanihv et la C.R.A.M. de Beloha occupent quelques centaines de tisserands à la confection de tapis de mohair et de laine.
- Commerce et communications. — Le commerce est surtout centralisé dans les agglomérations importantes : chefs-lieux de districts, postes administratifs. Les villages d’un mil-
- 3. Voir à la fin du premier article la description de quelques végétaux utilisés par les Antandroy.
- Fig. 3. — Sorcier antandroy ou « ombiasy », avec ses attributs.
- p.429 - vue 432/558
-
-
-
- 430
- Fig. 4. — Antandroy revenant de son champ.
- Il porte sur l’épaule son angady (sorte de bêche légère).
- lier d’habitants possèdent quelques boutiques et un marché. Un courant d’échanges s’établit, entre les gens de la brousse qui viennent vendre au marché les produits de leurs récoltes et achètent quelques objets usuels et denrées exceptionnelles, viande ou riz, ustensiles de ménage : marmite en fonte, bol, cuillère... Les hommes achètent parfois une angady (bêche légère), une hache ou encore un golazy (parasol bleu foncé) (4). Il arrive que les femmes se laissent tenter par un tissu de coton aux couleurs vives.
- Vingt-deux marchés hebdomadaires entretiennent en Androy une vie économique assez modeste, et même tout à fait réduite à la saison sèche. Le moment des récoltes, au contraire, suscite un certain mouvement car l’Antandroy achète aussitôt qu’il a vendu ses produits.
- Le marché est souvent au centre du village, sur une place ombragée. Les femmes attendent la clientèle, accroupies devant leurs marchandises : petites calebasses de lait caillé, petits tas de manioc, de patates, de tomates ou d’oranges dont le prix le plus courant est 5 ou io F. Les graines de voanemba et autres graines alimentaires sont vendues par kapoka (boîte de lait condensé vide qui sert de mesure). Quelques cages où sont les poulets voisinent avec des objets fabriqués : nattes, chapeaux tressés, soubiques (sacs ou boîtes tressés), ou encore des paquets de bois à brûler. Souvent un boucher débite de la viande sur un étal un peu à l’écart.
- Voici quelques prix qui avaient cours sur les marchés en 1955 : manioc et patates, 5 F le tas; antaka et ampemba (légumineuses), arachide, 5 F le tas; lait, 5 F le bol (environ 1 litre) ; miel* 100 à 200 F la cuvette; œuf, 5 F pièce; poulet, 5o F pièce. Pour le bétail, les prix variaient de 3oo à x 000 F pour un
- 4. Le mot golazy n’est pas malgache d’origine ; il représente la déformation du nom d’un commerçant, M. Golaz, qui a introduit à Madagascar ce grand parapluie de cotonnade bleue.
- mouton, de 5oo à 1 5oo F pour une chèvre, de 5 000 à 9 000 F pour un bœuf.
- Des foires ont lieu une fois par an, de mai à octobre, dans quelques centres": Ambovombe (fig. 5), Ampanihy, Bekily, Bekil.ro, Beloha, Tsivory. La foire dure deux jours; elle est à la fois une fête et un marché. Les produits du pays sont exposés et des récompenses sont attribuées. L’Antandroy éprouve du plaisir à montrer sa récolte, ses plus beaux bœufs et les objets qu’il a fabriqués; c’est ainsi qu’une foire joue un rôle stimulant dans l’économie du pays. L’exposition des produits est précédée la veille par un défilé pittoresque auquel assistent les autorités administratives, la population européenne de la région et celle des villages de brousse, même très éloignés. Les bœufs sont parqués dans un espace qui leur est spécialement réservé; quelques-uns sont vendus et les plus beaux sont primés.
- Antanimora, au cœur de l’Androy, est un lieu de passage, le carrefour principal des voies de pénétration, qu’elles viennent de Tananarive ou de Tuléar; ces routes desservent au passage les principaux centres administratifs. Des pistes secondaires s’étendent à l’intérieur de l’Androy et se ramifient parfois en sentiers qui vont d’un village à l’autre à travers la forêt ou la brousse. Les routes et pistes ont une importance totale de 2 000 km environ.
- Les radiers facilitent le passage des lits des cours d’eau. Le Mandraré se passait, suivant les années et les saisons, soit à gué, soit en bac, soit sur un radier; en 1956 un pont métallique (fig. 8) a été inauguré à Amboasary où passe tout le trafic entre l’Androy et l’Anosy, et en particulier entre les concessions de sisal et Fort-Dauphin.
- Les centres les plus importants ont un terrain d’aviation : Ambovombe, Bekily, Beloha, Tsihombé, Antanimora, Ampanihy, Tsivory, ainsi que quelques concessions : au total une douzaine d’aérodromes qui empêchent les l’égions les plus, déshéritées de l’Androy, comme celle de Tsivory, d’être complètement isolées à la mauvaise saison.
- Une entreprise de transport, le Sud-Express, dessert deux fois par semaine les principales localités sur la route Fort-Dauphin-Tuléar, transportant passagers et marchandises. A côté de ce service régulier il existe des transporteurs d’occasion : les commerçants indiens et malgaches complètent souvent la charge d’une camionnette ou d’un camion en prenant des passagers qui ne sont pas difficiles sur le confort; le prix est variable mais il est en général de 2 F par kilomètre. Ce sont les habitants des localités importantes qui constituent cette clientèle; l’Antandroy se déplace généralement à pied, même pour de très longues distances.
- Du fait de l’importance très restreinte des moyens de trans-
- Fis- 5. — Antandroy de la brousse à la foire d’Ambovombe.
- p.430 - vue 433/558
-
-
-
- 431
- Fig. 6. — Vieille femme tissant un salaka.
- port, l’Androy a peu d’ouvertures et de contacts avec le reste du pays. La médiocrité du volume des exportations pèse sur l’ensemble de la vie et détermine en partie cet isolement. Si l’on excepte les productions des concessions européennes dont le sisal est le principal produit, ce qui relève de l’économie autochtone n’entre que pour une faible part dans les exportations : arachide, manioc sec, bœufs et peaux n’atteignent pas une valeur telle qu’elle puisse modifier l’économie de l’Androy et l’on peut dire que l’extrême sud de Madagascar vit en autarcie.
- Des échanges se font à l’intérieur, entre la zone côtière plus riche et l’arrière-pays; par ailleurs, les rizières de Tsivory suffisent à approvisionner quelques centres en temps de pénurie, la consommation de riz restant assez restreinte dans l’ensemble de l’Androy.
- L’Antandroy a donc un niveau de vie très modeste et, en dehors de sa subsistance et de ses bœufs, il ne semble guère
- avoir de besoins ni le désir d’améliorer une existence très difficile. L’argent n’est pas encore très répandu; il n’est une nécessité que dans la mesure où l’Antandroy doit payer en espèces objets fabriqués, bœufs ou impôts. En dehors des-agglomérations, sièges de l’administration, les villages de brousse pratiquent souvent encore le troc : un bœuf contre une charrette de manioc, un sac de manioc contre un veau, deux sacs de manioc contre une génisse, cinq cents épis de maïs contre quatre chèvres.
- Ce sont là des échanges qui sont couramment pratiqués. L’Antandroy n’est venu au commerce que depuis quelques années et maintenant 85 pour ioo des agriculteurs vendent une' partie de leurs récoltes dont ils connaissent le prix courant; il est à remarquer aussi que 20 pour 100 de ceux qui travaillent pour l’administration cultivent et vendent des produits de leurs récoltes.
- La culture est donc à peu près la seule ressource de l’Antan-droy qui ne vend pas pour thésauriser, mais poussé par quelque obligation impérieuse : l’impôt à payer par exemple (2 000 F environ par homme) est son plus grand souci et nombreux sont ceux qui allèguent avoir vendu des récoltes ou à défaut un bœuf, ou encore avoir travaillé pendant quelque temps, afin de s’acquitter de cette obligation.
- Les migrations. — Les fluctuations économiques de l’extrême sud de Madagascar provoquent des migrations périodiques dans les zones frontières plus humides de l’Androy, et même dans les régions plus lointaines de l’île puisque, en dehors de la province de Tuléar, les Antandroy représentent 1 pour roo de la population totale des quatre provinces : Tana-narive, Tamatave, Fianarantsoa et Majunga; cette dernière-province, qui compte le plus grand nombre d’immigrés, a aussi la plus forte proportion d’Antandroy : 3 pour 100 par rapport à sa population totale.
- Des migrations se produisent à la périphérie immédiate de l’Antandroy. Les alternances des saisons rythment ces migrations et la sécheresse, sinon la disette, pousse chaque année-vers les pâturages du nord de l’Androy les familles et leurs troupeaux; les premières pluies les ramènent vers leurs champs et leurs villages. Transhumances pastorales, migrations temporaires laissent toujours derrière elles quelques îlots antandroy qui s’implantent peu à peu parmi les populations Mahafaly,
- p.431 - vue 434/558
-
-
-
- 432
- Bara, Tanosy. C’est ainsi que de 1925 à 1934, la région de Tsivory a vu une montée antandroy qui, originaire d’Antani-mora, d’AmboArombe, d’Ambondro et de Behara, s’est installée principalement dans les cantons d’Imanombo et de Ranomainty.
- L’infiltration antandroy se fait tant au nord qu’à l’ouest : la région d’Ampanihv est de plus en plus conquise par l’immigration antandroy qui repousse les Mahafalv vers la vallée de l’Onilahy; celle de Bekilv voit, comme celle de Tsivory, un apport régulier des gens du Sud. Si les années de grande disette comme 1934 et 1943-1944 occasionnent d’énormes déplacements de population à travers l’Androy, ces migrations forcées prennent aussi, en dehors de l’Androy, les routes de l’Anosv, celles de l’ouest vers Tuléar et celles plus éloignées du nord.
- Ces migrations à la périphérie de l’Androy sont plus ou moins temporaires ; il semble que les installations soient plus momentanées dans la région de Fort-Dauphin dont le climat humide, convient mal à ces originaires d’un pays sec. Généralement ces émigrés restent en Anosy une saison et reviennent chez eux aux premières pluies.
- Les migrations plus lointaines, vers le nord-ouest et le nord de l’île, datent de 1925. Les départs ont été provoqués initialement par des recrutements favorisés par l’administration. Un prélèvement de 3 000 hommes pour la Réunion qui avait besoin de main-d’œuvre avait été un prélude aux recrutements pour le compte des concessions agricoles du nord de Madagascar.
- Mais, parallèlement au recrutement, il faut signaler une émigration libre très importante. Les individus partent à pied, à l’aventure, vers les côtes ouest, est, ou en direction du nord. Ces émigrations sont devenues de larges exodes avec la destruction des rakaita (cactus) qui, commencée un peu avant 1928, était définitive en 19.30; nourriture des bêtes et des gens entre
- Fig. 8. — Pont sur le Mandraré, construit en 1956.
- deux récoltes, protection des villages et des terres, la disparition des rakaita fut une catastrophe générale et 1928-1930 est restée une date marquante en Androy. Les conséquences immédiates furent des famines plus accusées provoquant des exodes de populations qui se répandirent à travers l’île; il est difficile de chiffrer ces émigrations dont on retrouve encore les traces un peu partout.
- Les évaluations données pour les émigrations vont en croissant à partir de cette date pour chaque disette. En 1930, i5 pour 100 de la population auraient émigré ; pendant les années suivantes, 25 à 3o pour 100, et la famine de 1943-1944 aurait jeté sur les routes près de 5o pour 100 de la population. Pendant les années 1941, 1942, 1943 et 1944, les contrats de travail avec les compagnies du nord de Madagascar intéressèrent 6 171 travailleurs.
- Mais les engagements ne représentent qu’une faible partie des émigrations. A partir de 1945, l’émigration libre s’oriente surtout vers l’ouest tandis que les départs vers le nord sont moins importants. Des villages réguliers se constituent dans les districts de Betioky, Tuléar et Manja. C’est ainsi qu’un village actuel du Bas-Mangoky, Ambarata-Antandroy, près de Manja, a été créé par quelques éléments antandroy il y a environ vingt-cinq ans. Depuis cette époque, chaque année voit quelques arrivées, mais deux apports plus importants vers 1934-1935 et 1944-1945, dont huit et treize familles sont restées, coïncident avec les dates des disettes et confirment la tendance de l’émigration antandroy à venir se fixer à l’ouest de la province. Les habitants de ce village sont surtout originaires de Bekily et d’Ambovombe. Lors de ces deux émigrations, des familles entières se sont fixées apparemment.
- Nous retrouvons pareillement dans la région de Majunga, Ambilobe, Diégo-Suarez. ces petites communautés antandroy dont l’embryon date d’un quart de siècle. Réunissant tous les éléments immigrés de la région, ils reconstituent en exil, dans un isolement voulu, le village antandroy dont ils gardent tenacement le souvenir.
- A côté de l’émigration libre, le recrutement s’opère pour le compte d’entreprises agricoles, industrielles, ou encore pour les grandes compagnies dont une des activités comporte des cultures industrielles telles que la canne à sucre, le tabac, le sisal.
- L’époque la plus propice pour le recrutement est la saison sèche, au moment où les vivres se raréfient. Le manque d’argent pour payer l’impôt décide aussi l’Antandroy à s’engager, car le recruteur doit acquitter obligatoirement l’impôt de celui qu’il emmène hors de sa circonscription : c’est une avance sur le salaire qui est faite au futur travailleur. En ig55 il y eut beaucoup d’engagements car les récoltes, celle de maïs en particulier, avaient été mauvaises et elles n’avaient pas permis aux Antandroy d’en vendre une partie, ni même d’en constituer de suffisantes réserves pour attendre l’autre saison.
- Ce sont là les mobiles qui décident le plus souvent les Antandroy à s’engager car, chez les jeunes gens, le besoin d’acquérir des bœufs ou de reconstituer un troupeau décimé est au moins autant un motif d’émigration indépendante que d’engagement. Le recruteur a souvent des rabatteurs malgaches qui prospectent la région en annonçant qu’un recrutement a lieu pour une entreprise déterminée. Les rassemblements de population les jours de marché sont propices aux opérations de recrutement. Un certain entraînement joue à ce moment-là pour décider quelques hésitants qui, par désir de connaître d’autres régions, se laissent tenter par un départ collectif en camion qui se présente pour eux comme un voyage d’agrément. Certains même, venus au marché sans autre intention, se décident sur-le-champ à partir et nous avons rencontré quelques émigrés, partis ainsi à l’improviste, qui avaient laissé leurs familles dans l’ignorance de leur départ. L’émigration antandroy est essentiellement masculine; la majorité de ceux qui partent ont entre 20 et 3o ans. Les retours se situent pour la plupart avant [\o ans.
- p.432 - vue 435/558
-
-
-
- Fig. 9. — Antandroy en voyage.
- La durée de l'absence varie suivant les lieux. Les émigrations vers l’Anosy (région de Fort-Dauphin) sont de courte durée; mais l’Anlandroy reste parfois plusieurs années dans la région de pâturages de Belroka où il conduit ses bœufs pendant les sécheresses périodiques de l’Àndroy.
- Alors qu’une première émigration comprend environ ta pour ioo des hommes, une deuxième et une troisième expatriation dans la vie d’un individu ne se présentent que pour 3 et x ,8 pour ioo de la population masculine. Mais chaque nouvelle émigration a une durée moindre que la précédente; les temps moyens passés hors de l’Androy pour chaque émigré sont les suivants : 5 ans et a mois pour la première émigration, 3 ans et 9 mois pour la deuxième, 1 an et 8 mois pour la troisième.
- En ce qui concerne les moyens de transport, il y a depuis trente-cinq ans une évolution qui montre une régression des déplacements à pied au profit du transport en camion. Alors qu’en iq34 près des trois quarts émigraient à pied, aujourd’hui les proportions sont inversées.
- Quelques lieux d’immigration. — La vie des émigrés antandroy affecte une physionomie particulière suivant les lieux. Dans la région du Bas-Mangokv, elle n’est guère différenciée de la vie en Androv car les émigrés ont gardé .leurs occupations' traditionnelles et sont fréquemment installés avec leur famille. Cette immigration n’est stable qu’en apparence; en réalité elle se renouvelle par un continuel échange entre l’Androy et les groupements émigrés dont certains éléments parlent chaque année, mais sont remplacés par d’autres.
- L’emploi de métayer est assez fréquent pour les Antandroy au pays Sakalava: c’est un travail qui leur convient car il est à mi-chemin entre leur indépendance primitive et le salariat. Ils sont intéressés à fournir un travail régulier mais qui leur est habituel et qui ne présente pas la rigidité du travail salarié.
- A Amborovy, près de Majunga, 4o hommes, 00 femmes, 17 enfants forment un petit village qui vit de la vente du lait. Celte population est à dcmi-fixée, c’est-à-dire que les habitants
- ne partiront pour retourner au pays que lorsqu’ils auront assez d’argent. La somme qu’ils veulent réunir varie de 80 000 à 100 000 F. Cet argent servira à acheter des bœufs qui donneront le prestige indispensable à leur retour en Androv.
- Si depuis une trentaine d’années, quelque 10 000 Antandroy sont venus dans l’île de Nossi-Bé, très peu s’y sont fixés. Après avoir travaillé plus ou moins longtemps dans l’entreprise qui les a recrutés, ils sont allés de concession en concession, rejoignant parfois dans la grande île d’autres lieux d’immigration avant de repartir définitivement pour l’Androy. C’est le souvenir de l’eau qui reste attaché, pour les anciens émigrés qui en sont tellement privés depuis leur retour, à cette île lointaine et pourtant ils vous disent : « A Nossi-Bé, il y a de l’eau, mais je préfère être en Androy, c’est mon pays ». Tous ceux que nous avons vus à Nossi-Bé exprimaient aussi ce désir de retour au pays natal, quelques-uns après plus de vingt ans de séjour; mais ce départ, subordonné à une somme d’argent à réunir, était devenu pour certains une impossible espérance qui les aide à vivre, une sorte de mirage qu’ils n’ont plus la force de faire passer dans la réalité.
- Aux environs d’Ambilobe, les champs de cannes à sucre de la S.O.S.TJ.M.A.Y. et l’usine construite en 1953 ont une main-d’œuvre d’environ 3 000 hommes. Sur cet effectif, 5oo Antandroy sont utilisés comme ouvriers agricoles et manœuvres de force et vivent sur le domaine en villages organisés. La petite minorité d’Anlandroy qui travaillent à l’usine pénètrent là dans un univers étranger dont ils ignorent les plus simples rouages ; pourtant quelques individus réussissent très vite à se servir d’outils qu’ils ne connaissaient pas auparavant et à conduire une machine. Cependant les défections restent importantes, même parmi les éléments qui paraissent les plus intéressés par leur travail et qu’on pouvait croire mieux adaptés.
- Les salaires sont plus élevés à Diégo-Suarez, mais l’émigré y paraît cependant plus misérable. Les cases de bois et de végétaux de la brousse antandroy sont primitives, mais nulle part elles ne paraissent sordides et ne suggèrent l’idée d’une déchéance comme les cases de la banlieue de Diégo-Suarez; ces habitations faites de morceaux rafistolés de tôle et de fer-blanc, aussi étriquées que celles de la brousse et plus inconfortables, n’ont gagné qu’en laideur: Dans les industries de Diégo-Suarez, les Antandroy deviennent des prolétaires et l’on se demande quel étrange destin a fait échouer quelques-uns d’entre eux dans une usine frigorifique : jaunes de teint et l'œil triste, emmitouflés de cache-nez et vêtus de vieux vêlements militaires, on ne peut s’empêcher en les voyant de regretter l’Antandroy en salaka de la brousse, libre au soleil.
- Si l’on fait une réserve pour l’émigration en Bas-Mongoky qui présente une structure plus normale, la population antan-clrov éinigrée comporte une majorité d’hommes : trois hommes pour une femme en général; ceci fait que la polyandrie se substitue à la polygamie et la prostitution des femmes devient parfois, à l’égal du travail, un moyen de gagner de l’argent. Les Antandroy en émigration n’ont, guère d’enfants; les maladies en sont: probablement la cause.
- Lue émigration pour plusieurs années des hommes de 20 à 3o ans marque démographiquement un peuple et l’économie du pays se ressent de cette absence : les champs en friche aggravent, les famines. Il est souhaitable que l’extension antandroy se fasse naturellement aux limites de l’Androy, mais non dans une transplantation qui déséquilibre l’individu, lui enlève son originalité, son caractère propre, et diminue sa fécondité.
- Suzanne Fkèue.
- Les photographies qui illustrent; cet article ont été prises par l’auteur et sont extraites de son ouvrage : Panorama de l’Androy (Aframpe, Paris, 1958).
- p.433 - vue 436/558
-
-
-
- L’Actualité instrumentale
- LA 57e EXPOSITION
- DE LA SOCIÉTÉ FRANÇAISE DE PHYSIQUE
- Fig. 1. — Le stand de la Compagnie française Thomson-Houston à l’Exposition, de la Société française de Physique.
- (Photo J. Pellehin).
- La 57e Exposition d’instruments et de Matériel scientifiques s’est tenue cette année du a3 au 3o juin dernier au Parc des Expositions de la Porte de Versailles. Pourquoi cette date tardive et ce nouvel exil ? En ig56 déjà, les organisateurs avaient été contraints de transférer cette exposition des galeries de la Sorbonne (où il devenait difficile de loger tous les exposants, même en les dispersant) au Grand Palais. La formule adoptée cette année ne l’a cependant pas été pour des raisons d’exiguïté. En fait, le bureau de la Société s’est vu refuser le cadre du Grand Palais; aussi a-t-il été contraint de s’adresser au Parc des Expositions où seule se trouvait disponible la dernière semaine de juin. Cela n’a d’ailleurs pas été sans inquiéter les organisateurs, cette date tardive risquant de porter atteinte au succès de la manifestation. Fort heureusement, ces craintes ne se sont pas trouvées justifiées et le changement d’ambiance nous a semblé en tout point bénéfique.
- L’espace dont disposaient les exposants au Grand Palais n’était en aucune façon trop large et la disposition en deux galeries présentait quelques inconvénients. Au contraire, le Parc des Expositions a permis une disposition plus « aérée » des x4a exposants sur les 6 000 m2 alloués pour la circonstance. Les visiteurs nombreux, l’ambiance animée, l’aspect plus attrayant des stands ont démontré que ce transfert n’avait nui en aucune façon à cette intéressante manifestation. On peut alors se demander si cet exil, en quelque sorte involontaire, sera maintenu dans les années à venir. Cela n’est pas certain : il est. probable, en effet, que l’Exposition de Physique 1961 se fondi’a avec « Mesucora », première Exposition internationale de Mesure, Contrôle, Régulation et Automatique, qui se tiendra en mai sous la voûte du Centre national des Industries et des
- Techniques au Rond-Point de la Défense. Quoi qu’il en soit, on ne saurait trop insister sur l’importance que revêt cette exposition, héritière des anciennes séances pascales de la Société de Physique qui réunissaient autrefois les universitaires pour leur montrer un assortiment aussi complet que possible du matériel scientifique né ou perfectionné dans l’année. Le catalogue publié à cette occasion n’est-il pas d’ailleurs devenu une source de renseignements indispensables à tous les usagers d’instruments scientifiques ?
- Essayons maintenant de dégager les « lignes de force » de cette manifestation. Comme chaque année les grands organis-mes publics y ont participé avec un certain éclat. Ce fut le cas notamment du Centre national de la Recherche scientifique qui offrait un choix de réalisations souvent remarquables, de l’Électricité de France, de l’Office national d’Études et de Rechei'ches aéronautiques, du Laboratoire central de l’Armement et de l’Institut d’Optique. Par contre, le Commissariat à l’Énergie atomique n’était pas représenté cette année, sa participation n’avant lieu qu’une année sur deux. Plusieurs domaines sont actuellement en pleine expansion : c’est d’abord celui des techniques du vide, qu’il s’agisse des vides extrêmement poussés (io~9 mm de mercure et au delà) ou de groupes de pompage permettant un vide moyen moins élevé mais susceptible de travailler dans des conditions d’emploi très dures avec des débits importants. Tel est le cas, par exemple, des pompes Roots de la Compagnie Thomson-Houston, visiblement conçues pour l’usine de séparation isotopique de l’uranium par diffusion gazeuse, actuellement en cours de construction. Dans le même ordre d’idées, on a pu noter également quelques présentations relatives au matériel utilisé lors des explosions nucléaires fran-
- p.434 - vue 437/558
-
-
-
- 435
- çaises effectuées au champ de tir de Reggane, qu’il s’agisse des équipements de télévision analogues à ceux qui ont servi à la surveillance de l’engin et du déroulement du cycle automatique de mise à feu, ou des détecteurs de radiations du Centre d’Ëtu-des et de Réalisations électroniques, utilisés par exemple sur les véhicules militaires chargés de l’ouverture des pistes après l’explosion, ou montés sur les appareils qui ont traversé le nuage radioactif.
- Comme toujours, l’électronique occupait une place de choix, l’utilisation des transistors fabriqués en série permettant la réalisation d’appareils plus robustes, ayant un faible encombrement et une grande autonomie d’utilisation. On peut y rattacher la présentation de plusieurs appareils utilisés pour la préparation du germanium et du silicium ultra-purs par la méthode de la zone fondue.
- On a pu noter, par ailleurs, la présence de nombreuses
- Nouvelles
- Nous avions l’intention, au cours de notre visite, de photographier la dernière-née des calculatrices de la Société d’Élec-tronique et d’Automatisme, la C.A.B. 5oo, mais force nous fut d’y renoncer ou, plus exactement, seule fut possible une « photographie d’ambiance » (fig. 2) où se distingue vaguement l’appareil littéralement noyé sous le flot des visiteurs. Certes, les mauvaises langues prétendront que le charme de la jeune personne chargée de la démonstration n’était pas étranger à cet engouement, mais il n’en reste pas moins vrai que cette calculatrice (il s’agit de l’appareil) présente des performances fort intéressantes.
- La C.A.B. 5oo est une calculatrice arithmétique universelle de faible encombrement (ses dimensions sont sensiblement celles d’un bureau de type classique), essentiellement destinée aux laboratoires d’études et de recherches. Son originalité réside dans le fait qu’elle peut être utilisée par les ingénieurs et les chercheurs, après une période de formation très brève.
- Comme dans toutes les machines de ce type, la représentation des nombres à l’intérieur de la machine est effectuée en numération binaire, c’est-à-dire que cette calculatrice ne compte pas, comme nous, dans le système décimal qui exige l’écriture de
- machines à calculer de différents types dont la présentation et les performances vont en s’améliorant chaque année.
- Quant aux ultrasons, s’ils s’étendent toujours avec succès au domaine industriel, on a l’impression d’une légère régression par rapport aux années précédentes. Cela tient à ce que les appareils se stabilisent, ceux que l’on trouve actuellement sur le marché donnant le plus souvent entière satisfaction à leurs utilisateurs.
- Disons pour terminer que l’automatisme pénètre toujours plus avant dans le domaine des instruments de mesure. Il suffit pour s’en convaincre de jeter un coup d’œil aux nombreux appareils d’analyse chimique, spectrophotomètres, titri-mètres variés, etc. Leur utilisation se réduit maintenant à la manipulation de quelques boutons, les délicats réglages d’antan s’effectuant automatiquement par l’intermédiaire de 1’ « électronique » associée à ces appareils. R. R.
- calculatrices
- dix chiffres différents, mais dans le système binaire où tous les nombres sont écrits avec seulement deux chiffres, o et 1 (voir La Nature, juillet 1956, p. 267). Toutefois, à l’entrée comme à la sortie, les informations sont représentées sous forme numérique normale et l’utilisateur n’a pas à se soucier de la conversion qui est réalisée automatiquement par la machine.
- Schématiquement, le calculateur se compose de quatre organes : un organe d’entrée qui transmet à la machine ordres et informations; l’ensemble des circuits de calcul et de commande qui effectuent les opérations arithmétiques et logiques demandées à la machine; une mémoire capable de stocker les informations et les résultats partiels du calcul; et un organe de sortie qui fournit le résultat à l’utilisateur.
- L’entrée et la sortie sont effectuées dans la version standard par une machine à écrire lectrice et perforatrice de ruban qui fonctionne à 10 caractères/seconde. On peut cependant adjoindre, comme moyens d’entrée et de sortie rapides, un lecteur photo-électrique S.E.A. type 1080, à 80 caractères/seconde, et une perforatrice S.E.A. à 45 caractères/seconde.
- Quant à la mémoire de la calculatrice, élément dont dépen-
- Fig. 2. — Au stand de la Société d’Élec-tronique et d’Auto-matisme, les visiteurs se pressent pour observer le fonctionnement de la C.A.B. SOO, dernière-née des calculatrices produites par cette firme.
- (Photo J. Pellerin).
- p.435 - vue 438/558
-
-
-
- 436
- dent les possibilités de l’ensemble, elle est constituée par un tambour magnétique de grande capacité qui comporte 16 384 « mots » de 34 chiffres binaires répartis en 128 pistes de 128 mots. Elle permet l’enregistrement de nombreux microprogrammes facilitant la programmation. C’est ainsi que les ordres tels que multiplication, division, racine carrée, etc., font appel à des microprogrammes enregistrés sur le tambour.
- Le temps d’exécution d’une instruction simple n’est que de o,34o ms (milliseconde), alors que la durée du cycle majeur, qui correspond à un tour complet du tambour, est de 20 ms.
- La C.A.B. 5oo se comporte en marche normale comme une calculatrice universelle à programme interne, mais elle peut -aussi fonctionner en commande manuelle directe à partir du clavier de la machine à écrire. Il est même possible, au cours de l’exécution d’un programme, d’arrêter automatiquement la calculatrice pour lui faire exécuter une série d’opérations dont on désire un résultat immédiat ; la calculatrice se remet automatiquement en route sur le programme initial, une fois obtenus les résultats de ces calculs auxiliaires.
- Disons pour terminer que les constructeurs de la C.A.B. 5oo sont parvenus à en rendre l’utilisation très simple. Les nombreux microprogrammes et sous-programmes enregistrés sur le tambour magnétique facilitent la lâche de l’utilisateur qui a, par ailleurs, la faculté de faire appel à un programme spécial d’auloprogrammation. Il s’agit du système P.A.D. (Programmation automatique des données) qui traduit directement les ordres explicites en langage machine.
- Royal McBee présentait la calculatrice numérique type L.G.P. 3o, d’une conception analogue à celle de la C.A.B. 5oo. Il s’agit là aussi d’une calculatrice binaire à fonctionnement séquentiel, la conversion des informations sous forme décimale étant réalisée automatiquement par la machine. Les organes d’entrée et de sortie sont représentés par une machine à écrire de même type que celle de la C.A.B. 5oo (ro caractères/seconde). Un lecteur-perforateur rapide peut être adjoint à l’appareil et porter ainsi la vitesse de lecture à 200 carac-
- tères/seconde et la vitesse de perforation à 20 caraclères/seconde. La mémoire à tambour magnétique ne comporte cependant que 4 096 mots répartis en 64 pistes de 64 mots; elle a donc une capacité moins grande que celle de la C.A.B. 5oo. Enfin, il s’agit d’une machine à simple adresse, alors que la C.A.B. 5oo permet l’exécution d’ordres à deux adresses. Quant à la programmation, elle a été rendue, elle aussi, particulièrement aisée et il est possible, sur l’une ou sur l’autre de ces machines, de former un opérateur en quelques heures.
- R. R.
- Calculateur analogique et enregistreur XY
- Le calculateur analogique Face TR 10, associé à l’enregistreur XY Variplolter 1100 E (lig. 3), a été présenté par les Établissements Antarès pour l’Electronic Associates, Inc. (États-Unis). D’un encombrement très réduit et d’une mise en œuvre aisée, le calculateur, dont la construction fait appel à un ensemble de circuits transistorisés, peut être considéré comme un outil sûr et pratique.
- Un problème se posant sous la forme d’un système d’équations algébriques et différentielles, sa solution commence par une programmation en données électriques, suivie de la mise en relations, par connexions, des différents tiroirs à fonctions diverses : intégrateurs, comparateurs, générateurs de fonctions, multiplicateurs, amplificateurs... L’introduction des paramètres se réalise grâce à des boutons agissant sur des potentiomètres. La solution du problème est rapide (quelques secondes). L’enregistrement des solutions de problèmes à deux variables en courbes y = f(æ) se réalise immédiatement sur le Variplot-ter 1100 E qui offre de nombreuses caractéristiques. La feuille d’enregistrement, plaquée par dépression, est en 25,4 x 38,10. Vitesse maximale de la plume et du bras : 5o cm/s. Le zéro de la courbe est, réglable et ajustable en n’importe quel point du diagramme. G. G.
- p.436 - vue 439/558
-
-
-
- Applications thermiques du faisceau électronique
- La Société Précis présentait un ensemble expérimental destiné à montrer les diverses possibilités du faisceau électronique dans le domaine thermique. Un faisceau d’électrons présente en effet des particularités qui en font un véritable « chalumeau » susceptible d’applications variées. Examinons-lcs avec quelque détail.
- L’énergie transportée par les électrons est amenée uniquement et directement sur la surface utile à chauffer. Celle-ci constitue ainsi la partie portée à la plus haute température de toute l’enceinte et, par suite, la moins polluée. La surface chauffée peut être vraiment sous vide, et même sous ultra-vide, alors qu’il n’en est pas de même avec les dispositifs à arc qui demandent une certaine pression pour leur fonctionnement stable. Les concentrations de puissance obtenues sont considérables et il n’y a dès lors pratiquement pas de limite aux températures atteintes. Enfin, le réglage de la puissance et de sa concentration est obtenu avec une grande précision : les opérations thermiques sont ainsi parfaitement reproductibles.
- Les canons à électrons fabriqués par celte société l’ont été sous contrat avec le CLE.A. Ils sont du type à accélération interne et ne comportent ainsi aucune partie sous hau'e tension accessible. Leur utilisation est donc sans danger. L’enceinte du canon peut être pratiquement isolée de l’enceinte d’utilisation, au point de vue du vide. 11 est ainsi possible de pomper
- ------0— '
- Fig. 4. — Dispositif pour soudures par bombardement électronique utilisant un canon à électrons à focalisation fine. t'n système optique permet le réglage de la position du point d’impact du faisceau d’électrons et le contrôle visuel de la soudure.
- Canon N? 2
- Pompage canon N°2
- Canon N? 1
- Pompage enceinte de travaa
- Creuset refroidi
- Fig. S. — Four à fusion par bombardement électronique pour l’affinage des réfractaires sous vide ou ultra-vide.
- Le barreau à affiner est fondu par le canon n° 1. L’homogénéisation du métal coulé est réalisée par le canon n° 2.
- (o,3 mm à :> cm de distance frontale) permet la réalisation de micro-soudures.
- Celte technique semble promise à un grand avenir. Déjà,, l’affinage des métaux réfractaires par fusion sous vide a permis des réalisations souvent remarquables. Par exemple le tungstène, dont l’affinage est réputé très difficile, devient presque ductile avec cette méthode de purification. Des métaux que l’on considérait comme insondables ont pu être soudés par cette technique qui est maintenant appliquée presque couramment dans la fabrication des réacteurs nucléaires. Nul doute dans ces conditions que les années à venir nous apporteront d’autres réalisations tout à fait remarquables dans ce domaine..
- R. R.
- Suspension magnétique d’une maquette en veine de soufflerie
- séparément, l’enceinte du canon et l’enceinte d’utilisation. Cette dernière peut alors être le siège d’une montée de pression importante, sans compromettre le fonctionnement du canon.
- Différents types de canons à électrons ont déjà été réalisés; d’autres sont en cours de fabrication. Citons, par exemple, un canon à grande puissance de 20 kW-20 kV destiné à l’équipement des fours de fusion ou de distillation sous vide ffig. /D. Le diamètre minimal du faisceau est de !\ mm à 3o mm de l’orifice d’éjection. Un antre type à focalisation fine de 3 k\V-6o kV présente un diamètre de faisceau de 0,8 mm à 8 cm de distance frontale. 11 est destiné à réaliser des soudures à très grandes pénétrations en raison de la finesse du point d’impact et de la grande concentration de puissance réalisée (fig. 5). Un modèle voisin à focalisation encore plus fine
- La suspension magnétique ONERA maintient des maquettes-en soufflerie sans support, matériel. Les maquettes sont en métal magnétique ou contiennent un barreau de métal magnétique. Des électro-aimants judicieusement placés les attirent en compensant. exactement les efforts subis par la maquette.
- L’asservissement, est commandé par des cellules photo-électriques excitées à l’aide de faisceaux lumineux plus ou moins occultés par la maquette. Un émetteur de télémesures à transistor monté à l’intérieur de la maquette permet d’effectuer certaines mesures comme celle de la pression de culot, dans des conditions aérodynamiques très pures. L’ensemble suspension magnétique-émetteur de télémesures est utilisé actuellement, dans des souffleries hypersoniques discontinues.
- G. G.
- p.437 - vue 440/558
-
-
-
- 438
- Microscopie par rayons X
- L’idée d’utiliser les rayons X en microscopie suivit de peu leur découverte ; cette technique devait en effet permettre d’observer les détails de structure d’objets opaques à d’autres rayonnements, qu’il s’agisse de lumière visible ou encore d’électrons. Malheureusement, l’indice de réfraction de tous les matériaux pour les rayons X est très voisin de l’unité, et il est impossible de faire des lentilles de courte distance focale permettant de focaliser efficacement les rayons X. Il était donc ncessaire d’aborder la solution du problème par d’autres voies que celles de la microscopie optique classique.
- On peut évidemment opérer d’une manière analogue à celle de la radiographie médicale : c’est le procédé dit de micro-radiographie par contact. L’objet est appliqué contre une émulsion sensible aux rayons X et l’on obtient une image dont le grandissement est sensiblement égal à i. On procède ensuite, par les méthodes habituelles, à l’agrandissement de la photographie obtenue. Si le procédé est d’une application très simple, il ne permet pas d’obtenir, dans les meilleures conditions, une résolution inférieure à i jx, le grossissement étant limité par les dimensions du grain de l’émulsion.
- La microradiographie par projection permet des performances bien supérieures. Le principe de cette méthode est le suivant : imaginons que l’on puisse réaliser une source S (fig. 7) de rayons X rigoureusement ponctuelle. L’objet 0 est placé dans l’air devant cette source et dans un plan perpendiculaire au rayon moyen du faisceau issu de S. La distance de la source à l’objet est a. Sur un récepteur P, sensible aux rayons X, à la distance b de S, on obtient une image homothétique de l’objet, véritable projection de ce dernier avec un grandissement
- G = b/a. Le contraste de l’image est dû au fait que les différents points de l’objet présentent des transparences variables au faisceau de rayons X.
- Le problème revient donc à la réalisation d’une source ponctuelle de rayons X et c’est là que réside toute la difficulté de cette méthode. Dès 1896, Czermack fit les premières radiographies en plaçant simplement un diaphragme de très faible ouverture devant une source de rayons X : c’est la méthode dite de la chambre obscure, à trou d’épingle. Malheureusement l’intensité du faisceau utilisé est très faible et il est impossible d’obtenir des photographies d’un grossissement appréciable avec des temps de pose raisonnables. En 1939, von Ardenne et L. Marton eurent l’idée de réaliser une source ponctuelle de grande brillance en focalisant un faisceau d’électrons sur une anticathode appropriée, au moyen de lentilles électroniques. Dans ces conditions, le diamètre de la source de rayons X ne dépasse pas quelques dixièmes de micron, ce qui est particulièrement important puisqu’on démontre que la distance de deux points voisins de l’objet qui peuvent encore être séparés est égale au diamètre de la source S.
- Un instrument de ce type fut construit en 1951 par Cosslett et Nixon. Divers perfectionnements ont été, depuis, apportés à ce dispositif et, cette année, MM. Dupouy, Perrier et Verdier présentaient au stand du G.N.R.S. le premier microscope à rayons X construit en France. Nous allons le décrire sommairement.
- Le canon à électrons se compose d’un filament de tungstène, d’un diamètre de 0,1 mm, porté à l’incandescence par un courant électrique. La pointe du filament émet donc des électrons.
- Fig. 6. — Tête de moustique. Temps de pose : 5 mn. Grossissement total : 53.
- p.438 - vue 441/558
-
-
-
- 439
- Fig. 7. — Schéma de principe du microscope à rayons X de MM. Dupouy, Perrier et Verdier ( Laboratoire d’Optique électronique du C.N.R.S. à Toulouse).
- Explications dans le texte.
- Filament Wehnelt Anode
- _HT= Y
- Pompage
- Pression
- Atmosphérique
- Un cylindre de Wehnelt, porté à un potentiel légèrement négatif par rapport au filament, joue le rôle de première lentille électrostatique et concentre le faisceau d’électrons. Entre le filament et l’anode percée d’une ouverture, on applique une différence de potentiel V convenable, destinée à accélérer le faisceau d’électrons. Dans l’appareil présenté, V varie entre 3 kV et ?.o kV. La longueur d’onde des rayons X a ainsi des valeurs comprises entre 6 A et i À.
- Deux lentilles électroniques magnétiques, le condenseur Li et l’objectif L2 forment sur l’anticathode F une image ponctuelle S du faisceau d’électrons.
- L’anticathode est une feuille d’or très mince, de quelques dixièmes de micron d’épaisseur; elle sépare le corps de l’instrument. dans lequel on a fait le vide, du milieu extérieur où
- règne la pression atmosphérique. La source de rayons X ainsi obtenue rayonne donc dans l’air.
- Les résultats obtenus avec ce nouveau microscope sont particulièrement encourageants (fig. 6j : la résolution peut atteindre o,3 p.. Les grossissements dépassent 1 000. La durée du temps de pose est de l’ordre de quelques minutes. Les objets observés ne nécessitent aucune préparation; la profondeur de champ étant considérable, toutes les parties d’un objet épais apparaissent au point sur l’image.
- Ainsi, le microscope à rayons X apparaît comme un puissant instrument d’étude dont les applications devraient être particulièrement fécondes dans divers domaines de la recherche scientifique : biologie, médecine, métallurgie, etc.
- R. R.
- Purification des substances par la méthode de la zone fondue
- Le procédé de la zone fondue, inventé par Pfann en igSa, permet la purification poussée de nombreuses substances. Il a notamment été appliqué à l’obtention, dans un très grand état de pureté, du germanium et l’on peut dire que c’est en grande partie grâce à lui qu’a été rendue possible l’utilisation des semi-conducteurs en électronique.
- Cette méthode consiste à déplacer, le long du corps à traiter, une zone fondue obtenue par un chauffage localisé. Les impuretés présentes sont, en général, plus solubles dans la phase liquide que dans la phase solide. Elles sont donc entraînées lors du déplacement de la zone fondue et se rassemblent à l’extrémité du barreau en cours de raffinage. La même opération peut être répétée un grand nombre de fois, conduisant ainsi à des substances de plus en plus pures.
- Dans le domaine des semi-conducteurs, Philips présentait un ensemble pour le raffinage du silicium réalisant le déplacement lent (2 mm/mn) d’une zone fondue le long d’une barre de silicium tendue verticalement à l’intérieur d’un tube de quartz sous atmosphère neutre ou sous vide. La production de la zone fondue est assurée par chauffage haute fréquence (5 MHz). Pour faciliter la formation de la zone flottante, on fait subir une certaine traction à la barre en faisant tourner la partie située au-dessous de la partie chauffée. La vitesse de rotation est variable, entre 4 et a5o t/mn.
- Cet appareil diffère de ceux utilisés pour le raffinage du germanium et d’autres substances dans lesquels le barreau à purifier est contenu dans un creuset chauffé par induction. Ce procédé serait inapplicable au silicium en raison de l’attaque chimique qu’il fait généralement subir au creuset.
- Le C.N.R.S. présentait un appareil destiné à la purification des substances dont le point de fusion est compris entre 70° et 2000 C, par exemple de nombreux composés org/aniques {fig. 8). Il est constitué par douze lames d’aluminium (A)
- Fis- 8. — Schéma de l’appareil destiné à la purification des substances dont le point de fusion est voisin de l’ambiance par la méthode de la zone tondue.
- chauffées par contact avec une enceinte (E) qui renferme une résistance électrique. Un régulateur à couple thermoélectrique (C) maintient constante la température de l’ensemble. Le produit à purifier est contenu dans le tube scellé (T). On obtient donc simultanément de nombreuses zones fondues que l’on déplace au moyen d’un micromoteur agissant sur une came qui produit une avance lente (3 mm/h) du tube scellé sur une distance égale à l’écartement de deux lames d’aluminium. Un retour brusque vers la position initiale est ensuite obtenu sous l’effet d’un ressort. On utilise ainsi d’une manière continue la quasi-totalité des éléments chauffants.
- Cet appareil, d’une réalisation relativement simple, devrait connaître un certain succès auprès des organiciens.
- p.439 - vue 442/558
-
-
-
- - 440
- Spectrométrie de masse
- A la suite de la découverte des « rayons canaux » par Goldstein en 1886 et de leur identification ultérieure en ions positifs gazeux créés par le bombardement électronique des molécules de gaz résiduel existant dans le tube de Crookes qui servait aux expériences, J. J. Thomson, l’un des premiers, chercha à les analyser. Pour en déterminer la charge, la masse et la vitesse, il imagina une méthode dite des paraboles, utilisant l’action combinée d’un champ électrique et d’un champ magnétique transversaux sur la trajectoire des ions : il voulait isoler les trajectoires et, par suite, les points d’impact des ions de différente nature sur une plaque photographique, les coordonnées des points d’impact permettant le calcul des caractéristiques de chaque ion. Cette, méthode permit à Thomson et Aston de découvrir en 1910 la possibilité pour un élément d’apparaître comme un mélange de constituants appelés isotopes; leurs travaux portaient sur l’élude du néon atmosphérique dont ils mirent en évidence les isotopes 20 et 22
- (s*
- L’impossibilité d’avoir une quelconque focalisation, c’est-à-dire une concentration en un point de tous les impacts des rayons parcourus par les particules de même nature, caractérisées par le rapport c/m de la charge à la masse, mais seulement une tache, le faisceau d’ions restant cylindrique après déviation, conduisit Dempster et Aston à imaginer deux méthodes différentes qui permettraient cette focalisation et autoriseraient, par là même, une précision très supérieure. La spectrométrie de masse date de cette époque.
- L’analyse d’un mélange ionisé de gaz faite avec un spec-tromètre de masse permet donc d’obtenir un spectre dont chaque point on raie (source d’ions ponctuelle ou fente) permet d'identifier les atomes ou molécules gazeuses de différente nature, de • calculer accessoirement leur masse et d’en déterminer les proportions relatives dans le mélange d’après l’intensité des raies.
- Les spectromètres de masse sont d’un emploi courant au laboratoire et dans l’industrie; ils permettent d’étudier non seulement des gaz mais aussi des solides (source thermoionique au lieu de bombardement électronique pour les gaz). Les applications au laboratoire sont nombreuses et touchent aussi bien à la physique nucléaire et électronique qu’à la chimie physique.
- Parmi les applications industrielles, citons, en ce qui concerne les solides :
- — l’analyse isotopique;
- — le contrôle des procédés de séparation isotopique;
- — la détection et l’identification d’impuretés, en particulier dans les métaux ;
- et en ce qui concerne les gaz :
- — l’analyse qualitative et quantitative des mélanges gazeux;
- — la détection et l’identification d’impuretés dans les gaz;
- — l’analyse d’hydrocarbures légers.
- Les spectromètres de masse comportent, de par leur construction, trois parties distinctes : la source d’ions avec les dispositifs d’introduction des échantillons; l’ensemble des dispositifs d’accélération et de déviation du faisceau ionique par champs électrique et magnétique; l’appareil récepteur qui peut être une simple plaque photographique ou un oscilloscope précédé de multiplicateur d’électrons auquel on a adjoint une chaîne d’amplification.
- La source d'ions. — Le spectrographe travaillant sous vide et l’ionisation se faisant sous un vide allant de io-2 à io-6 mm Hg, les composés gazeux sont introduits dans l’appa-
- reil par l’intermédiaire d’un capillaire. Les corps chimiques-solides ou liquides doivent avoir une certaine tension de vapeur pour être analysables. En ce qui concerne les éléments non. volatils, il est nécessaire de passer par l’intermédiaire de certains de leurs composés volatils ou gazeux (h vd ru res par exemple). D’autres éléments sont ionisables par simple chauffage.
- La plupart des constructeurs s’arrangent pour produire desions dont la vitesse, avant accélération et déviation, soit nulle. Il est alors possible de connaître d’une façon précise, après-leur accélération brève, la vitesse de chaque type d’ions, en. particulier au moment de leur arrivée sur l’appareil récepteur.
- Ions formes
- Vide 10~ mm
- Trajet / des
- électrons
- + 100/ _ 80 V
- . 10V
- Trajet des ions
- Fig. 9. — Schéma d’une source d’ions.
- F, filament émetteur d’électrons; G, et G„, grilles d'accélération et de freinage ; E et E2. électrodes d’accélération des ions formés, formant lentille-
- électrostatique.
- Ce résultat s’obtient en contrôlant, à l’aide de grilles à potentiel convenable, la vitesse des électrons ionisants de façon que les ions produits par choc aient une vitesse minime; on extrait ensuite ces ions de leur zone .de naissance par accélération dans une direction perpendiculaire à la trajectoire desélectrons (fig. 9).
- Les différents modes de déviation des trajet toires. — Selon la façon dont sont isolées les trajectoires de chaque type d’ions, il est. possible de distinguer : la déviation purement magnétique (appareils à déviation directe et à focalisation semi-circulaire) ; les déviations électrique et magnétique combinées (appareils adaptés des appareils de Thomson et Aston). Un autre type nouveau d’appareil ne fait intervenir aucune déviation (appareil « à temps de vol »).
- En fait, les appareils présentés à la dernière exposition organisée par la Société française de Physique sont, soit du-type à déviation magnétique, soit du type « à temps de vol ». Rappelons-en brièvement les principes de fonctionnement.
- Appareils à déviation magnétique. — La loi de Laplace appliquée au déplacement d’une particule électrique de vitesse u etide charge e au sein d’un champ magnétique uniforme B, nous apprend que cette particule subit une force
- donnée par la relation / = e{u.^B). Un calcul simple montre que, dans ce cas, la trajectoire étant un cercle situé dans un-plan perpendiculaire au champ, l’intensité du champ, le rayon du cercle, la vitesse (si elle n’est pas trop grande), la masse et la
- m
- charge de la particule sont liés par la relation BR — — u. 1 ar
- ailleurs, U étant la tension d’accélération des ions considérésr la relation BR = aU/u s’établit facilement.
- Un type d’ions donnés aura dans ces oonditions une vitesse
- p.440 - vue 443/558
-
-
-
- 441
- Fig. 10. — Déviation magnétique directe.
- S, source d’ions ; D, diaphragme ; F, écran ; l, point d’impact. Champ uniforme B dirigé vers le haut, perpendiculairement au plan de la figure.
- donnée sur une trajectoire circulaire bien définie. A un autre type d’ions de masse et charge différentes, correspondra un autre cercle.
- i° Déviation directe. — La méthode consiste à interposer un écran E perpendiculaire à l’axe OY du faisceau sortant de la source d’ions S (fig. io) et à mesurer la distance S sur l’écran, 01 étant un arc de cercle, le rayon du cercle se calcule facilement. Le rapport e/m s’en déduit aussitôt.
- 2° Focalisation semi-circulaire. — Cette méthode est une extension de la méthode précédente. Ici les ions sortant de la source décrivent un demi-cercle avant d’être arrêtés par l’écran (fig. ii). Leur faisceau est délimité par un diaphragme D. Les ions de même rapport e/m décrivent des demi-cercles de même
- Fig. 11. — Schéma de la focalisation semi-circulaire.
- E, écran parallèle à l’axe fixe ox ; D, diaphragme ; /, point d’impacl. de toutes les trajectoires des ions de même nature issus de S et passant à travers le diaphragme D.
- Les mesures de cp, de l’abscisse x du point I permettent de connaître R, d’où les caractéristiques des ions considérés.
- Le spectromètre type Dempster est construit en prenant pour cp une valeur nulle. Le pouvoir de résolution m/dm, caractéristique de chaque spectromètre, peut atteindre jusqu’à la valeur 4oo.
- Trois appareils conçus suivant ce principe de séparation par déviation magnétique ont été présentés à l’Exposition. L’un de ces appareils est construit pour l’analyse des éléments légers par les Établissements Beaudouin. Il est d’une grande simplicité et d’une grande souplesse d’utilisation. Il permet d’effectuer les analyses isotopiques ou chimiques des éléments de poids atomique inférieur à ioo, ceci pour les corps solides et gazeux. Ce spectromètre est à simple déviation magnétique de 6o° et travaille sous un vide de io~6 à io~7 mm Hg. Les spectres de masse de i à ioo sont obtenus par balayage automatique du champ magnétique et enregistrement sur bande de papier. Le pouvoir de résolution mesuré à io pour ioo de la hauteur des raies est voisin de ioo. Champ analyseur de 5 ooo gauss.
- Le spectromètre de masse N 203 S présenté par la Compagnie française Thomson-Houston est plus spécialement destiné au dosage isotopique précis de l’argon 4o. Il comprend un ensemble séparateur à champ permanent de 3 ooo Gs et un ensemble électronique de mesure comprenant une chaîne d’amplification linéaire à courant continu, un système de balayage automatique de spectre et un enregistreur. Pouvoir de résolution : 5o. La reproductibilité des mesures de rapport isotopique peut atteindre i pour i ooo.
- Le spectromètre de masse type SP 21 F présenté par les Equipements Industriels (fig. 12) permet la mesure du rapport d’abondance des masses de molécules contenues dans un échantillon gazeux. L’enregistrement des spectres se fait directement sur papier à l’aide d’un dispositif automatique, d’une façon lente pour les pics et rapide tout au long des intervalles. Il existe un changement de sensibilité automatique comportant huit gammes. L’appareil permet la mesure de masses allant de 1 à 4oo par accélération ionique de 1 800 V, de 2 à 800 sous
- rayon R dont l’orientation dans le plan de la figure, caractérisée par l’angle cp que forme leur diamètre avec l’écran, varie très légèrement autour de cp autant que le permet le diaphragme. Malgré tout, les ions convergent au point /, ce qui réalise la focalisation.
- Figr. 12. — Le spectromètre de masse SP 21 F ( Italelettro-nica).
- (Les Équipements Industriels).
- p.441 - vue 444/558
-
-
-
- 442
- G, G
- Chambre de vol
- Multiplicateur magnétique d'électrons
- Ionisation
- Introduction
- Oscilloscope
- + 4Û0V.2 000 2 800 V
- 2 800V
- Schéma de principe du spectromètre de masse à temps de vol.
- grille de commande des impulsions d'ions ; G„, grille d’accélération.
- goo V. Le pouvoir de résolution m/dm est supérieur à 35o, ce qui est remarquable. La sensibilité est de i/io et la précision des mesures atteint i pour ioo.
- Spectromètre de masse à temps de vol. — Cet appareil, construit par Jobin et Yvon sous licence Bendix Aviation Corporation, est de conception nouvelle. Il présente en effet des caractéristiques très différentes des instruments classiques à déviation magnétique. Les ions, libérés par impulsions périodiques et accélérés sur une distance courte devant leur trajectoire rectiligne, prennent une vitesse uniforme dans la chambre de vol, libre de champ magnétique. Les ions de rapport e/m différents se séparent du fait de leurs vitesses différentes, les plus rapides correspondant au rapport e/m le plus grand, et arrivent par paquets successifs sur l’ensemble récepteur; ils pénètrent dans un multiplicateur magnétique d’électrons : le signal résultant est appliqué à un oscilloscope dont le balayage est déclenché par l’impulsion d’accélération des ions. La masse correspondant, à chaque pic observé peut être déterminée par son temps de vol : l’image qui apparaît sur le tube de l’oscilloscope, dont le balayage est étalonné en temps avec précision, montre l’arrivée des ions de masse différente en fonction de ce temps. La hauteur des pics donne la proportion d’ions de masse différente.
- Quelques caractéristiques de l’appareil sont à citer :
- Nombre d’analyses par seconde : 2 000 ou 10 000.
- Sensibilité : des pics d’amplitude dans le rapport de 1 à 1 000 peuvent être mesurés quantitativement par l’oscilloscope.
- Etendue de mesure : la fréquence de fonctionnement 10 kHz permet l’analyse de masses comprises entre 1 et 4 000. Pour 2 kHz, on pourrait atteindre roo 000. Un dispositif de retard du déclenchement du balayage de l’oscilloscope, incorporé au spectromètre, ainsi que le choix de la vitesse de balayage, permet de faire apparaître sur la largeur du tube cathodique la portion du spectre exactement désiré.
- Résolution : la vallée entre les pics 200 et 201 atteint la ligne de base. Interférence de xo pour 100 entre 4oo et 4oi. Près de 100 pour 100 entre 600 et 601.
- Applications : l’instrument permet des analyses qualitatives et quantitatives de façon simple et rapide; il est utilisable en recherche et en contrôle. Son utilisation, conjointement avec un cbromalographe en phase gazeuse, est très intéressante et permet d’éviter les analyses successsives de fractions collectées : on envoie directement dans le spectromèti'e, grâce à un robinet à fuite, une partie des gaz effluents. L’analyse à l’oscilloscope est instantanée.
- G. Guiroy.
- p.442 - vue 445/558
-
-
-
- 443
- Générateur de noyaux d’iodure d'argent
- L’un des procédés les plus employés pour la dissipation des brouillards à température inférieure à —-5° C, la production artificielle de pluie, la prévention de la grêle, consiste à produire des « fumées » d’iodure d’argent au moyen d’appareils générateurs installés au sol.
- Les générateurs de germes d’iodure d’argent utilisés jusqu’alors pouvaient être classés en deux catégories. Dans la première se placent des appareils fondés sur la combustion d’un charbon contenant quelques pour-cent d’iodure d’argent. Dans les appareils de la deuxième catégorie, une solution d’iodure d’argent dans l’acétone est injectée dans une flamme d’hydrogène ou de butane qui assure la vaporisation du sel. On voit donc que ces générateurs font tous appel à un combustible pour la production des fumées d’iodure d’argent.
- L’originalité de l’appareil présenté par M. Dessens au stand du C.N.R.S. réside dans le fait que c’est le solvant lui-même qui est brillé : il en résulte une mise en œuvre beaucoup plus simple (fig. i5).
- La solution acétonique est pulvérisée dans le jet d’air d’une soufflerie et brûlée dans un four avec une quantité d’air ajustée de façon à obtenir une température comprise entre la température de vaporisation et la température de dissociation de
- Solution acétonique
- Fig. 15. — Schéma du générateur de noyaux d’iodure d’argent de M. Dessens (Observatoire du Puy-de-Dôme).
- l’iodure d’argent. Le rendement en noyaux efficaces, que l’on peut définir comme le nombre de germes glaciogènes actifs produits par gramme d’iodure d’argent vaporisé, serait supérieur à celui des appareils similaires.
- Un modèle autonome a même été construit et il est actuellement utilisé en Afrique équatoriale; la soufflerie électrique a été remplacée par une soufflerie entraînée par un petit moteur à essence muni d’un système de refroidissement par air.
- R. R.
- Microgéomètre
- Cet appareil, présenté par Baudot-Hardoll (Karl Deutsch) et destiné à contrôler et mesurer des états de surface, opère à l’aide d’un palpeur effectuant un parcours de référence avec transcription électrique des valeurs mesurées : le patin de la tête palpeuse glisse sur la surface de la pièce à vérifier, cependant que l’aiguille sonde le profil de la surface à travers le patin. L’une des plaques d’un condensateur est solidaire de l’aiguille sondeuse. Une variation de capacité résulte du déplacement de l’aiguille. Après amplification, un dispositif de
- méthode de zéro utilisant des cristaux piézoélectriques permet d’annuler cette variation et d’en déduire la profondeur de rugosité dont l’étendue de mesure est de 0,02 à 1 000 p., en trois gammes qui correspondent chacune à un type de tête palpeuse différent. Le transmetteur est statiquement étalonnable indépendamment du trajet. Le parcours de référence est de 5 mm. La durée de la mesure est de 100 s. Les résultats sont enregistrés sur un diagramme.
- G. G.
- (Lire la suite de l'Exposition de Physique dans notre prochain numéro).
- La météorite de 1908 était-elle une comète ?
- La météorite tombée en 1908 dans la région de Toungousk, en Sibérie centrale, n’a pas fini d’occuper les savants soviétiques. Nous avons résumé récemment (août i960, p. 337), d’après la revue Priroda, les déductions de M. Vronsky, selon qui les débris de la météorite, après son explosion dans l’atmosphère, se seraient enfoncés très profondément dans le sol et devraient être recherchés très au-dessous des multiples cratères qu’ils ont produits dans le sol en partie gelé. Dans un nouvel article de la même revue, M. E. Krinov revient à une hypothèse jadis énoncée, selon laquelle la météorite de 1908 aurait été le noyau d’une comète.
- La zone où les arbres ont été déracinés par la chute de la météorite est, à en juger par l’orientation des troncs, non point ronde, mais allongée dans la direction du mouvement qui, selon un calcul dû à M. Astapovîtch, ne faisait qu’un angle de 7 degrés avec le plan horizontal. Les arbres auraient alors été déracinés, non seulement par l’explosion, mais par l’onde balistique qui l’accompagnait et à laquelle sa vitesse, évaluée par Astapovitch à 60 km/s, conférait une énorme énergie.
- Une vitesse de cet ordre prouve que la météorite se mouvait autour du Soleil dans le sens opposé à celui de la Terre, ce qui peut être le cas pour une comète, mais non pour une
- météorite normale, qui est un débris d’astéroïde et se déplace dans le même sens que la Terre, sa vitesse de pénétration dans l’atmosphère étant alors de l’ordre de n à 25 km/s.
- D’autre part la météorite de 1908, s’il s’agissait du noyau d’une comète, devait être constituée d’une substance « molle » ou bien d’un bloc d’eau et de gaz congelés (méthane, ammoniac, gaz carbonique, etc.); ce bloc devait également contenir de nombreuses particules dispersées de fer-nickel et de silicates. On s’expliquerait ainsi qu’on n’ait pas retrouvé dans le sol les constituants ordinaires des météorites.
- M. Kidnov rappelle enfin que plusieurs nuits particulièrement claires se sont succédé, en 1908, après la chute de la météorite. Cette clarté nocturne aurait pu avoir pour cause la dissipation des rayons solaires par les particules de poussière de la queue de la comète captées par l’atmosphère. Ce qui est surtout significatif, précise-t-il, c’est que la météorite est tombée à 7 h du matin, alors que le Soleil se trouvait à l’est du point de chute. La queue de la comète, si c’en était bien une, devait donc se trouver à l’ouest de ce point, c’est-à-dire au-dessus de la Sibérie occidentale et de l’Europe. Or, c’est au sud de la Sibérie occidentale et de l’Europe précisément que les nuits claires ont été observées. C. M.
- p.443 - vue 446/558
-
-
-
- 444
- Anesthésie médicale par le bruit
- L’information qui suil pourra susciter un certain scepticisme, car il est difficile, connaissant la malfaisance du bruit, de penser qu’il ait trouvé un emploi utile en thérapeutique. C’est cependant la très sérieuse revue américaine Science qui a publié cette information (ier juillet i960). Faut-il rappeler d’autre part que les substances toxiques figurent en grand nombre dans l’arsenal de la médecine?
- Trois chirurgiens-dentistes de la •ville de Boston, MM. Gardner, Licklider et Weisz, décrivent dans cette revue une méthode employée par eux et certains de leurs collègues pour supprimer la douleur, en soumettant leurs patients à d’intenses stimulus auditifs. La statistique relevée, après application de la méthode dans un cabinet dentaire sur un millier de personnes, indique que la suppression de la douleur a été totale dans 65 pour 100 des cas et d’une efficacité suffisante dans 25 pour 100 des cas pour éviter l’emploi d’analgésiques chimiques. Elle a produit des effets insuffisants dans 10 p. 100 des cas seulement.
- Un des promoteurs de la méthode, M. Gardner, a pu extraire 200 dents sans autre insensibilisation. Ses collègues ont annoncé des performances analogues.
- Le patient porte un casque à écouteurs et agit lui-même sur l’intensité du son, par l’intermédiaire d’une boîte de réglage. Avant le début des soins, il peut entendre une musique stéréo-
- phonique qui produit un effet de relaxation. Dès qu’il commence à appréhender la douleur ou ressentir son apparition, il agit sur l’émission du bruit (reproduisant approximativement la rumeur d’une chute d’eau).
- Ce bruit peut avoir divers effets psychologiques comme de masquer celui de la fraise creusant une cavité dentaire et dériver l’attention du patient. Le fait de pouvoir agir soi-même sur la douleur en réglant le son est également un facteur de lutte contre l’anxiété. Le praticien, d’autre part, apprécie le degré de cette anxiété en voyant le volume du son que son patient est en train d’écouter.
- Des résultats favorables ont été obtenus non seulement dans la pratique de l’art dentaire, mais dans certaines interventions chirurgicales légères, telles qu’arrachement d’un ongle ou ablation d’un polype. Il a été ainsi possible de déterminer le genre de douleur, justiciable de l’anesthésie sonore.
- Une explication neurologique peut être admise : le circuit nerveux de la douleur de même que celui de l’audition se rencontrent dans certains centres, l’hypothalamus notamment, et l’interférence entre les deux flux de sensations aurait un effet inhibiteur. Il existerait également des « relais » qui informent le cerveau des montées de la douleur et que le stimulus acoustique parviendrait à bloquer. G. C.
- Chromosomes en excès chez un bébé
- A l’Université d’Uppsala (Suède), un examen génétique a été fait sur un bébé masculin d’un an qui présentait certaines anomalies cérébrales. 'Des cellules prélevées sur le tissu cutané de l’enfant ont permis de révéler la présence de 69 chromosomes, ce qui constitue un excédent de 60 pour 100. Il semble que ce soit le premier cas de triploïdie, constaté chez un représentant de l’espèce humaine.
- Scandium pur à 99 pour 100
- On trouve maintenant dans le commerce, aux États-Unis, du scandium, dont la pureté de 99' pour 100 a pu être atteinte par distillation dans, le vide. C’est un métal de densité 3,02 fondant vers 1 660° et bouillant à 2 470°. Le scandium (n° atomique 21) a des propriétés analogues à celles des terres rares, auxquelles il est fréquemment associé dans les minerais.
- LE CIEL EN NOVEMBRE I960
- SOLEIL : du 1« novembre au 1er décembre (à 0*) sa déclinaison décroît de — 14°22' à — 21°46' et la durée du jour de 9*50™ à 8*32™ ; diamètre app. le 1er = 32'17",2, le 30 = 32'29",9. — LUNE : Phases : P. L. le 3 à 11*58™, D. Q. le 11 à 13*48®, N. L. le 18 à 23*47™, P. Q. le 26 à 15*42™ ; apogée le 9 à 9*, diamètre app. = 29'31" ; périgée le 24 à 4h, diamètre app. = 32'54". Principales conjonctions : avec Mars le 9 à 0h, à 5°40' S. ; avec Uranus le 12 à 4*, à 2°19' S. ; avec Mercure le 17 à 16*, à 1°56' N. ; avec Neptune le 17 à 18*, à 2°35' N. ; avec Jupiter le 21 à lo*, à 4°39' N. ; avec Vénus le 21 à 19*, à 6°36'N. ; avec Saturne le 22 à 8*, à 4°3' N. Principales occultations : le 6, de 318 B Taureau (mag. 5,7), émersion à 5*12™,0 ; le 15, de 15 Vierge (mag. 4,0), émersion à 4*0®,5. — PLANETES : Mercure, passe devant le
- WÊÊÊÊÊBlÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊIÊÊÊÊÊÊÊÊÊÊÊÊÊiÊÊÊÊÊÊÊlÊÊIÊÊÊÊÊÊÊÊÊt'
- Amateurs d'ASTRONOMIE, adhère% à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- fondée en 1887 par G. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L'ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc
- Demandez les programmes au Siège Social Hôtel des Sociétés Savantes, 28, rue Serpente, Paris-6* Permanence, tous les jours non fériés de 14 à 17 h
- Cotisations : Région Parisienne, 25 NF ; France, 20 NF ; Étranger. 30 VF ; Étudiants, 3 NF ; Droit d’inscription pour tous, 2 KF!
- Spécimen gratuit de la revue sur demande.
- Demandez « Splendeur de l'Astronomie », les plus belles photographies astronomiques : 16 pages 13,5x20,5, tirage néogravure bleu nuit. 0,65 NF franco.
- Soleil le 7 et devient étoile du matin jusqu’à la fin du mois, le 24 lever à 5MSm, soit l*57m avant le Soleil ; Vénus, belle étoile du soir s’observant de mieux en mieux, se couche le 20 à 18*14™, soit 2*10™ après le Soleil ; Mars, dans les Gémeaux bel astre rouge se levant avant 20*, le 15 : diamètre app. 12",6 et mag. — 0,5 ; Jupiter et Saturne, dans le Sagittaire brillent encore le soir respectivement 2 et 3 heures après le coucher du Soleil ; Uranus, à 4° au J\-W de v Lion apparaît avant minuit, le 15, position : 9*83™ et + ÎS^S', diamètre app. 3",8 ; Neptune, dans la Balance réapparaît un peu le matin à la fin du mois. — ETOILES VARIABLES : minima observables d’Algol (2™,2-3™,5) le 16 à 2*,2, le 18 à 22*,8, le 21 à 19*,7 ; minima de P Lyre (3™ ,44™ ,3) le 7 à 12*,5, le 20 à 11*,0 ; maxima de 8 Céphée (3™,7-4™,6) le 1er àil*,4, le 6 à 20*,2, le 12 à 5*,0, le 17 à 13*,8, le 22 à 22*,6, le 28 à 7*,4 ; maxima de 7) Aigle (3™,74™,4) le 1er à 9*,9, le 8 à 14*, 1, le 15 à 18*,3, le 22 à 22*,6, le 30 à 2*,8 ; maxima de x Cygne (3™,3-14™,2) le 1er, de T Céphée (5™,4-11™,0) le 8. — TEMPS SIDERAL : au méridien de Paris à 0* (T. U.) : le 1er : 2*50™2Ss, le 11 : 3*29™54s, le 21 : 4*9m19s, le 1er décembre : 4*48™45s.
- Phénomènes intéressants. — Surveiller l’apparition détachés et de facules à la surface du Soleil. •— Du 13 au 16, lumière cendrée de la Lune, le matin. Le 7, passage de Mercure sur le disque du Soleil, en partie visible en France, à Paris : premier contact extér. à 14*34™,3, premier contact intér. à 14*36™,3, coucher du Soleil et de Mercure à 16*20™, ne pas manquer d’observer ce rare phénomène. — On remarquera dans le crépuscule les rapprochements Vénus-Jupiter le 19 et Vénus-Saturne le 28. — Etoiles filantes : du 15 au 20, Léonides (max. le 16), radiant Ç Lion ; du 17 au 23, Andromédides, radiant y Andromède.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- p.444 - vue 447/558
-
-
-
- LES LIVRES NOUVEAUX
- 445
- La programmation linéaire et l'algorithme du simplexe, par D. U. Greenwald. Traduit de l’anglais par R. Antzenberger. 1 vol. 14 x 22, 104 p., 19 fig. Dunod, Paris, 1960. Prix, broché : 9 WF.
- La détermination de la solution optimale d’un programme linéaire s’opère généralement à l’aide de la méthode du simplexe due à Dantzig. Cette méthode, exposée dans plusieurs ouvrages, restait cependant inaccessible à tous ceux que le calcul matriciel rebute. Ce petit ouvrage simple et progressif, rempli d’exemples et de problèmes et qui ne recourt qu’à des mathématiques élémentaires, comble une importante lacune en exposant, sans ses justifications mathématiques difficiles, le maniement de l’algorithme du simplexe qui apparaît de la sorte comme un outil d'emploi facile. Ce livre donnera ainsi à bien des chefs d'entreprises, ingénieurs et étudiants, les moyens d'assimiler et d’employer la puissante méthode de la programmation linéaire.
- Mesure et instruments de mesure, par
- J. Idrac. 1 vol. 16 x 25, 132 p., 47 fig. Dunod, Paris, 1960. Prix, broché : 9 WF.
- « On ne connaît bien un phénomène que lorsqu'il est possible de l’exprimer en nombres. » Cette citation de lord Kelvin rappelle qu’en définitive il n'y a pas de sciences là où il n’y a pas de mesures ; aussi doit-on féliciter M, Idrac d’avoir abordé ce problème fondamental. Tout au long des différents chapitres consacrés aux notions de sensibilité, de précision, de finesse, de rapidité, l’auteur a cherché avant tout à dégager la philosophie des phénomènes étudiés. Il y a matière à réflexion dans ces pages dont la lecture n’est pas toujours facile, précisément parce que l’auteur est allé au fond des choses et ne s'est pas borné à réexposer une fois de plus des notions que chacun croit bien connaître. Il s’agit pourtant d’un ouvrage pratique comme en témoignent, par exemple, les « notions-clés », sorte de résumés qui jouent le rôle de guide à la fin de chaque chapitre, créant ainsi un cadre de travail. — R. R.
- Vistas in Astronomy, vol. 3, édité par A. Beer. 1 vol. 19 x 25,5 cm, vm-345 p., nombr. fig. Pergamon Press, Londres, 1960. Prix, relié : 120 sh.
- Le succès remporté par les volumes 1 et 2 de Vistas in Astronomy a incité les éditeurs à oontinuer la publication de tels ensembles d’articles originaux : il paraîtra donc d’autres volumes analogues à celui-ci, qui offriront leurs pages aux astronomes et astrophysiciens de tous les pays. Le présent tome contient, entre autres articles, une étude de R. Woolley sur la dynamique des étoiles proches du Soleil, une de H. von Klüber sur l'effet Einstein, une autre de G. M. Sisson (de la Cl0 Grubb-Parsons) sur la construction des grands télescopes, etc. Citons aussi ‘es articles de photométrie stellaire de J. B. lrwin, de G. E. Kron et de A. W. Argue, une importante étude de B. E. J. Pagel consacrée aux étoiles à raies d’émission, et environ 70 pages concernant l’évolution stellaire et la cosmologie, dues à O. J. Eggen, S. Gaposchkin, L. Mestel et D. W. Sciama. Ensemble très varié, souvent d'un très grand interet.
- The Background of Astronomy, par
- IL G. ICing, 1 vol. 14 x 22 cm, 254 p. Tavi-stock Publications, Londres, 1959, Prix, relié : 18 sh.
- Ce livre extrêmement bien fait et intelligent retrace l'évolution de l’Astronomie jusqu’en 1610, date à laquelle Galilée a pointé vers le ciel sa première lunette. L’auteur expose avec précision de quelle manière l’Astronomie s’est dégagée de l’astrologie et de la métaphysique pour devenir une véritable science. Cependant, Copernic et Képler eux-mêmes mélangeaient encore science et métaphysique, ce qui ne semble avoir nullement restreint leur activité scientifique si fructueuse. En fait, le problème de l'interconnexion entre les disciplines scientifiques et extrascientifiques dans l’Antiquité et le Moyen Age est très complexe, et c’est le grand mérite de II. C. King d'avoir su l’analyser avec lucidité.
- Àstronomical Photography at the Telescope, par Thomas Rackiiam. 1 vol. 14,5 x 22,5 cm, 232 p., 17 fig., 10 pl. h. t. Faber and Faber, Londres, 1950. Prix, relié : 36 sh.
- Manuel exposant les principes de la photographie astronomique d’amateur et les réalisations
- accessibles sans trop de difficultés ; conseils pra-[ iques.
- La Terre et la Lune, par Jean Taillé, agrégé de l’Université. 1 vol. 11,5 x 17,5, 128 p., 19 fig. Collection Que sais-je?, Presses Universitaires de France, Paris, 1960. Prix : 2 WF.
- 1970 aura vu probablement plusieurs voyages humains Terre-Lune et retour. Cette prévision de l'auteur l'engage à nous rappeler les principaux éléments astronomiques du couple Terre-Lune. Après un chapitre sur le mouvement diurne, on étudie la Terre isolée dans l’espace, sa rotation, son déplacement autour du Soleil, puis le mouvement et les caractéristiques de notre satellite. Le dernier chapitre s’intitule, bien entendu : « Irons-nous sur la Lune ? ». Mais qui en doute ?
- Towards a unified Cosmology, par Reginald O. Kapp. 1 vol. 15 x 23,5, 303 p., 10 fig. Ilutchinson and Go., Londres, 1960. Prix, relié : 35 sh.
- C’est le livre d’un philosophe très averti des problèmes de l'Astronomie, de la Physique et de la Relativité. On y trouvera des analyses approfondies des concepts de matière, d’espace et de gravitation. Développant les idées de Hoyle sur la création continue, l’auteur présente une hypothèse nouvelle, dite de V « Impermanence symétrique de la Matière », qui admet que la création d’atomes nouveaux est compensée non seulement par l'expansion universelle, mais par 1’ « extinction » d’autres atomes. La matière aurait une vie limitée. Théories originales concernant la formation des galaxies, la gravitation et même la courbure de l’espace au voisinage des noyaux atomiques. Comme il arrive souvent, la partie négative du livre est sans doute la plus intéressante. Elle met l’accent sur les difficultés de réalisation d’une théorie physique unitaire.
- Précis de Physique générale, par R. Kronig. Traduit du hollandais et adapté par M. Y. Bernard. Tome I : Mécanique physique. Thermodynamique. 1 vol. 16 x 25, 416 p., 215 fig. Dunod, Paris, 1960. Prix : 28 WF.
- Sous la direction de M. Kronig de Delft, un groupe de professeurs néerlandais ont rédigé un traité de physique dans un esprit très moderne ; un groupe de physiciens du Laboratoire de Radioélectricité de la Sorbonne, sous la direction de M. Y. Bernard, ont traduit et adapté cet ouvrage aux besoins nouveaux des étudiants de licence définis dans les programmes de 1958. Une série d’exercices complète chaque chapitre
- LA NATURE PLASTIFIÉE
- ENROBAGE DE SPÉCIMENS BIOLOGIQUES
- dans résine artificielle claire comme du cristal
- CHEZ VOUS
- Demandez renseignements pour colis d’essai avec instructions
- Joindre enveloppe timbrée avec adresse S.V.P
- INTERNATIONAL PLASTIC RESEARCH B. P. 03 CONTES (A.-M.)
- (sans solutions toutefois...) de ce premier tome consacré à la mécanique physique, aux vibrations et aux ondes, à la théorie atomique de la chaleur et de la thermodynamique. Signalons que l'ouvrage emploie le système d'unités MKSA Giorgi.
- Étude expérimentale de l'écoulement turbulent dans un divergent bidimensionnel parcouru par de l’air, par Jean-Pierre Milliat.
- I vol. 18x27, 134 p., 76 fig. Publ. Scient, et Techn. du Ministère de l’Air, Paris, décembre 1957. Prix ; 20 WF.
- L’écoulement bidimensionnel turbulent est étudié expérimentalement dans un divergent d’angle 2, 4 et 6 degrés. Un régime d'équilibre est mis en évidence dans la partie aval de la tuyère, après une zone de transition. Étude des fonctions spectrales des fluctuations de vitesse et des intermittences du régime d’écoulement au voisinage de la paroi.
- Photopiles au sélénium, par G. Blet. 1 vol.
- II x 16, 164 p., 73 fig. Monographies Dunod, Paris, 1959. Prix, relié toile souple : 11 WF.
- Les appareillages photoélectriques se développent dans toutes les branches de l’industrie et on trouvera dans cette monographie, après un aperçu historique sur les phénomènes photoélectriques et le sélénium, un exposé des théories modernes sur le fonctionnement des photopiles au sélénium et leur fabrication industrielle. Les deux derniers chapitres, partie la plus importante de l’ouvrage, traitent des propriétés et de l’emploi des photopiles. Tous les montages proposés ont été l’objet d’essais et de contrôles en laboratoire. Livre destiné surtout aux utilisateurs, mais que l’étudiant peut lire avec profit.
- About Chemistry, par Magnus Pyke. 1 vol.
- 14.5 x 23, vm-219 p., 68 fig. Oliver and Boyd, Londres et Edimbourg, 1959. Prix, relié : 18 sh.
- Bien qu’il soit un lieu commun de dire que la chimie prend de plus en plus d’importance dans la vie moderne, qu’elle est au fond de toutes choses, qu’un pays important doit disposer d’une industrie chimique florissante, beaucoup de gens, même cultivés, ignorent ce qu’est la chimie et le rôle des chimistes. Loin de prétendre former un chimiste par la lecture de ce petit ouvrage, l’auteur voudrait qu’il permette à tout honnête homme de jeter un pont entre ce qu’il a appris sur la chimie lors de ses études et le rôle actuel de cette science appliquée, qu’il se rende compte des bases essentielles de celle-ci et qu’il voie par quelles méthodes le chimiste est à même d’élaborer tous ces produits que chacun de nous utilise chaque jour.
- Vistas in free-radical chemistry, pulbié sous la direction de W. A. Waters. 1 vol.
- 17.5 x 25,5, vin-251 p. Pergamon Press, Londres, 1959. Prix, relié : 75 sh.
- Volume consacré à l’œuvre de Morris S. Kha-rasch (1895-1957), dont les travaux ont apporté une contribution importante à la chimie des radicaux libres ; on y trouve un exposé de ses recherches, certains mémoires précédemment publiés par cet auteur ainsi que des mémoires originaux de ses élèves et amis.
- The structure and properties of porous materials, édité par D. H. Everett et F. S. Stone. 1 vol. 19 x 25,5, xiv-389 p., fig. Butterworths Scientific Publications, Londres, et Academie Press, New York, 1958. Prix, relié toile : 60 sh ; édition américaine : 12 dollars.
- La Société de Recherches Colsson organise chaque année un symposium qui, en 1958, a été consacré à la structure et aux propriétés des matériaux poreux. 16 communications présentées à ce Colloque, qui traitent toutes des questions d’une grande actualité : on sait en effet que la structure des solides, sujet très complexe, fait actuellement l’objet de nombreuses recherches.
- Japanese Potassium Symposium. 1 vol. 14 x 21, 140 p., fig. Institut international de la Potasse, Berne, 1958. Broché.
- Neuf publications présentées en 1957 à Tokio au 1er congrès nippon sur la potasse. Plusieurs mémoires concernent la culture du riz, le tabac, les arbres fruitiers, etc.
- p.445 - vue 448/558
-
-
-
- GAUTH I ER-VI LLARS 55, quai des Grands-Augustins
- ÉDITEUR PARIS-6e
- ATLAS DU CIEL
- Par V. de CALLATAY
- Le premier atlas en langue française d’une conception entièrement nouvelle :
- — 36 grandes planches, à fond noir, couvrant ensemble la totalité de l’Univers.
- — 45 cartes complémentaires représentant, dans leurs délimitations, chacune des 88 constellations existantes.
- — Des textes succincts, commentant les caractéristiques de chaque région céleste représentée.
- — Vingt-six théories élémentaires sur les principales questions qui intéressent l’Astronomie.
- — Des tableaux synoptiques facilitant la recherche des constellations parmi les différentes planches et cartes.
- •— La reproduction de 12 photographies prises au télescope.
- Cartonné 24 X 32 cm 45 NF
- L’ÉNERGIE NUCLÉAIRE
- Par Marc LEFORT
- Ce livre s’est fixé pour but de permettre à un très large public de comprendre en quoi consiste l’énergie nucléaire. Il s’adresse à tous ceux qui s’intéressent à l’essor extraordinaire de la science moderne mais qui n’ont pas été préparés par des études spécialisées à aborder directement les textes scientifiques.
- 2e édition revue et augmentée, 150 p., nombreuses figures. 15 NF
- VOIES NATURELLES ET BASES DES MATHÉMATIQUES
- Initiation nouvelle
- Par Ervand G. KOGBETLIANTZ
- Cet ouvrage, consacré à des sujets élémentaires, présente les notions fondamentales des Mathématiques et expose les faits saillants et les raisonnements d’arithmétique, algèbre, géométrie et trigonométrie de manière à rendre tangible l’unité essentielle des mathématiques. L’attention du lecteur est dirigée d’abord vers l’enchaînement des idées et l’analyse des notions, les détails et les règles opératoires venant en second lieu.
- Tome I. — Algèbre et analyse, 576 pages................... 39 NF
- Tome II. — Géométrie (en préparation)
- NOUVELLE CARTE DU CIEL
- Par Robert CHANGEUX
- Chaque étoile intéressante est accompagnée de ses principales caractéristiques tandis qu’une série de tableaux et de graphiques annexés groupent. les renseignements les plus variés, le tout dans une présentation attrayante et pratique.
- Carte 55 X 75 cm, sous couverture imprimée................ 12 NF
- Pergamon
- OXFORD LONDRES
- ~~ LA FACE CACHÉE
- Texte de l’Académie des Sciences de TU.R.S.S.
- Traduit de l’anglais par Hugo FOURNIER
- L’ouvrage présente les photographies obtenues grâce à la station interplanétaire lancée le 4 octobre 1959. Ces images historiques et les autres investigations scientifiques faites durant le vol ont fourni une quantité d’informations inaccessibles jusqu a présent. Ce volume donnera des précisions sur la structure de la station, les moyens qui ont permis le contrôle et l’iililisation de l’appareil, l’orbite et les problèmes de calcul associés, la "photographie et la transmission des images et l’interprétation des images obtenues.
- 36 Pages 25 X 20 cm 7,50 N F
- BEYOND THE PLANET E A RT H
- Par Konstantin TSIOLKOVSKY Traduit du russe par K. SYERS — Texte en langue anglaise
- Une remarquable science-fiction écrite en 1920 sur le voyage dans l’espace. L’auteur, un autodidacte passionné, a publié dès 1903 un ouvrage intitulé L'exploration de l'espace par les fusées, tandis que son troisième livre paru en 1929, sur les fusées a plusieurs étages, fixait les bases théoriques d’un procédé qui est devenu une réalisation courante.
- La vision de K. Tsiolkovsky est qomparable à celle de II. G. Wells et de J. Verne mais, grâce h sa formation scientifique plus poussée, l’auteur aborde le sujet d’une manière plus raisonnée. Beyond the Planet Earth est d'une actualité étonnante.
- 190 Pages 13,50 N F
- PLANETARY AND SPACE SCIENCE
- Rédacteur en Chef : Milton GREENBERG, U.S.A.
- Rédacteurs régionaux : M. NICOLET, S. K. MITRA, D. F. MARTYN, C. E. PALMER, F. L. WHIPPLE
- Premier organe international réunissant des articles concernant la haute atmosphère, l’espace interplanétaire, la physique solaire et la physique des météores, la zone de transition atmosphère-espace extra-terrestre et la « géophysique » des planètes et satellites naturels.
- Sous la direction d’un comité de rédaction international, il assure notamment la dissémination rapide des résultats de l’Année Géophysique Internationale.
- Souscription A.......... 119 NF par volume
- — B.................. 89,25 NF par an pour les personnes certifiant
- l’usage personnel de la revue.
- Press
- NEW YORK
- DE LA LUNE
- 24, rue des Écoles PARIS-5*
- p.446 - vue 449/558
-
-
-
- Potassium Symposium 1958. 1 vol. 16 x 23, 428 p., fig. Institut international de la
- Potasse, Berne, 1959. Relié.
- On a réuni dans ce volume les douze communications présentées au 6B Congrès de l’Institut international de la Potasse qui s’est tenu à Madrid en 1958, et dont le thème général était : le potassium et l’eau.
- Advanced propulsion Systems, édité par Morton Alpekin et George P. Sutton. 1 vol. 17,5 x 26, 278 p., 75 fig. Pergamon Press Ltd., Londres et New York, 1959. Prix, relié : 45 sh. ou 6 dollars.
- Communications faites au premier symposium sur le développement des systèmes de propulsion, du moins celles de ces communications qui n’ont pas été classées documents secrets. Exposés sur les moteurs ioniques, magnéto-hydrodynamiques, sur la propulsion solaire, les radicaux libres et sur les propergols à haute énergie. Comparaison de ces différents systèmes et perspectives qu’ils ouvrent dans le domaine de l’astronautique.
- Plant Pathology, publié sous la direction de J. G. Horsfall et A. E. Dimond. Volume II : The pathogen. 1 vol. 15 x 23, xiv-715 p., fig. Academie Press, New York et Londres, 1960. Prix, relié : 22 dollars.
- Faisant suite au volume I déjà paru et qui traitait de La Plante malade, le volume II est consacré au Pathogène. On a plaisir à constater que ce traité en cours d’achèvement conserve son originalité : de même qu’aucune plante atteinte d’une maladie particulière n’était étudiée séparément dans le- premier volume, dans celui-ci aucun agent pathogène n’est considéré séparément. Ce sont les principes de la pathologie végétale que les nombreux auteurs de ce traité international veulent établir. Quand le troisième et dernier volume aura exposé les grands problèmes de Vlnoculum et des Populations malades, les chercheurs spécialisés disposeront d’un guide d’une rare élévation d’esprit. L’ouvrage est stimulant pour tous les biologistes, notamment ceux que préoccupent les problèmes écologiques, mais l’étudiant fera bien d’aborder chacun de ces livres avec circonspection. — L. T.
- Principles of Paleobotany, par William C. Daiuiaïi. 2e édition. 1 vol. 15 x 23, vui-295 p., 63 fig. The Ronald Press Company, New York, 1960. Prix, relié : 6,50 dollars.
- Entre les deux éditions de ce livre dédié à la mémoire du grand paléobotaniste français Paul Bertrand, vingt années ont apporté des changements importants aux idées classiques sur
- Fhistoirc et révolution du monde végétal : une vaste flore carbonifère a été étudiée aux Etats-Unis grâce aux « coal-balls « qu’on y a découverts ; d’incontestables microfossiles végétaux ont été reconnus dans des roches d'âge cambrien ou meme antérieur ; le Trias a fourni des Angiospermes ; les conifères mésozoïques ont été réétudiés dans une nouvelle perspective évolutive ; des groupes de Gymnospermes et de plantes vasculaires primitives autrefois inconnus ont jeté un doute sur des théories devenues presque populaires. De toutes ces nouveautés l’auteur rend compte en conservant cependant à son livre les cadres classiques et la présentation allégée qui en font avant tout une introduction a l’usage des étudiants. Les figures, nombreuses, sont presque toutes des reconstitu-lions totales des végétaux représentés ; un choix de « paysages » végétaux du passé, parmi les meilleurs qui aient été réalisés, est également reproduit. Bien que le texte comprenne des considérai ions anatomiques, celles-ci ne sont nulle part illustrées par des figures même schématiques. Sans doute l’auteur a voulu éviter au maximum la technicité. Une bibliographie limitée mais soigneuse permet au lecteur d’atteindre soit les grands textes classiques, soit des «articles récents concernant les grandes questions à l'ordre du jour. — L. T.
- Atlas d’Histologie animale, par J. Corset, professeur à la Faculté française de Médecine
- A NOS LECTEURS
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6C
- se tient à la disposition d6s lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- de Beyrouth. Préface de R. Balland, professeur agrégé de sciences naturelles, président d’honneur de l’Union des Naturalistes. 1 vol. 25 x 32, 208 p., 81 planches comprenant
- 336 microphotographies et 97 dessins. N. Boubée, Paris, 1960. Prix, en cahiers de 4 pages sous cartable riffidex : 80 NF ; sous reliure pleine toile : 100 NF.
- Cet atlas est isssu d’une sélection, principalement parmi les microphotographies de coupes d’histologie que l’auteur a prises dans son laboratoire au cours des récentes années, et qui sont d’une qualité remarquable. Trois parties : cytologie générale, étude des tissus, étude des organes. Ils intéressent surtout les Mammifères et: occasionnellement l’Homme, Les photos des deux premières parties sont accompagnées de dessins qui en facilitent l’interprétation pour les débutants. Les commentaires des figures ont été inclus dans un texte plus général qui, sans prétendre constituer un abrégé d’histologie, est des plus utiles. L’ouvrage correspondait certainement à un besoin de notre enseignement et on peut croire, avec le professeur Balland, qu’il rencontrera un accueil des plus favorables aussi bien auprès des maîtres et élèves des classes terminales du second degré ou des classes de propédeutique biologique qu'auprès des professeurs et étudiants eh Biologie ou en Médecine.
- A la poursuite du Coelacanthe, par J. L. B. Smith. Trad. de l’anglais par Denise Meunier. 1 vol. 14 x 19, 326 p., 26 illustrations dont 18 hors texte. Plon, Paris, 1960. Prix, relié toile : 15,40 NF.
- L’histoire de la découverte du Cœlacanthe, édifiante à divers points de vue et en tout cas passionnante par ses extraordinaires péripéties, nous est contée par son héros principal, le professeur Smith. Un article de La Nature (juin 1957, p. 236-242) l’a déjà résumée d’après L’édition anglaise de l’ouvrage. Rien n’est plus révélateur du caractère et de la valeur des hommes que de les voir aux prises dans une aventure de ce genre. Malgré tous ses efforts, M. Smith n’eut en sa possession que deux exemplaires très abîmés. Quand il alla chercher le deuxième en avion aux Comores, beaucoup de Français mal informés y virent une atteinte à une propriété nationale. C'est pour cela sans doute que J. L. B. Smith ne put être associé à l’étude de ces poissons qu’il avait eu pourtant le mérite exceptionnel d’identifier et de localiser. La Science n’a pas encore acauis vraiment le caractère international qu’on célèbre souvent.
- Le cerveau et la conscience, par Paul Ciiatj-ciiarb. 1 vol. 12 x 18, 190 p., dessins et photos. Collection Le Rayon de la Science. Editions du Seuil, Paris, 1960. Prix : 4,50 NF.
- Une petite somme élémentaire de ce que l'on sait aujourd’hui de la structure et du fonctionnement du cerveau. Le cerveau humain étant décrit dans ses principaux détails, il est comparé à celui des divers animaux, et il est donné une idée de son embryologie. On fait ensuite connaissance avec les méthodes modernes qui ont permis d’analyser le fonctionnement cérébral et d’édifier une neurophysiologie du comportement. Mais selon le docteur Chau-chard, cette neurophysiologie ne saurait être « totalitaire » ; indispensable pour accéder à la compréhension de la conscience, elle laisse la place à la réflexion philosophique. L’auteur, en le sait, n’est pas matérialiste.
- L’INDUSTRIE ATOMIQUE
- EN FRANCE ET DANS LE MONDE
- PAR
- C. BENOIT
- EXTRAIT DE LA REVUE « PERSPECTIVES »
- vni-159 pages 15 x 22, avec 22 figures. 1959. Broché sous couverture illustrée ............................ 8,80 NF
- En vente dans toutes les bonnes librairies et chez
- Éditeur, 92, rue Bonaparte, Paris-6". DAN 99-15.
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d’État
- Brevets de Techniciens d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- p.447 - vue 450/558
-
-
-
- 448
- Essais en vol, par J. Renaudie. 2e édition.
- Tome I : Étalonnages, Performances. 1 vol.
- 16 x 25, 212 p. Tome II : Qualités de vol.
- 1 vol. 16 x 25, 184 p. Dunod, Paris, 1960.
- Prix, les deux vol., brochés : 39 NF.
- Cours professé aux élèves de l’École du Personnel navigant d’Essais, et comme tel s’adressant principalement à ceux qui travaillent sur les avions, que ce soit dans les bureaux d’études ou sur les pistes. Il intéressera pourtant tous ceux qui, passionnés d’aviation, veulent savoir comment on évalue les performances des avions. La lro partie donne les lois de mécanique du
- vol et d’aérodynamique qui régissent le comportement des avions. La 2a expose de quelle façon et suivant quelles modalités doivent être exécutés les vols d’essai. Enfin la 3e exyose comment l’on passe des mesures brutes aux résultats numériques et aux courbes qui traduisent les performances et les qualités de vol. Ce livre tient compte de tous les perfectionnements apportés aux méthodes d’essais pour s’adapter à la vitesse toujours plus grande des avions modernes.
- 128 p., 4 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, i960. Prix : 2 NF.
- Après avoir étudié la conquête et la mise en 'valeur du sol et le bilan agricole du Benelux, puis les ports et transports et les problèmes d’harmonisation qu’ils posent, l’industrie, les ' équilibres régionaux et les concurrences, les , auteurs concluent que, malgré le Marché Commun, le Benelux ne perdra pas sa raison d’être avant de longues années.
- Énergie 1946-1959 (Bibliographies de la Hauts Autorité, n° 20). 1 vol. 21 x 30, 22 p. Communauté européenne du Charbon et de l’Acier.
- Liste bibliographique très étendue d’articles parus sur l’Energie, classés sous deux rubriques : Problèmes communs aux différentes sources d’énergie ; Études par source d’énergie.
- L’ingénieur et les problèmes commerciaux et législatifs de l’entreprise, par J. Radix. 1 vol. 14 x 22, 104 p. Dunod, Paris, 1960. Prix, broché : 6,50 ISF.
- Même s’il est décidé, a priori, à se cantonner dans une spécialité purement technique, l’ingénieur doit posséder, au moins superficiellement, d’autres notions telles que le Droit, la Comptabilité générale, les Questions sociales, etc. C’est si vrai que la quasi-totalité des écoles d’ingénieurs ont institué des conférences destinées à sensibiliser leurs élèves aux problèmes que soulève la gestion des entreprises modernes. On trouvera ici : 1° l’analyse du prix de vente, le chèque, la lettre de change ; 2a salaires, durée du travail, délégués du personnel, comité d’entreprise, rôle de l’inspecteur du travail ; 3° résumé de droit commercial où sont examinées en particulier les diverses sortes de société commerciale et les obligations du commerçant. L’ouvrage, par endroits un peu succinct, est surtout un aide-mémoire.
- Die Sonnenuhren, par L. M. Loske. 1 vol.
- 12x19, 88 p., 58 fig. Collection Verstandliche Wissenschaft, Springer Verlag, Berlin, 1959. Prix, relié : 7,80 DM.
- Petit exposé historique et technique sur les cadrans solaires. Précisions théoriques très complètes sur la réalisation et l’installation des différents types de cadrans solaires. Nombreuses photographies de chefs-d’œuvre anciens et de réalisai ions modernes dont certaines sont dues à l’auteur.
- Vistas in Astronautics, vol. 2, édité par M. Alperin et II. F. Gregory. 1 vol. 19 x 25 cm, x-318 p., fig. Pergamon Press, Londres, 1959. Prix, relié : 105 sli.
- Cet ouvrage contient les communications présentées au 2° Congrès annuel d’astronautique qui eut lieu en juillet 1958. Les articles presque tous relatifs à des projets de recherche spatiale plutôt qu’à des réalisations, étant donnée la date de ce Congrès, ont cependant un très grand intérêt dans l’ensemble. Relevons en
- particulier un grand article consacré à la reconnaissance photographique de Mars, plusieurs autres sur la propulsion par jets de plasma (encore actuellement au stade expérimental),
- d’autres sur la physiologie de l’espace, elc. Enfin, près de 60 pages sont consacrées à la Lune, et contiennent un article de Kuiper illustré d’admirables photographies.
- Le berger belge. 1 vol. 13,5 x 18,5, 32 p. Crépin-Leblond, Paris, 1959. Prix : 2,10 NF ; franco : 2,40 NF.
- Dans le cadre de la petite collection Votre ami où sont étudiées les races de chiens les plus prisées, voici tous renseignements sur le berger belge.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Le Benelux, par François Gay et Paul Wacret agrégés de l’Université. 1 vol. 11,5 x 17,5
- a or sert//ce du dess//? fecf?/?/aue
- 1929
- Brevets
- 1959
- ECRIFIX de LUXE
- avec cannelures
- PORTE-MINE de PRÉCISION
- ECRIFIX
- Æ Ù?>tglA£._
- technograph
- CARAN D'ACHE crée un porte-mine breveté de précision à l’usage du dessin technique et de l’écriture.
- Les ECRIFIX CARAN D'ACHE sont toujours les meilleurs et les plus appréciés des porte-mine a longue mine.
- 7 POINTS de SUPÉRIORITÉ font de l'ECRIFIX de LUXE l’instrument de dessin le plus réputé.
- CRAYONS et MINES
- TECHNOGRAPH
- au GRAPHITE “ mtcromsé ?. Son grain quasi colloïdal donne à la mine des qualités inégalées et tout spécialement une densité du trait permettant des reproductions hélio aussi nettes qu’à l’Encre de CHINE.
- En COULEURS, Crayons PRISM ATEC et Mines PRISMA offrent les memes avantages.
- Trait de mine TECHNOGRAPH (Grossi 30 fois)
- Trait de mine X (Grossi 30 fois)
- La PINCE FIX
- Fa jamais été égalée Elle serre la mine comme un étau
- DISTRIBUÉ par CORECTOR - ADHÉSINE
- CH J. EM ON N! £ fî 10-6
- Le gérant : F. Dunod. — dunod, éditeur, paris- — dépôt légal : 4e trimestre i960, n° 3528. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, N° 4lÜ2. — ro-1960.
- p.448 - vue 451/558
-
-
-
- N° 3307
- Novembre I960
- N ATU R F
- a Relativité générale vérifiée pour la première fois au laboratoire
- grâce à P <( effet Mossbauer »
- Au contraire de la Relativité restreinte, employée chaque jour dans d’innombrables laboratoires, enseignée aux étudiants dans les facultés, la Relativité générale est une théorie très peu utilisée, car jusqu’à ce jour seuls quelques phénomènes astronomiques de faible ampleur en étaient justiciables. On conçoit alors le grand intérêt qui s’attache à une première vérification terrestre de la Relativité générale, tant à cause du contrôle serré des conditions expérimentales, contrôle qui nous échappait alors bien évidemment, que pour la finesse des moyens employés. Signalons enfin que depuis quelques années la Relativité générale suscite dans le monde scientifique un fort regain d’intérêt, sans doute lié aux insuccès relatifs des théories quantiques.
- Une expérience très importante, mettant en évidence pour la première fois sur Terre un effet prévu par la Relativité générale, vient donc d’être réalisée dans divers pays, notamment à l’Université Harvard, aux États-Unis, par MM. Robert Y. Pound et Glen A. Rebka (Physical Review Letters, ier avril i960). Avant d’en faire la description, nous pensons qu’il n’est pas inutile de rappeler les fondements de la Théorie de la Relativité.
- Les théories de la Relativité
- On sait que la Relativité comprend en fait deux théories distinctes : la Relativité restreinte, qui répondait aux nécessités impérieuses de l’expérience et permit de réconcilier en 1905 la Mécanique et l’Électromagnétisme en renouvelant les anciens concepts newtoniens d’espace et de temps; la Relativité générale qui tout au contraire précéda l’expérience et dont l’élaboration vers igi5 était issue d’un désir logique de généraliser les conceptions particulières de la Relativité restreinte, tout en créant une théorie de la gravitation.
- La Relativité restreinte. — Il est de fait qu’un enfant peut jouer aux billes à l’intérieur d’un train se déplaçant à i4o km/h sur une voie rectiligne, aussi bien que sur la terre ferme. Par contre, qu’une courbe se présente ou que le train soit énergiquement freiné et chacun imagine assez bien ce qu’il advient du joueur et de ses billes. Doué de fortes aptitudes scientifiques, l’enfant ne peut manquer d’être frappé par cette identité de comportement, et d’attribuer une même siuation privilégiée au sol et au train lorsque ce dernier est animé d’un mouvement de translation uniforme. Ceci par opposition aux cas de la courbe ou du freinage.
- Rien avant les chemins de fer, la Mécanique naissante avait relevé des faits analogues et s’en était servi à deux fins. Tout d’abord pour définir ce que nous appelons maintenant un système de Galilée : système de référence ne tournant pas sur
- lui-même et animé dans l’espace d’une vitesse constante en grandeur et en direction. C’est, si l’on veut, une sorte de « train parfait » soustrait à certaines perturbations qui affectent les vrais trains (secousses et trépidations bien sûr, et d’autres comme celle résultant de la rotation de la Terre sur elle-même) et qui les empêchent d’être des systèmes de Galilée rigoureux.
- La Mécanique avait ensuite élevé au rang de principe l’observation sedon laquelle les phénomènes mécaniques se déroulent et se décrivent de manière identique à l’intérieur de chaque système de Galilée, quelle que soit sa vitesse de translation dans l’espace. Le Principe de Relativité, au sens de Galilée, s’énonce alors : Les lois de la Mécanique sont les mêmes dans tous les systèmes de Galilée. Ou encore : Il est impossible, par une expérience de Mécanique faite à l’intérieur d’un système de Galilée, de mettre en évidence le mouvement de celui-ci dans Vespace. On comprend la raison pour laquelle ce principe est dit de « relativité » puisqu’un mouvement de translation uniforme ne peut être déterminé que relativement à un système de référence extérieur, par exemple en tendant la main par la fenêtre du train pour sentir le mouvement par rapport à l’air.
- Reste évidemment un point important : ayant posé en principe l’existence d’une infinité de systèmes de référence privilégiés, la Mécanique se doit maintenant d’assurer une description cohérente de l’Univers en permettant aux physiciens qui occupent ces systèmes de confronter leurs observations d’un même phénomène mécanique et de trouver un résultat identique. Il faut donc, à l’aide de relations mathématiques, rattacher les systèmes de Galilée les uns aux autres. S’appuyant sur les notions d’espace et de temps qu’elle avait élaborées, la Mécanique fournit la réponse sous la forme du Groupe de Galilée. Cette dénomination ne cache aucun mystère, puisque tout écolier qui sait résoudre les « problèmes de trains », ou bien ceux « de cyclistes et de piétons » les connaît. Il sait en particulier que lorsque les mouvements de translation sont parallèles, la vitesse relative s’obtient en ajoutant ou en retranchant, selon leurs sens respectifs, les vitesses « absolues »; ceci est la loi d’addition des vitesses. Outre ce genre d’opération élémentaire, les relations de Galilée permettent de calculer de nombreux phénomènes, par exemple la variation de la hauteur apparente d’un son selon le mouvement de la source sonore (effet Doppler-Fizeau acoustique), effet bien connu qui explique le changement de tonalité du sifflet d’un train selon qu’il s’approche ou s’éloigne de nous.
- Vers 1880, l’Électromagnétisme, qui régissait alors avec la Mécanique l’ensemble de la Physique, se posait de son côté la question de savoir si pour lui aussi existaient un ou plusieurs systèmes de référence privilégiés à l’intérieur desquels les phénomènes électromagnétiques, et donc optiques, puissent se
- p.449 - vue 452/558
-
-
-
- 450
- décrire de façon identique. Mais le problème était ici plus compliqué qu’en Mécanique, à cause en particulier de la loi de propagation des phénomènes électromagnétiques : on avait de fortes raisons de croire que la lumière se propage dans le vide avec une vitesse constante c indépendante de celle de la source lumineuse, comme l’observation des étoiles doubles le prouve. Et cette loi fort simple était incompatible avec les principes de la Mécanique, ainsi qu’Einstein devait le montrer plus tard, vingt-cinq ans après que la Physique eût pris conscience de cette contradiction interne grâce à l’expérience de Michelson, vingt-cinq ans pendant lesquels dura le premier « scandale » de la Physique contemporaine.
- De quoi s’agissait-il ? Quand une source lumineuse se déplace à la vitesse v dans le vide (la vitesse de la lumière dans le vide étant par ailleurs égale à c), la vitesse de la lumière par rapport à la source devrait être de c — v, ou de c + v selon qu’on la mesure dans la direction dn mouvement ou dans la direction opposée : conséquence inéluctable de la loi d’addition des vitesses de Galilée. Or il n’en est rien : l’expérience montre que la vitesse de la lumière par rapport à la source est toujours égale à c, dans chacune des directions...
- Face à ce résultat incompréhensible, deux possibilités restaient aux physiciens : ou bien rejeter la loi d?addit.ion des vitesses issue de la Mécanique, ce qu’ils n’osèrent pas faire car il leur semblait, à tort d’ailleurs, que cette loi reposait sur le principe de Relativité et qu’on ne pouvait ainsi détruire l’une sans renverser l’autre; ce qui était une chose impensable, car trois siècles de succès assuraient à ce principe une position particulièrement solide. Ou bien alors, et c’est, dans cette direction que les recherches portèrent, remettre en cause la loi de propagation de la lumière. A ces recherches est associé le nom du grand physicien hollandais Lorentz qui prouva que l’espoir de trouver une solution dans cette voie était vain, et que bien au contraire la constance de la vitesse de la lumière dans le vide était une propriété absolument nécessaire pour sauvegarder la cohérence de l’Électromagnétisme !
- Parler de « cruel dilemme » serait encore bien faible pour représenter l’état d’esprit des physiciens devant cette situation. Des trésors d’ingéniosité furent déployés pour tenter d’en sortir, efforts aujourd’hui bien oubliés puisque Einstein apporta la solution définitive en igo5. Comment? En montrant à l’aide d’une subtile analyse que la loi d’addition des vitesses ou plus généralement le groupe de Galilée n'était pas une conséquence du Principe de Relativité, et que bien loin de rejeter celui-ci, on devait au contraire en augmenter encoi’e l’importance en ne le bornant plus aux seuls phénomènes mécaniques, mais en l’étendant à toute la Physique, l’ÉlectromagnéLisme en particulier. En effet, que la viLesse de la lumière dans le vide ou par rapport à la source soit toujours égale à c est bien conforme au Principe de Relativité qui veut que le phénomène se décrive de la même façon (même vitesse) dans ces deux systèmes de Galilée.
- Le Principe de Relativité au sens d’Einstein, ou Principe de Relativité restreinte, par opposition au principe ultérieur de Relativité générale, s’énonce alors : Les lois de la Physique sont les mêmes dans tous les systèmes de Galilée. Ou encore : Il est impossible par une expérience de Physique faite à l’intérieur d'un système de Galilée de mettre en évidence le mouvement de celui-ci dans l'espace.
- Donc, ainsi que nous le disions plus haut, le groupe de Galilée n’est pas fondé sur le Principe de Relativité, et c’est lui qui doit être impitoyablement chassé de la Physique. Le groupe de Galilée est en effet la conséquence des seules notions newtoniennes de temps et d’espace absolus, notions chimériques puisqu’elles reposent sur l’idée de vitesse infinie, alors que la Physique expérimentale ne connaît que des vitesses finies dont la plus rapide est celle de la lumière. Einstein postule alors que cette vitesse constante c (dans le vide) est effectivement une
- vitesse limite en Physique et qu’aucun phénomène ne peut se propager plus rapidement que la lumière.
- Ce postulat et le Principe de Relativité restreinte fournissent maintenant à Einstein le moyen de déterminer facilement les nouvelles formules de transformation qui remplacent le groupe de Galilée : ce sont les formules dites de Lorentz qui permettent une description cohérente de l’univers physique en rattachant sans contradiction les mesures faites dans les systèmes de Galilée différents.
- En ce point, la Relativité restreinte a atteint son but. Qu’on nous laisse cependant rappeler brièvement l’une de ses conséquences les plus marquantes : la fondation d’une nouvelle géométrie qui doit obligatoirement se substituer à celle à laquelle nos sens sont habitués. En effet, si l’on appelle de manière générale « événement » l’ensemble des trois coordonnées d’espace et de la coordonnée de temps qui repèrent un phénomène dans l’instant, on ne peut pas caractériser l’intervalle qui sépare deux événements par leur distance spatiale du d’une part et par leur intervalle de temps df d’autre part. En effet, d’après les conceptions de la Relativité restreinte, chacune de ces quantités possède une valeur qui dépend du système de référence de l’observateur. C’est l’aspect relatif du temps et de l’espace en Relativité. Par contre, il existe une seule quantité dont la valeur soit intrinsèque, qui ne dépende donc pas du mouvement de l’observateur : c’est l’intervalle ds donné par (ds)2 = c2(d<)2 — (du)2. Cet intervalle appelé communément (ds)2 caractérise la géométrie de 1’ « espace-temps » de la Relativité restreinte, selon l’expression du mathématicien Minkowski. Notons, pour ceux qui voudraient visualiser cette structure géométrique de l’espace-temps, que l’homme ne peut la distinguer nettement de celle à laquelle ses sens sont habitués qu’à de très grandes vitesses proches de celle de la lumière. Dans quelques années, si l’Astronautique tient bien toutes ses promesses, les sceptiques pourront ainsi être convaincus.
- Pour terminer, sans qu’il soit besoin de s’étendre longuement sur toutes les conséquences de la Relativité restreinte, ni sur ses succès, rappelons brièvement que cette théorie a prévu l’augmentation de la masse des corps avec la vitesse (particules rapides dans les grands accélérateurs), l’équivalence de la masse inerte m et de l’énergie E (E — me2; libération de l’énergie nucléaire, annihilation et création de la matière),, certains aspects du temps relatif (durée de vie des „ mésons p.), etc.
- D’une merveilleuse fécondité, la Relativité restreinte n’est plus aujourd’hui une quelconque « théorie », mais un outil bien connu, chaque jour utilisé dans d’innombrables laboratoires, une discipline officiellement enseignée dans les facultés.
- La Relativité générale. — Si le lecteur nous a bien suivi, il a retenu que la Relativité restreinte est essentiellement fondée sur l’ancien principe de Galilée étendu à l’ensemble des phénomènes physiques, et sur le postulat que la vitesse de la lumière est une vitesse limite dans l’Univers. Avec pour conséquence importante que nous évoluons dans un espace-temps déterminé, et non pas séparément dans l’espace et dans le temps.
- Ceci est fort bien, mais on peut concevoir sans grand effort qu’Einstein n’ait pas été entièrement satisfait de cette première théorie. Deux raisons s’y opposaient en effet : en premier lieu, le Principe de Relativité accorde une situation privilégiée aux seuls systèmes de Galilée, et si ce privilège semble expérimentalement justifié, il n’en reste pas moins qu’il est logiquement désagréable d’avoir à distinguer, pour décrire la Nature, entre les systèmes galiléens et ceux qui sont soumis à une accélération. En second lieu, et il ne s’agit plus ici d’un scrupule ou d’une réticence intellectuelle, la Relativité restreinte apparaît comme un cadre limité puisque le très important phénomène de la gravitation lui reste extérieur, et la met même en défaut. Puisqu’en effet masse et énergie sont équivalentès, la lumière
- p.450 - vue 453/558
-
-
-
- 451
- qui est de l’énergie possède une masse, très petite certes, mais non nulle. Passant à proximité d’un astre, un rayon lumineux doit donc subir les effets de l’attraction universelle de Newton, être un peu dévié, donc ralenti. La loi de la propagation de la lumière ne peut donc être rigoureusement maintenue au voisinage de la matière.
- Il apparaissait ainsi nécessaire d’élaborer une nouvelle théorie qui assimilerait la gravitation et généraliserait si possible certains concepts de la Relativité restreinte. En ce qui concerne l’aspect traditionnel de la gravitation, notons tout de suite qu’une fois attribuée à chaque corps une « masse grave » ou « masse pesante », la formule de l’attraction universelle de Newton n’explique rien, mais se présente simplement comme une relation déduite des lois expérimentales de Képler. Quant à l’extension du Principe de Relativité, il se heurte en pratique à une objection très sérieuse. Si nous reprenons l’exemple de l’enfant jouant aux billes à l’intérieur d’un rapide, il est impossible de dire « qu’il ne se passe rien » lorsqu’une courbe se présente ou que le train freine : il apparaît une accélération dont la conséquence est d’entraîner plus ou moins violemment le joueur et ses billes, accélération qui perturbe le jeu et complique fortement ses lois par rapport au cas galiléen. On sait en effet que lorsqu’une accélération est appliquée à un corps, celui-ci subit une force proportionnelle à sa « masse inerte ».
- L’un des grands mérites d’Einstein est d’avoir rapproché les propriétés pesanteur et inertie de la matière et d’avoir remarqué qu’elles ne sont pas indépendantes mais liées au contraire par une relation très particulière : la masse pesante et la masse inerte d’un même corps sont égales. Et continuant son analyse, Einstein se pose la question de savoir s’il faut donc continuer à distinguer deux propriétés de la matière, l’inertie et la pesanteur, ou s’il faut au contraire les confondre en une seule et même propriété, se manifestant selon les cas comme inertie ou pesanteur. Dans ce but, Einstein se livre à une série d’ « expériences mentales » ayant pour acteur un physicien enfermé dans un train ou dans un ascenseur, et il montre que ce physicien ne peut pas distinguer entre une accélération imposée à son « laboratoire » ou l’application d'un champ de gravitation de forme particulière. On peut par exemple à l’aide d’une accélération convenable annuler (momentanément) le champ de la pesanteur terrestre, et le physicien enfermé dans son ascenseur doit supposer que les phénomènes qu’il subit sont dus à une seule et même cause variable dans le temps. La géniale induction d’Einstein va poser alors en principe que gravitation et inertie sont bien deux aspects différents d’un même phénomène, ou plus précisément que la gravitation est une traduction de l'inertie de la matière.
- Généralisant maintenant le Principe de Relativité à tous les systèmes de référence, et remarquant qu’appliquer une accélération c’est imposer à un système de référence (train, ascenseur, planète, etc.), un changement d'ordre géométrique puisque c’est le transporter d’une manière déterminée dans l’espace, en fonction du temps, Einstein va finalement relier la gravitation à la structure géométrique d’un nouvel espace-temps. Sans pouvoir ici reproduire les raisonnements et calculs d’Einstein, indiquons que la gravitation, qui était pour Newton une forme particulière d’interaction de la matière avec la matière liée à l’existence d’une « masse pesante » définie pour les besoins de la cause, se réduit pour Einstein à l'induction d'une structure géométrique dans l'espace qui avoisine chaque masse de matière; tout corps placé dans cette structure géométrique (que l’on peut encore appeler « champ de gravitation » en se conformant à l’usage ancien) va réagir en se déplaçant sur une trajectoire particulière, selon des lois de nature purement géométrique. En décrivant sa trajectoire curviligne, ce corps va subir des accélérations qui simuleront qualitativement celles jadis attribuées à l’attraction universelle de Newton. Mais eh fait, tout cela est lié à la nouvelle structure de l’espace-
- temps et l’on peut très grossièrement comparer ces accélérations à celles que subit un train dévalant sans contrôle le long de ses rails dans une région montagneuse, selon les caprices des courbes.
- Telles sont schématiquement les bases de la Relativité générale que, pour plus de clarté, nous allons rassembler. Le Principe de Relativité est étendu à tous les systèmes, qu’ils soient galiléens ou accélérés, et s’énonce alors : les lois de la Physique sont les mêmes dans tous les systèmes de référence, quel que soit leur état de mouvement. D’autre part, la structure géométrique de l’espace-temps (son (ds)2) est déterminée par la répartition de la matière et de l’énergie en son sein. Joints à certains principes très généraux comme celui de la conservation de l’énergie, ces deux postulats permettent de calculer finalement les formes possibles des lois de la Nature.
- Le retard des horloges dans un champ de gravitation.
- — Sans poursuivre dans cette voie, ce qui exigerait beaucoup de place et.un fort arsenal mathématique, bornons-nous à indiquer certaines conséquences remarquables de la Relativité générale en les rapprochant de celles de la Relativité restreinte. Dans celte dernière théorie, on ignorait le fait de la a gravitation », qui, nous le savons maintenant, déforme l’espace-temps autour de la matière. Dans cette perspective, l’espace-temps de la Relativité restreinte apparaît comme un espace-temps vide de matière dont la géométrie particulièrement simple (puisqu’elle est uniforme) ne peut se confondre avec celle de la Relativité générale que très loin des fortes masses de, matière. Au contraire, près de celles-ci, l’espace-lemps possède une courbure qui impose à la lumière et à la matière des trajectoires curvilignes et provoque en outre sur cette dernière l’apparition d’un « aspect gravifique ». Cette géométrie particulière produit aussi un effet très important sur les horloges : celles-ci ont une marche plus lente que dans une portion de l’espace de moindre courbure. C’est le phénomène nouveau de ralentissement des horloges dans un fort champ de gravitation.
- Une question peut venir ici à l’esprit du lecteur : pourquoi donc, si l’espace-temps possède effectivement une courbure non prévue par la Relativité restreinte, fait-on encore un tel usage de cette dernière alors qu’au contraire la Relativité générale est presque inemployée ? Pour deux raisons : d’abord, parce que les actions de gravitation sont extrêmement petites comparées aux forces nucléaires ou électromagnétiques, si petites qu’elles sont toujours parfaitement négligeables devant ces dernières en physique nucléaire ou en chimie, en physique des solides, en électronique, etc. On peut dire ainsi qu’un énorme secteur de la Physique échappe pratiquement à la gravitation. Ensuite, parce qu’en Mécanique, l’association bâtarde Relativité restreinte + loi de Newton fournit en pratique de très bons résultats et se présente donc dans la plupart des cas comme une excellente approximation.
- Ne restent que de très rares cas justiciables de la Relativité générale. D’abord, l’étude de l’Univers dans son ensemble, c’est-à-dire la Cosmologie, qui en est à un stade encore bien théorique (voir La Nature, janvier i960, p. 33-35). Ensuite l’élude de très petits effets à proximité de très grosses masses de matière comme on en rencontre en Astronomie. C’est là le domaine des trois vérifications déjà « classiques » de la Relativité générale : résidu de l’avance du périhélie des planètes les plus proches du Soleil, Mercure, Vénus, la Terre (Mercure fournit le résidu le plus élevé évalué à 42"6 par siècle, alors que la théorie donne 42"g) ; déviation des rayons lumineux passant au voisinage du Soleil (l’expérience fournit i"70 et la théorie i"75) ; déplacement vers les grandes longueurs d’onde du spectre des étoiles à forte gravitation (effet très petit pour le Soleil, bonnes vérifications pour les naines blanches). Les deux premiers de ces « effets Einstein » sont dus à la sensible courbure de Uespace-temps au voisinage du Soleil, le troi-
- p.451 - vue 454/558
-
-
-
- 452
- sième au ralentissement des horloges dans un fort champ de gravitation. Les deux derniers, peut-on dire aussi, vérifient à nouveau le fait que la lumière a une masse.
- Une horloge terrestre dont la variation avec l’altitude est mesurable
- Principe de l'expérience. — L’expérience réalisée par les chercheurs de Harvard porte sur ce second « effet Einstein » de variation des horloges avec la gravitation. Sur Terre, celle-ci n’est autre que la pesanteur dont l’intensité décroît avec l’altitude. Si donc on mesure les fréquences d’urte radiation émise lors d’une transition atomique ou nucléaire déterminée à deux altitudes différentes, on doit trouver une variation Àv des fréquences mesurées, dont la valeur relative est donnée d’après la
- Relativité générale par l’expression — = ~ A h, où v désigne
- la fréquence moyenne de la transition, Ah la différence des altitudes, g l’intensité moyenne de la pesanteur et c la vitesse de la lumière. Cette formule s’écrit numériquement
- — — 1,09. io~18 Ah (c.g.s.), ce qui montre qu’à une diffé-
- V
- rencë d’altitude de 10 m doit correspondre une variation relative de la fréquence d’environ xo~15. Cette valeur est si faible que sa mise en évidence va soulever de grandes difficultés. Mentionnons d’ailleurs que cet effet fut postulé par Einstein dès 1907, avant même que la Relativité générale ne soit arrivée à maturité et qu’il aura donc fallu plus de cinquante ans pour que les progrès de la Physique permettent de le déceler sur Terre.
- dans le fait suivant : l’énergie électromagnétique n’est jamais émise (ou absorbée.) sous forme de raie strictement monochromatique, mais s’étale au contraire autour de la fréquence v sur un certain intervalle dv de fréquences appelé largeur de la raie (fig. 1).
- On conçoit alors qu’une variation de fréquence de la raie ne puisse être détectée que si elle est supérieure à une certaine fraction de la largeur de la raie. En Optique par exemple, les raies les plus fines ont une largeur d’environ o,oo5 Â et les méthodes interférométriques différentielles permettent de mesurer une variation 10 fois plus faible. La situation est analogue dans le domaine des radiofréquences, quoique un peu plus favorable. La largeur des raies apparaît ainsi comme une limitation impérative, assez comparable à celle de la diffraction
- Intensité
- émise
- Fréquence
- Précision des horloges modernes. — Le choix d’une horloge de très haute précision est le problème capital. Rappelons que de récents progrès ont permis aux horloges à quartz d’atteindre une précision relative d’environ io~9 sur une durée de 24 heures et que quelques modèles atteignent même io~10. Ces performances, quoique remarquables, sont malgré tout insuffisantes et il faut se tourner vers d’autres techniques.
- Examinons alors ces « horloges » que sont les rayonnements électromagnétiques émis (ou absorbés) lors de transitions entre deux niveaux d’énergie d’atomes ou de molécules et rappelons que la fréquence v de la radiation électromagnétique est liée à la différence d’énergie des deux niveaux par la relation E —En = hv, où h est la constante de Planck. Dans le domaine des fréquences optiques, la précision relative n’est que de 10-7, donc inférieure à celle des horloges à quartz. Par contre, dans le domaine des radiofréquences, les « horloges atomiques » à jets de césium ou les « horloges moléculaires », maser à ammoniac par exemple, ont des performances supérieures (x). Ces deux modèles permettent actuellement d’atteindre des précisions relatives Av/v de l’ordre de io-11 pendant un jour, et d’environ io~12 pendant une heure.
- Il faudrait alors, dans la meilleure hypothèse, et ceci pour juste déceler l’effet Einstein, faire en moins d’une heure des mesures sur une base verticale de 10 km avec deux de ces appareils délicats, ce qui est pratiquement impossible. Aucune des horloges précédemment mises au point ne peut ainsi convenir.
- vi ♦
- Largeur des raies spectrales. — Avant d’indiquer la solution, il convient de s’interroger sur les causes profondes qui limitent la précision des horloges électromagnétiques, quelles que soient leurs fréquences. La réponse à cette question réside
- 1. Voir : Le « Maser », oscillateur et amplificateur moléculaire, par James Lequeux, La Nature, décembre 1957, p. 470-475 ; Une horloge atomique à césium construite en série aux États-Unis, par James Lequeux, La Nature, février 1958,^p. 54-55.
- Fig. 1. — Profil et largeur d’une raie d’émission.
- En trait plein, la raie telle qu’on l'observe, avec sa largeur réelle dy mesurée à mi-liauteur. Le profil hachuré représente celui de la raie non élargie, de largeur généralement bien plus faible que celle représentée ici.
- qui limite de manière fondamentale le pouvoir séparateur des lunettes et des microscopes en donnant d’un objet ponctuel une image étendue : deux objets ne peuvent être « séparés » que dans la mesure où leurs images ne se recouvrent pas trop. La largeur de la raie est ainsi une sorte de tache de diffraction dans le temps.
- Cette largeur dépend beaucoup des conditions dans lesquelles la raie est produite. On sait bien que la fréquence mesurée varie avec le mouvement de l’atome par rapport à l’observateur (effet Doppler-Fizeau). Or, les atomes sont toujours agités de mouvements désordonnés (agitation thermique) et les fréquences émises par de nombreux atomes vont être ainsi réparties sur un intervalle d’autant plus large que la température est plus élevée. Les chocs des atomes entre eux, avec des électrons ou contre des obstacles comme les parois d’un récipient, vont également contribuer à l’élargissement de la raie.
- A cette largeur expérimentale appelée largeur réelle s’oppose dans une certaine mesure la largeur naturelle, plus faible (fig. 1), que l’on observerait s’il était possible de produire la raie sans être « pénalisé » par des processus d’élargissement, par effet Doppler ou par collisions par exemple. Cette largeur naturelle qui ne dépend, elle, que des propriétés intrinsèques de l’atome émetteur, est donnée par la formule approchée dv = x/27tT, où t est la durée de vie moyenne de l’état excité de la transition (cette formule découle directement de la relation d’incertitude de Ileisenberg, qui relie la mesure de l’énergie au temps que dure cette mesure).
- En Optique ou dans le domaine des radiofréquences, les largeurs réelles sont très supérieures aux largeurs naturelles car il est impossible d’exciter un atome ou une molécule sans les placer dans des conditions d’élargissement. En Optique par
- p.452 - vue 455/558
-
-
-
- 453
- Va-et-vient de la source
- I
- Fig. 2.
- Schéma du dispositif de mesure du profil d’une raie d’absorption de résonance nucléaire.
- Explications dans le texte.
- exemple, les largeurs naturelles les plus faibles sont d’environ 0,001 Â alors que les largeurs réelles ne descendent jamais au-dessous de o,oo5 Â. La différence est bien plus grande dans le domaine des radiofréquences.
- On voit enfin que, pour constituer une horloge de très haute précision, il faudra s’adresser à de nouvelles transitions satisfaisant a priori aux conditions suivantes : largeur naturelle très faible (longue durée de vie de l’état excité); conditions d’excitation ou d’absorption telles que la raie ne soit que très peu élargie. Il existe de telles transitions, liées à la radioactivité.
- Absorption de résonance nucléaire
- Émission et absorption de résonance nucléaire. — Prenons le cas du fer. L’isotope Fe bq (environ 2 p. xoo dans le fer naturel) est transformé par irradiation dans un cyclotron en cobalt 57 par capture d’un positon par le noyau. Mais le Co bq est instable, et va donc retourner à l’état de Fe 57 stable après toute une série de désexcitations.
- En premier lieu, le noyau de cobalt bq expulse un positon et un neutrino (radioactivité p+) et redonne un noyau de fer 57.
- Mais ce noyau de fer que nous obtenons à nouveau n’est pas encore dans son état de stabilité maximale (état de moindre énergie) ; il est au contraire excité. Une nouvelle désexcitation va se produire maintenant, c’est-à-dire un retour à l’état fondamental, quand le noyau de Fe 57 abandonnera son trop-plein d’énergie en produisant une cascade de rayons y qui correspondent aux transitions entre les états successifs d’énergie interne du noyau. Le dernier photon y est émis lors de la transition qui fait passer le noyau de Fe 57 du dernier état excité à l’état stable final. C’est un y de i4,4 kiloélectron-volts, la durée de vie moyenne t de l’état excité étant par ailleurs de 0,1 p.s (un dix-millionième de seconde), valeur supérieure à celles qu’on rencontre en optique.
- Ces y peuvent être à leur tour absorbés par d’autres noyaux de Fe 57, l’absorption la plus marquée ayant toutefois lieu pour le y de i4,4 keV, d’où le nom de raie de résonance attaché à ce y- Ce phénomène d’absorption de résonance est tout à fait comparable à celui que l’on obtient par exemple en faisant
- absorber par de la vapeur de sodium contenue dans une ampoule la fameuse raie jaune émise par une flamme qui contient du sodium. Si l’on calcule la largeur naturelle de cette raie d’absorption de résonance du Fe 57 par l’expression dv/v = i/2tîvt, on trouve une valeur relative très petite, proche de 5.io~13.
- Le recul des noyaux. — Malheureusement, lorsqu’on a cherché à observer cette absorption de résonance dans des conditions usuelles en Physique nucléaire, on n’a pratiquement rien vu ! L’explication est la suivante : lors de l’émission ou de l’absorption d’un y, Ie noyau recule (conservation de la quantité de mouvement). L’énergie absorbée par le recul est, dans le cas de l’émission, empruntée aux ï4,4 keV de la transition et l’énergie du y émis en est diminuée d’autant.
- Le recul varie avec la valeur de la masse totale qui subit cet effet. Dans un réseau cristallin régulier où de forts liens unissent les atomes et les rendent solidaires, les énergies de recul sont faibles et peu dispersées. Par contre, si le réseau cristallin est irrégulier, présente de nombreuses lacunes, insertions, dislocations, etc., les énergies de recul sont plus grandes et de plus elles varient relativement beaucoup d’un noyau émetteur à un autre. Les fréquences des photons y émis couvrent alors un intervalle très supérieur à la largeur naturelle de la transition, et ceci d’autant plus que le cristal est plus chaud (élargissement Doppler en particulier).
- La situation étant similaire pour l’absorption, on imagine sans peine que seul un très petit nombre des y émis puissent être absorbés, et que la résonance ne puisse ainsi pas être décelée.
- L'ettet Môssbauer. — Le physicien allemand Môssbauer chercha à mettre en évidence l’absorption de résonance de l’iridium 191 en travaillant avec deux réseaux cristallins assez réguliers, refroidis à la température de l’azote liquide. La résonance tant cherchée se produit alors parce que suffisamment de y étaient émis puis absorbés sans recul (donc sans changement de fréquence) et que de plus l’élargissement Doppler était réduit par la basse température. Cette apparition de la résonance nucléaire dans ces conditions constitue l’effet Môssbauer, découvert en 1958.
- La mesure en est simple (fig. 2). Si nous revenons au cas du fer, la source est constituée d’un réseau de Fe 57 contenant du Co 57 et l’absorbeur, placé à quelque distance, d’un film cristallin de Fe 57. Derrière l’absorbeur, un cristal scintilla-teur d’iodure de sodium suivi d’un photomultiplicateur permet
- Taux de comptage
- Vitessedela
- source
- Fig. 3. — Profil brut de la raie d’absorption.
- Le vrai profil et la largeur réelle de la raie s’obtiennent à partir de ce profil, moyennant certains calculs.
- p.453 - vue 456/558
-
-
-
- 454
- de compter les pilotons, y non absorbés. En déplaçant à faible vitesse (quelques fractions de centimètre par seconde) la source par rapport à l'absorbeur, on déplace la fréquence par effet Doppler-Fizeau et on augmente donc le nombre des y non absorbés. En faisant varier cette vitesse de déplacement, on explore la raie de l’ésonance dont on peut tracer le profil en reliant le taux de comptage des y au déplacement Doppler-Fizeau de la fréquence (fig. 3).
- Des mesures semblables ont été faites l’année dernière par plusieurs groupes de chercheurs qui ont examiné les raies de résonance de nombreux éléments : Ir 191, \V 182, Fe 67, Zn 67, Au 197, etc. Celle du fer 5y est l’une des plus fines et Pound et Rebka ont pensé qu’elle permettrait assez facilement la mesure de l’effet Einstein.
- L’expérience de Pound et Rebka
- En voici la description sommaire : Pound et Rebka ont fait préparer avec le plus grand soin une source de cobalt 5y de 0,4 curie par bombardement protonique d’un film de fer d’une épaisseur d’une dizaine de microns. Le film est soigneusement recuit après irradiation pour former à nouveau un réseau cristallin bien périodique. Les absorbeurs sont constitués de films de fer enrichis en Fe 57 également régularisés par recuits.
- La source est placée au sommet d’un tube vertical de 22 m (fig. 4 et 5), non loin d’un absorbeur suivi de son scintilla-teur. A la base du tube, un second absorbeur est disposé avec son dispositif de comptage. On imprime à la source un petit
- I JL
- Il Source
- ls.r absorbeur, suivi de son scinlillateur
- Fig. 4. — Disposition de la source et des absorbeurs dans l'expérience de Pound et Rebka.
- 22 m La source est animée
- d’un mouvement de va-et-vient de quelques 1 fractions de centimètre
- par seconde. Explications dans le texte.
- £ême a5sor^eup avec
- son scintillateur
- Fig. 5. — L'expérience de mesure de l’effet Einstein au Laboratoire Jefferson de l’Université Harvard à Cambridge (Massachusetts).
- A la base de la colonne de 22 m remplie d’hélium se tient M. Glen A. Rebka Jr, auprès de l’un des absorbeurs muni de son scintillateur. Le physicien communique par téléphone, d’une part avec son collègue le professeur Robert V. Pound qui se tient dans la salle des instruments de mesure, d’autre part avec l'étage où se trouve la partie supérieure du
- dispositif.
- (Photo Harvard University A’eavs Office).
- mouvement vertical de va-et-vient qui module par effet Doppler-Fizeau la fréquence apparente des y émis. En l’absence d’effet Einstein, les taux de comptage des deux scintillateurs devraient être identiques à chaque instant, en particulier au moment où la vitesse de la source s’annule et où la résonance passe par son maximum. L’expérience montre qu’il n’en est rien et que les taux de comptage instantanés sont différents, ce qui met en évidence l’effet Einstein. La valeur expérimentale de celui-ci se déduit du décalage dans le temps des taux de comptage, et de la connaissance du mouvement de la source.
- Un certain nombre de causes d’erreur sont éliminées en échangeant ensuite les positions de la source et des absorbeurs, ce qui porte virtuellement la différence des altitudes à 44 m. Entre autres précautions, une égalisation très soigneuse des températures des deux absorbeurs est requise afin d’éviter cer-
- p.454 - vue 457/558
-
-
-
- tains effets parasites. Une différence de i° C produirait un décalage égal à celui qu’on recherche.
- Le résultat obtenu par Pound et Rebka après dix journées d’observations est le suivant : le décalage relatif mesuré est •—5,i.io~15 à io pour ioo près alors que la valeur théorique est —4,9. io-13. L’accord est donc d’environ 5 pour ioo, ce qui est déjà fort satisfaisant.
- Pound et Rebka ont toutefois cherché à améliorer ce résultat en s’adressant à une absorption nucléaire encore plus fine, celle du zinc 67 (y de 98 keV; t de 9,4 p.s) dont la largeur naturelle relative atteint la valeur extraordinairement petite de io~15. L’expérience a été jusqu’ici négative malgré le luxe de précautions dont les deux physiciens se sont entourés (source et absorbeurs placés dans l’hélium liquide, etc.) et cet échec semble devoir être attribué à des différences de structure entre les réseaux cristallins utilisés. Certains effets parasites dont nous n’avons pas parlé à propos de Fe 57 deviennent en effet prépondérants dans le cas d’une transition aussi fine. Quoi qu’il en soit, on ne saurait tenir cet échec pour définitif (d’autant moins qu’une faible résonance a tout récemment été décelée par un autre groupe de chercheurs aux États-Unis) et l’on doit au contraire espérer que la précision des mesures de l’effet Einstein sera très sensiblement améliorée par l’emploi de cette transition.
- Portée et limites de Y « horloge Môssbauer ». — En premier lieu, il est hors de doute que l’effet Môssbauer ne se révèle fort important. Il permet bien évidemment de préciser nos connaissances de physique nucléaire (durées de vie et structure hyperfine des transitions nucléaires), mais la physique des
- solides à qui il doit tant y gagnera sans doute également puisqu’en retour l’effet Môssbauer se révèle si sensible à l’état des réseaux cristallins.
- Cet effet met enfin à notre disposition une « horloge » d’une extraordinaire sensibilité, comme la mesure de l’effet Einstein vient de le prouver. L’ « horloge Môssbauer » est cependant d’un type assez spécial, car si elle permet des mesures extrêmement sensibles de petites différences de fréquences, la fréquence même à laquelle elle « fonctionne » est bien mal connue. La mesure absolue de la fréquence d’un y de quelques dizaines de keV est en effet une opération peu précise. Signalons aussi que la courte période des radioéléments utilisés (270 jours pour Co 57, 78 h pour Ga 67 qui se désintègre en Zn 67) limite la durée de marche continue d’une telle horloge. L’horloge Môssbauer ne peut donc pas remplacer les horloges atomiques déjà classiques (horloge à césium par exemple) mais c’est un instrument de choix pour certaines recherches particulières.
- Nos dernières remarques portent enfin sur la valeur même de la vérification de la Relativité générale faite par Pound et Rebka : l’effet Einstein est, pourrait-on dire, une conséquence édulcorée de la Relativité générale. Une théorie plus simple et de moindre contenu pourrait en rendre compte en l’interprétant différemment. L’effet Einstein apparaît pour cette raison comme moins probant que les effets qui s’interprètent par une courbure de l’espace-temps. La fort belle expérience de Pound et Rebka ne rend donc pas caducs les projets d’envoi d’une horloge à bord d’un satellite artificiel, projets qui indiquent assez l’actuel regain d’intéi'êt suscité dans le monde scientifique par la grande théorie d’Einstein.
- Pierre Charvin.
- Le taux des naissances en France reste modéré
- Depuis la fin de la dernière guerre, de nombreux commentaires ont été publiés sur le spectaculaire redressement démographique de la France. Parmi les facteurs de ce redressement, on fait volontiers ressortir l’accroissement de la.natalité, attribué à une politique concertée d’encouragement des naissances et notamment aux avantages sociaux réservés aux familles nombreuses.
- Cette vue est exacte, à condition de s’en tenir à une comparaison rapide entre la période d’avant-guerre et celle des quinze dernières années. De 1981 en effet à 1988 on constate que le taux des naissances a décru de 175 à i46 par 10 000 habitants, tandis qu’il s’est relevé à plus de 210 entre 1947 et 1949, poui se stabiliser à i84 naissances par 10000 habitants de 1986 à 1959.
- Ces chiffres ne doivent pas faire illusion. C’est ce qui ressort de l’article de MM. Candiotti et Moine, paru dans le Bulletin de VInstitut national d'Hygiène (mai-juin i960) auquel nous les avons empruntés. S’il est vrai que la natalité était au plus bas en 1988 (exception faite des années de guerre), il s’en faut de beaucoup qu’elle soit au plus haut en 1969.
- Remontant jusqu’au début du xix® siècle, on s’aperçoit que la fécondité était alors bien supérieure à ce qu’elle devait être par la suite. C’est ainsi que l’année 1802 accuse le chiffre record de 029 naissances par 10 000 habitants. La lente décroissance qui s’est amorcée dès cette date n’a conduit que rarement à un déficit de population : il semblerait plutôt que le pays ait obéi à une sorte de régulation qui faisait osciller l’exoédeni. de naissances sur les décès entre des minimums légèrement négatifs et des maximums dépassant i5o 000 dans les années 1878 et 100 000 autour de 1900.
- Ce n’est en tout cas pas avant 1927 (mettant de nouveau à
- part les années de guerre) que l’on voit le taux des naissances s’abaisser au-dessous du chiffre actuel.
- En bref, la surnatalité des toutes dernières années n’esl qu’une pure apparence. Et le progrès démographique très réel qu’enregistrent les statistiques réside dans un phénomène tout différent.
- S’agit-il d’une baisse générale de la mortalité ? Cette baisse est certainement très nette, puisque le taux de mortalité, qui était de 268 par 10 000 habitants en 1809, n’est plus, à un siècle de distance, que 112 par 10 000 habitants. Mais un tel progrès ne se reflète qu’avec une sensible correction dans les espérances de vie des personnes adultes. Ce sont les chiffres absolus qui vont nous en fournir la preuve. Le chiffre total des décès en 1889 était 979 000, dont 2i5 000 décès avant un an. On trouve en 1989 : 5o6 000 décès, dont 28 000 seulement avant un an.
- Calculant le taux, en fonction de la population totale de l’une et l’autre année, on s’aperçoit que le taux de mortalité des « plus d’un an a était 208 par 10 000 habitants voici un siècle et 108 actuellement. Le gain est incontestablement très substantiel, mais peut-on le comparer avec celui obtenu dans la sauvegarde des nourrissons ? Plus d’un cinquième d’entre eux étaient perdus en 1859. On n’en pex-d aujourd’hui que le quarantième.
- La caractéristique de notre époque n’est pas tant de procréer que de garder les enfants en vie. Un dernier calcul exprimera encore mieux cette victoire sur la mortalité infantile. Si par infortune on avait retrouvé en 1959 le taux d’il y a un siècle (2i3 pour 1 000), la population aurait été amputée de 164 000 enfants de moins d’un an. L’excédent des naissances, qui a été de 320 000, aurait été ramené à i56 000.
- G. C.
- p.455 - vue 458/558
-
-
-
- 456
- La vie du Sahara
- Une exposition au Musée de l'Homme
- Sous ce titre, à l’occasion du 6e Congrès international des Sciences anthropologiques et ethnologiques, qui s’est tenu à Paris cet été, le Musée de l’Homme présente, jusqu’en janvier 1961, une captivante exposition qui apporte à beaucoup de ses visiteurs une révélation : c’est bien toute la vie du Sahara, traditionnelle et actuelle (x).
- Il ne s’agit nullement ici de la toute récente activité pétrolière, providentielle pour l’économiste, quelque peu inquiétante pour le naturaliste. Il ne s’agit guère non plus de ce « Sahara vivant de la Préhistoire », que nous avons évoqué ici même à travers l’extraordinaire exposition du Musée des Arts Décoratifs (La Nature, février 1958, p. 59-62). Nous retrouvons cependant, à l’entrée, quelques images parmi les plus saisissantes de l’art rupestre néolithique (10 sur i3 sont reproduites d’après les missions Henri Lhote). Pendant plusieurs millénaires avant notre ère, des hommes ont gravé et peint leur gibier (antilopes, girafes, rhinocéros, etc.) puis leurs animaux domestiques, à commencer par les bovins.
- A la même époque, des tailleurs de pierre particulièrement habiles représentaient ces animaux en ronde bosse. Ils ont laissé aussi toutes sortes d’instruments à couper ou percer (dont les plus variés sont les admirables pointes de flèches), ainsi que des meules et leurs molettes. Ces meules qu’ils « piquetaient » de temps en temps, servaient à broyer des graines (simplement récoltées ou cultivées, on ne sait au juste). Il en subsiste un si grand nombre que les nomades actuels ne s’embarrassent pas de ce matériel. Il est des régions de sables où dans chacune
- 1. Catalogue : xxm-84 p., 30 planches hors texte. Orientation bibliographique. Avant-propos de H.-V. Vai.lois, directeur honoraire du Musée de l’Homme. Introduction de Théodore Monod, professeur au Muséum, directeur de l'Institut français d’Afrique noire.
- Fig. 1 et 2. — Appareil de puits à traction animale ( Sahara central, Mzab).
- En langage populaire, ce puits est communément appelé halga (la sangsue). Lorsque l’animal (âne, bœuf ou chameau) qui tire la corde remonte le plan incliné, le seau vide va se remplir au fond du puits ; quand l’animal redescend, le seau est empli et prêt à se déverser.
- (Phofo et dessin Musée de l’Homme).
- des i5o ou 200 cuvettes parcourues dans leur journée, se retrouvent ces meules prêtes à être réemployées (T. Monod). Elles voisinent avec des colliers, des céramiques, des débris de cuisine. Nous pouvons observer nous-mêmes une des rares poteries néolithiques qui aient été trouvées intactes, ainsi que des hameçons et harpons (Erg Ghech), avec des restes de poissons, souvent de grande taille (Silure, Perche, etc.). Carapaces de tortue et coquillages d’eau douce sont aussi banaux.
- Mieux défendu sous son vaste tumulus de pierre, le monument de Tin-Hinan, au Hoggar, est daté du ive siècle après Jésus-Christ. Une de ses onze chambres abritait la sépulture de celle dont la légende touarègue fait l’aïeule de toutes les tribus nobles : ses bijoux d’or, d’argent et de perles sont ici rassemblés.
- Des pierres taillées paléolithiques même sont si abondantes sur des regs ou plateaux qu’elles ont été amoncelées en tas pour jalonner certaines routes « automobilisables » (T. Monod). Les bergers et les enfants aiment à les retailler pour esquisser le ventre d’une chamelle ou la bosse d’un méhari. Ces travaux ingénus ont longtemps dérouté l’ingéniosité des spécialistes... Il s’agit de galets retouchés qui comptent parmi les plus anciens outils connus, de bifaces (autrefois appelés « coups de poing ») et de hachereaux acheuléens, de pointes et grattoirs atériens et de lames capsiennes (avec des colliers en coquilles d’œuf d’autruche). Malheureusement, on n’a retrouvé dans le désert qu’un seul squelette humain sans doute antérieur au néolithique : le Crâne d’Asselar, aux affinités négroïdes, est une des pièces les plus rares et émouvantes qui soient présentées.
- L’Afrique est peut-être le berceau de l’Humanité. Le Sahara y a reçu ses plus anciens représentants, dès le début de l’ère quaternaire. L’homme acheuléen osait déjà chasser l’Éléphant,
- p.456 - vue 459/558
-
-
-
- 457
- dont voici une molaire, ou le Rhinocéros simus, dont une mâchoire, trouvée avec des outils dans l’erg Tihodaïne, figure à cette exposition.
- Ainsi, même les régions actuellement les plus arides ont donné ces témoignages d’une période humide. Mais les deux régimes climatiques ont déjà alterné plusieurs fois. Des grès paléozoïques eux-mêmes contiennent des sables dus au vent du désert. En revanche, le néolithique, dernière période favorisée, a laissé jusqu’à nous des traces encore vivantes. Ce n’est pas sans stupéfaction que maint visiteur verra évoluer dans leur aquarium d’authentiques petits poissons sahariens; on admirera aussi ce crocodile empaillé (Crocodilus niloticus) : il fut découvert, avec quatre de ses semblables, et tué, en ig34, par un soldat qui avait laissé tomber son mousqueton dans une gorge de l’oued Imhirou, en plein Tassili ! On admire, mais on se demande s’il n’aurait pas mieux valu laisser vivre ce témoin d’un autre âge.
- La flore et la faune sahariennes sauvages sont brièvement évoquées par le texte et par l’image : cyprès, oliviers et figuiers « résiduels », pâturages (avec des parcelles isolées pour l’étude de la régénération); animaux se protégeant sous le sable : ger-bille et grand nombre d’insectes; scorpions; gazelle et fennec; sans compter les espèces rares évoquées par le professeur Monod : ibis chauve, panthère ou lycaon.
- *
- * *
- Le Musée de l’Homme donne la place essentielle aux populations, sans souci des frontières : à l’ouest, quelque 600 000 Maures de langue arabe; à l’est, environ 70000 Tédas (Tibesti) ; au centre, environ 35o 000 Touaregs (qui ont conservé le plus fidèlement peut-être les coutumes et le parler berbères). Par ailleurs, l’ensemble saharien est à double pente : vers le Maghreb, avec le blé, l’orge, la laine des moutons; et vers le Soudan, avec le mil, le coton et, au sud, les bœufs.
- Mais l’opposition fondamentale est dans les deux modes de vie dont la spécialisation est indispensable : d’une part, le cultivateur sédentaire, l’homme du palmier, à l’étroit dans son oasis; d’autre part, l’éleveur nomade qui, grâce au dromadaire, parcourt à la recherche de l’eau des distances démesurées.
- Le palmier-dattier est un des plus admirables exemples d’adaptation végétale avec, selon le dicton arabe, « les pieds dans l’eau et la tête dans le feu ». Son tronc débité assure aux puits coffrage, balancier (et ses supports) ; les foggaras (canaux souterrains) lui doivent leur boisage. Avec une ingéniosité extrême sont organisés le puisage (fig. 1 et 2) (un âne conduit par un gamin y suffît), la répartition dans les canaux et la mesure de l’eau, vitale et quasi sacrée. Le Saharien, pourtant volontiers frondeur, respecte scrupuleusement les coutumes, fort complexes, en ce domaine.
- Toute une culture jardinière, à la houe et à la faucille, est ainsi possible. A la récolte des dattes, aliment concentré et de bonne conservation, s’ajoutent donc celles des arbres fruitiers (abricotiers, figuiers, grenadiers), de la vigne, des céréales (blé et orge au nord, maïs et sorgho au sud), des fèves, pois et lentilles, carottes et navets, tomates, courges et pastèques, du tabac, du henné (pour teinture), du coton. Le palmier fournit son ombrage. Ses palmes, tressées en palissade, complètent la protection contre le vent et l’ensablement. Ses fibres servent en vannerie, en particulier pour des seaux que l’humidité, par gonflement, rend imperméables. Sa bourre enfin est transformée en cordes.
- Au carnaval de nouvel an (Aâchoura), le palmier sert à déguiser le « Vieillard lubrique » et sa compagne : tissu et feuilles en croissance, symbole de la végétation qui va renaître. Les de.ux personnages « frappent les femmes avec leurs baguettes
- vertes et assurent ainsi au village la continuité de la vie. Ce couple est escorté par de jeunes garçons porteurs de masques de peau ou de bois qui, imitant le cri du bouc en rut, aspergent d’eau le public et les acteurs ».
- Tarhenja est un pilon, pénétrant comme la pluie qu’il symbolise, et déguisé en jeune femme : sa procession implore la fertilisation de la terre nourricière par l’eau. Lorsque, au printemps, cette dernière pourrait nuire aux palmiers en fleurs, on interdit aux petites filles de jouer avec leur poupée : ce jeu doit avoir été, au Sahara occidental, un rite saisonnier en rapport avec Tarhenja. Le cultivateur des oasis cherche encore à
- Fig. 3. — Caveçort de chameau (akaskabou) des Touaregs.
- En cuivre, décoré de multiples panneaux et de petits miroirs, ce caveçon est employé exceptionnellement dans des harnachements de fantaisie.
- (Document Musée de l’Homme).
- favoriser ses semailles, ses récoltes, la fécondation des palmiers par des sacrifices et des prières islamiques. Il dresse os et mâchoires d’ânes ou de chameaux contre le « mauvais sort ».
- Chaque femme sait tisser les vêtements rustiques en laine ou poils de chèvre. Les tapis du Mzab, les tentures (de laine et de coton) du Toat sont partout appréciés. Les sédentaires ont l’apanage de la poterie. Elle est souvent mal cuite, faute de combustible, et, sauf à Oualata (en Mauritanie), pauvrement décorée.
- Les artisans forment un groupe social à part et souvent déconsidéré : ainsi, les Duudes qui, chez les Tédas, sont, de plus, poètes, chanteurs et danseurs (griots) ; ainsi les Enaden chez les Touaregs, les Ma’allem (Juifs islamisés) chez les Maures : sacrificateurs, circonciseurs, dentistes, etc. Magiciens aussi, experts en philtres et poisons, les artisans noirs des Chaamba, forgerons et vanniers.
- Les nomades emmènent quelquefois ces travailleurs dans leurs déplacements. Le plus souvent, ils leur achètent lourds bijoux,
- p.457 - vue 460/558
-
-
-
- 458
- nécessaires de toilette et de cuisine, armes, coffres, sacs de cuir, tentes et piquets, harnachement, etc. Tout ce patient travail humain est représenté par des centaines d’objets, tant en vitrine que dans leur cadre naturel une authentique tente du Tagant. La décoration, en ce pays d’Islam, est à peu près exclusivement géométrique, parfois d’une grande pureté avec un choix très heureux des couleurs : en particulier dans le travail du cuir.
- Les vêlements restent toujours épais ou amples contre la chaleur et les écarts de température. Ils sont drapés chez la femme. L’homme porte blouson et pantalon étroit chez les Tédas, tunique et pantalon large chez les Maures et Touaregs. Ces derniers sont célèbres pour le voile (tiguelmoust) qu’ils portent devant le visage depuis la puberté jusqu’à la mort, même pour manger : son origine, sans doute magique, est inconnue. Leur nom d’ « hommes bleus » est dû à la teinture indigo de leurs vêtements, qui déteint fortement sur la peau.
- Les Tédas, comme les Bédouins d’Arabie, font reposer un bât du garrot aux reins du méhari. Ailleurs, la selle appuie sur
- Fig. 4. — Selle de chameau des Touaregs du Tassili des Ajjer.
- CPhoto Musée de l’Homme).
- le seul garrot, avec un pommeau en palette chez les Maures, en croix chez les Touaregs, dont la selle est un chef-d’œuvre d’artisanat (fig. 4). Les femmes disposent parfois d’un véritable palanquin. Les bâts de charge peuvent porter jusqu’à i5o kg.
- Tous ces nomades se repèrent admirablement à travers les immensités, à la recherche de pâturages et d’abreuvoirs, selon les pluies. Les influences saisonnières et la tradition limitent l’aire de nomadisation des tribus. Leur axe (sauf aux bordures : nordique de l’Atlas, et méridionale présteppique) est presque exclusivement nord-sud. Le transport de l’or a été prospère jusqu’au xvie siècle; celui des esclaves noirs a pris fin avec l’occupation française, ainsi que le régime des rezzous. Seul le commerce des barres de sel rassemble encore de vastes caravanes (en février-mars et octobre-novembre) ; d’Afrique noire sont rapportés mil et cotonnades.
- Le dromadaire sauvage semble avoir été exterminé en Afrique du Nord au troisième millénaire avant JésusrÇhrist, domestiqué
- Fig. 5. — Violon monocorde (amzad) du Hoggar.
- Calebasse hémisphérique tendue d’une peau de chèvre percée de deux ouïes. La corde, faite en crins de cheval, est tendue sur un petit chevalet de bois. Les décors sont peints en rouge.
- (Document Musée de l’Homme).
- au deuxième millénaire en Arabie et, de là, réintroduit peu avant notre ère dans l’immense domaine qui s’était transformé en désert. Il sut parfaitement s’y adapter. Comme l’antilope Addax, il peut pâturer sans boire pendant très longtemps; mais, à la première source, il est capable d’avaler en io mn le tiers de son poids ! C’est une véritable « outre vivante » qui porte encore les provisions d’eau en guerbas : il s’agit de peaux entières de chèvre, mouton, antilope mohor ou mouflon imperméabilisées au goudron, au beurre ou à la pâte de dattes... Théodore Monod a pu dédier un livre sur le désert « au chameau et au bouc, véhicule et récipient, aux deux seuls vainqueurs du Sahara ». Comme bête de somme sont encore utilisés l’âner surtout dans les oasis, et, au sud, le bœuf.
- Le nomade apprécie le thé. Il se nourrit de lait (ainsi que petit lait et beurre, voire fromages), de dattes, de céréales et autres produits des oasis ou de cueillette; à l’occasion, de gibier; rarement de ses ruminants (égorgés rituellement); jamais de porc, de cheval ou d’âne, ni d’oiseaux chez les Maures, ou de lézards chez les Touaregs, etc. La frugalité quotidienne est rompue pour de rares bombances; et aussi en faveur ( ?) de quelques femmes que les riches Maures ou Touaregs gavaient chaque jour, à l’entonnoir, d’une douzaine de litres de lait (fig. 7). .
- p.458 - vue 461/558
-
-
-
- 459
- Fig. 6. — Duel simulé entre Touaregs.
- Le fameux bouclier touareg, l’arer, est en peau d’antilope Oryx, de forme sensiblement rectangulaire et d’assez vastes dimensions pour couvrir une grande partie du corps. Permettant de parer aux coups de lance et de sabre, il est en outre décoré de motifs auxquels étaient attribuées des vertus prophylactiques. L’arer trouve aujourd’hui son dernier usage dans les jeux de tradition guerrière.
- (Photo Musée de l’IIomme).
- Sont enfin évoqués la vie religieuse islamique, la poésie (dont Charles de Foucauld a relevé nombre de belles œuvres au Hoggar), la musique et la danse. Les Maures jouent du tidinit, luth à plusieurs cordes, et de Vardin, harpe à douze cordes dérivée de celle de l’Égypte. Chez les Touaregs, quelques femmes nobles animent encore l’amzad, l’étrange vielle monocorde (fig. 5), le soir pendant 1 ’ahal, lorsqu’elles se réunissent avec les hommes pour deviser, chanter et réciter des poèmes. Les hommes miment encore de spectaculaires jeux guerriers : abrités derrière l’arer en peau d’antilope Oryx, poignard fixé à l’avant-bras, ils brandissent la lance et l’épée à double tranchant, ou takouba (fig. 6).
- *
- # #
- L’oasis est donc le point de contact entre nomades et sédentaires. Les premiers assuraient parfois aux seconds leur protection contre les pillards. Ils continuent à offrir viande, cuir et Mine, et à demander aliments végétaux, matériel et réserve d’eau.
- Le désert exige une adaptation extraordinaire de la flore et de la faune. Le Palmier et le Dromadaire en sont l’expression supérieure. L’homme a su en tirer un rendement polyvalent et quasi exhaustif. Il a mesuré au plus strict ses besoins et laissé à ses aspirations un champ illimité comme le désert. Il a gardé le dénûment de son cadre de vie, mais il l’a dépassé par le raffinement de son artisanat. On peut admettre que les mêmes solutions techniques difficiles ont été trouvées parallèlement par des groupes humains éloignés, étrangers les uns aux autres.
- Le Sahara est désormais ouvert à la mécanisation, à l’exploitation pétrolière et minière, pour le plus grand bien de l’économie française et africaine. Il faudrait que cette nouvelle invasion pacifique fût une occasion de compréhension, d’admiration et de respect; qu’elle fît surgir l’eau et équilibrât la régé-
- nération du pâturage et les exigences du troupeau qu’elle épargnât enfin les derniers arbres-reliques du Sahara, les trop rares antilopes et toute cette faune si curieuse, si désarmée devant nos « jeeps » et nos balles.
- Figr. 7. — Entonnoir des Touaregs (aral-lala).
- L'instrument servait à gaver de lait les jeunes femmes pour les engraisser. Cette coutume tombe en désuétude ! (Document Musée de l’Homme).
- I
- 5 cm.
- 0 J
- L’infatigable travail de l’oasis, l’idéal de vie libre du nomade sont pour nous des exemples. Au Sahara, tant la nature que les « naturels » nous confondent par leur ingéniosité obstinée et triomphent du, plus extrême dénûment.
- Michel Rousseau, Docteur Vétérinaire.
- p.459 - vue 462/558
-
-
-
- 460
- Comment l’Addax trouve des pâturages dans les sables désolés du Téne'ré
- Une extraordinaire expédition de n ooo km environ, effectuée en grande partie à travers le Sahara oriental, a eu lieu de novembre 1909 à janvier i960. Cet événement, dont la presse française s’est faite l’écho à maintes reprises et qui avait pour nom « Mission Berliet-Ténéré », est de ceux qüi s’inscrivent aux annales du Sahara moderne : celui de « l’or noir ». L’initiative de cette mémorable aventure revient à la Société d’automobiles Berliet qui, en vue d’échanges économiques, s’était fixé pour but la recherche de voies nouvelles qui puissent relier les jeunes républiques du Niger et du Tchad à l’Algérie. 11 ne s’agissait pas là uniquement d’une étude d’itinéraire et de trafic possible entre les régions indiquées, mais encore d'une vérification sur long parcours de la valeur des camions de transport et enfin de l’exploration scientifique d’une région saharienne aussi peu connue que le Ténéré. Ce troisième but ne pouvait être pleinement atteint qu’avec la collaboration de spécialistes de diverses disciplines scientifiques et c’est en qualité de botaniste que j’ai pu participer à cette grande entreprise et étudier ainsi certaines régions jusqu’alors inconnues phytologiquement.
- *
- # #
- Le titre du présent exposé semblera sans doute mystificateur à ceux qui connaissent la signification du mot Ténéré. En effet, Ténéré est synonyme de Tanezrouft, ce qui veut dire immenses étendues où il n’y a rien et qui sont autant de déserts absolus dans le Grand Désert. Or voici que l’on parle de pâturages et d’antilopes Addax dans le Ténéré ! Aussi invraisemblable que cela puisse paraître, il s’agit pourtant d’un fait constaté. Ceci prouve une fois de plus que même les régions les plus hostiles
- 100 200 300 Km
- AJJER
- PLATEAU0M*to™
- DU DJ ADO QÛjado
- V O
- <4, O Fachi
- O Agadem
- Ter mit
- f OQ
- Tanout
- Nguigmi
- Dakoro
- O Gouré
- Situation géographique du Ténéré.
- Fig. 1.
- ne sont pas tout à fait abiotiques et que la vie, végétale ou animale, peut s’y rencontrer dès que certaines conditions plus clémentes (averses locales par exemple) se trouvent réunies. Mais avant d’approfondir cette question donnons un court aperçu sur le Ténéré lui-même.
- Le Ténéré peut être approximativement délimité comme suit : au nord par le Tassili des Ajjers, à l’ouest par F Air, à l’est par le Kaouar et enfin au sud par les maigres steppes présahéliennes de la Bépublique du Niger (fig. 1). On peut évaluer sa superficie à environ 1 3Go 000 km2, soit plus de deux fois celle de la France. C’est un énorme plateau d’altitude moyenne couvert de sables à perte de vue; « c’est la désolation dans un silence de mort » pour reprendre une expression de Henri Lhote à propos du Tanezrouft mais qui s’applique aussi bien au Ténéré. Aussi quand on considère le Ténéré d’aujourd’hui imagine-t-on à grand'peine ce que fut celui du passé. En effet, selon l’avis des préhistoriens, le Ténéré aurait été, au Quaternaire antè-néolithique, une région marécageuse parsemée d’étangs ou de lacs et peuplée, suppose-t-on, d’agriculteurs, de pêcheurs et de chasseurs. Ces dires s’appuient sur le fait que cette région présentement mise à sec par un soleil de feu est extraordinairement riche en vestiges de toutes sortes vieux de plusieurs millénaires. A l’occasion de cette mission, Henri Lhote n’y a-t-il pas découvert un squelette d’homme préhistorique dont l’âge, selon lui, remonterait à 4o 000 ans ? N’y avons-nous pas vu nous-mêmes des fonds lacustres sur lesquels se trouvaient des coquilles sub-fossiles de Limicolaires (Limicolaria chudeaui) ? Il s’agit là de Mollusques Gastéropodes qui vivent encore actuellement loin au sud du Sahara dans des endroits humides.
- Lorsqu’on pénètre dans ces mornes solitudes, on a bien l’impression qu’aucun être vivant ne saurait y vivre tant il y fait sec, tant la nudité y est intégrale. Puis soudain on rencontre des traces sur le sable qui ne laissent aucun doute quant à leur attribution : ce sont bien des empreintes d’Addax (fig. 2). L’étonnante abondance de ces empreintes dans certains espaces atteste qu’il n’est pas seulement question de quelques bêtes isolées mais souvent de hardes plus ou moins importantes. On se demande alors, vu l’hostilité sans pareille du milieu que d’aucuns ont qualifié de « type achevé de la négation biologique », comment ces animaux peuvent être présents en de tels lieux. Est-ce un « défi à la vraisemblance » ? Mais précisons avant tout ce que sont les Addax (fig. 3).
- Il s’agit d’Antilopes (Mammifères ruminants cavicornes) d’une assez grande taille (puisque leur hauteur au garrot est d’environ i,5o m) et d’un poids de 126 à i5o kg. En 1816, le naturaliste français Henri-Marie de Blainvifle leur donna le nom d'Addax nasomaculatus, l’épithète spécifique faisant allusion au museau de ces animaux marqué d’un large chevron blanc. Ils portent également le nom moins connu d’Antilopes de Mendès. Leur pelage assez grossier est d’une couleur gris blanchâtre, plus ou moins teintée de fauve pâle. D’après plusieurs auteurs, ce pelage différerait sensiblement selon les saisons : en été il serait plus court et plus clair qu’en hiver. Une épaisse touffe de poils brunâtres orne le front; c’est une sorte de perruque, écrit E. Blanc, qui fait très artificiel et ne semble pas appartenir à l’animal. Les cornes sont fines, annelées, excepté les extrémités qui sont lisses et pointues; de plus, elles sont enroulées en une spirale lâche. Leur longueur moyenne est de 65 cm mais le record semble être actuellement de 1,076 m, mesure effectuée sur un Addax abattu dans le Darfour (Soudan ex-anglo-égyptien). Enfin ces cornes seraient plus fortes chez les mâles et, d’après de Poncins, la. spirale ferait deux tours à deux tours et demi, voire trois tours, tandis que chez les femelles il n’y
- p.460 - vue 463/558
-
-
-
- 461
- Fig. 2. — Empreintes d’antilopes Addax.
- (Photo Th. Monod, I.F.A.N.).
- aurait qu’un tour et demi. Les sabots sont très larges, ce qui trahirait pour certains l’habitat sablonneux des Addax. Ils rappelleraient ceux du Renne, cet animal devant également marcher sur un substratum assez friable. Ce caractère des sabots élargis pourrait être en effet considéré comme une adaptation à la marche sur le sable, estime P.-L. Dekeyser, à la condition que ces Antilopes soient strictement inféodées au domaine aré-nacé; or il est démontré, ajoute cet auteur, qu’elles fréquentent tout aussi bien les regs, étendues de sol dur, dénudées et le plus souvent caillouteuses.
- L’aire de répartition géographique de l’Addax couvre actuellement les zones arides de la moitié septentrionale du continent africain : Rio de Oro (entre le 24e et le 25e parallèles), République Islamique de Mauritanie (Majàbat Al-Koubrâ), Algérie (département des Oasis), République du Soudan, du Niger et du Tchad (régions sahariennes), Soudan ex-anglo-égyptien (partie nord), Libye. En dehors de l’Afrique, cette aire s’étend jusqu’en Arabie. Aux environs de i885, il existait encore des Addax dans le Sud tunisien et présentement ces animaux sont rarissimes sinon définitivement éteints sur la rive septentrionale du Sahara. Il ne semble plus en exister davantage en Égypte.
- La zone d’habitat des Addax, jadis beaucoup plus étendue, s’est considérablement rétrécie car, de tout temps, ces animaux n’ont cessé d’être un gibier très poursuivi par l’homme. Mais, comme l’a si justement fait remarquer Th. Monod, la technique néolithique d’anéantissement de la faune était moins meurtrière que celle du xxe siècle où les destructions sont d’autant plus poussées que se multiplient, au Sahara, les fusils (fusils rayés notamment) et les automobiles tous terrains. Il nous a même été donné de voir un soi-disant chasseur poursuivre et abattre un Addax en hélicoptère! D’autres n’ont-ils pas fait maintes fois le récit de véritables massacres, tel celui d’un groupe de six fusils qui rapporta 'un butin de 356 têtes ! Ce sont évidemment les troupes sahariennes, depuis peu motorisées, qui font courir le plus grand danger non seulement aux Addax mais à l’ensemble de la faune du désert (rappelons à ce sujet le sac, par les militaires, de certaines gueltas en Adrar de Mauritanie, où tous les poissons ont été exterminés avec des grenades). Il est clair que la poursuite en automobile laisse peu de chances raux Addax de s’échapper; quoique rapides à la course (5o à 6o km à l’heure) ils ne peuvent cependant soutenir cette vitesse sur une longue distance. Ces grands animaux, écrivent J. Rigourdan et R. Prunier, dont la vie est déjà un problème par elle-même quand aucune menace autre que celle des exigences naturelles
- ne pèse sur eux, se trouvent voués à un anéantissement ultra-rapide lorsqu’à ces facteurs vient s’ajouter la destruction par les armes. Ce sont, poursuivent ces mêmes auteurs, des prodiges d’équilibre biologique qu’un souffle humain suffit à rompre. Mais combien de temps encore aurons-nous le privilège d’assister à un spectacle aussi émouvant que celui des Addax dans les grandes solitudes sahariennes ? Souhaitons que ces rois du désert n’aillent pas bientôt rejoindre Ja liste des espèces disparues, exterminées à jamais par la sottise et la malfaisance de l’homme.
- Il nous faut maintenant expliquer l’existence des Addax dans un milieu aussi profondément déshérité que le Ténéré.
- Fig. 3. — L’Antilope Addax nasomaculatus.
- (Dessin de P.-L. Dekeyser, I.F.A.N.).
- Lorsqu’on connaît les exigences alimentaires des grands herbivores, on comprend mal comment des formes aussi volumineuses arrivent à satisfaire leurs besoins au cœur d’une région d’aridité maximale. Par quelle voie mystérieuse le besoin d’eau peut-il être satisfait pour un animal qui pèse i5o kg et vit dans un des lieux du monde où la température est la plus élevée, l’insolation la plus violente et l’atmosphère la plus sèche P . ,
- Au fait, le Ténéré n’est pas un désert aussi absolu qu’il le paraît de prime abord. Lorsque nous l’avons traversé, nous avons pu observer, dans des endroits totalement dénudés où tout n’était que sable à perte de vue, des terriers de petits rongeurs ou de petits reptiles (Lézards) entourés de traces récentes prouvant qu’ils étaient habités. Ayant remarqué à proximité de ces terriers des restes de criquets pèlerins (Schisiocerca gregaria), il faut en conclure que ces Orthoptères voyageurs peuvent traverser le Ténéré et servir de nourriture à quantité d’animaux tels les Rongeurs (à l’occasion insectivores) ou les Reptiles. Dans d’autres endroits à dénudation non moins complète, nous
- p.461 - vue 464/558
-
-
-
- 462
- Ce
- Fig. 4. — Végétation steppique du Ténéré se développant lorsqu’il a plu suffisamment.
- pâturage » est très recherché par les antilopes Addax.
- (Photo Naegelé, I.F.A.N.).
- avons vu, courant à vive allure à la surface du sable, des Ëré-miaphiles qui sont des Mantes caractéristiques du désert. Ailleurs encore, et toujours dans un paysage du même style que les précédents, nous avons rencontré quelques grosses mouches. Enfin, pour comble de prodige, signalons qu’à plusieurs reprises nous
- sommes restés bouche bée devant un spectacle aussi étrange qu’inattendu : celui de papillons isolés, venant d’on ne sait où et voltigeant vers quelle hypothétique fleur ?
- Ces quelques exemples suffisent assez à démontrer que le Ténéré est loin d’être un lieu privé de vie. Mais jusqu’ici nous n’avons parlé que d’animaux. Or, il y pousse également des plantes et non pas seulement quelque touffe d’herbe par-ci par-là. Sans que cela puisse sembler une plaisanterie, on peut assurer qu’il existe de véritables peuplements plus ou moins étendus qui sont des pâturages (fig. 4). Ces végétaux ne sauraient évidemment exister là sans eau. « De l’eau vient toute vie » nous apprend le Coran et la vie végétale dans .le Ténéré ne se manifeste que lorsqu’il a plu. C’est alors seulement que peuvent germer les graines qui, sans doute innombrables, attendaient, peut-être depuis plusieurs années, que la. pluie vînt lever leur dormance. Il faut reconnaître que ces précipitations atmosphériques n’affectent pas l’ensemble du Ténéré mais ici et là des surfaces d’étendue variable.
- Ces taches de verdure sont très peu diversifiées quant à leur composition floristique; elles ne groupent guère qu’une dizaine d’espèces dont chacune, bien entendu, est représentée par de nombreux individus. La physionomie de cette végétation est celle d’une steppe, steppe très lâche et fugace, disparaissant dès que la lutte contre la sécheresse ne peut plus être soutenue. La durée de cette steppe désertique est donc fonction de l’humidité édaphique : au fur et à mesure que celle-ci décroît, les constituants de la steppe arrêtent leur croissance, fleurissent, fructifient et meurent. Parmi les végétaux que nous avons relevés, citons les plus abondants : deux Zygophyllacées (famille typiquement saharienne), l’une Fagonia olivi&ri, Pautre Tri-bulus ochroleucus, espèce endémique du Sahara central, c’est-à-dire spéciale à cette région; deux Graminées, soit Danthonia forsskalei et Arislida acutiflora, autre endémique du Sahara; une Molluginacée, Limeam indicum; une Nyctaginacée, Boerhnavia coccinea variété viscosa, et enfin une Crucifère, Malcolrnia aegyptiaca. Ces plantes formaient l’essentiel des pâturages fréquentés très assidûment par les Addax, comme nous
- Fig. 5.
- Procédé d’extraction du liquide du contenu du rumen de l’Addax.
- Ce procédé, usité en Mauritanie saharienne, a été décrit par Th. Monod en ces termes : « On creuse d’abord une cuvette dans le sable, au pied d’une butte de sbot (Aristida pungens) ; le trou est ensuite tapissé de la peau de l’Addax, poil en dessous, puis la tête de l’animal est placée au bord de la cuvette de telle sorte que les deux cornes, fichées par leurs extrémités dans la butte de sable, se trouvent horizontalement disposées ; sur les deux cornes, une série transversale de brindilles de hâdh (Cornulaca monocantha) puis un lit, longitudinal, de paille de sbot vont constituer le plancher filtrant sur lequel va se voir déposée, doucement et sans chercher à en exprimer le moins du monde le jus, la masse verte extraite de la panse. Ce dispositif en place, les voyageurs iront sans doute céder à la tentation d’une « tournée » supplémentaire de thé, pour trouver à leur retour la peau remplie d’une certaine quantité d’un liquide fortement coloré sans doute, légèrement douceâtre, mais infiniment moins répugnant qu’on n’eût pu s’y attendre, et doué, affirment les Maures, des plus éminentes qualités roboratives. »
- (Dessin de P.-L. Dekeyser, I.F.A.N.).
- V' *>
- p.462 - vue 465/558
-
-
-
- 463
- Fig. 6. — Nombreuses traces et excréments d’Addax autour des plantes qui pourvoient à ta nourriture de ces animaux.
- (Photo Naegelé, I.F.A.N.).
- avons pu en juger d’après la grande quantité de crottes qui jonchaient le sol, les nombreuses plaques de sable durci par les urines, les innombrables traces de sabots, les reposoirs et le degré de broutement des herbes (fig. 6). Voilà pourquoi la rencontre des Addax dans le Ténéré n’a plus un caractère aussi surprenant.
- Ces Antilopes mènent une vie exclusivement errante; ce sont de grands nomades qui effectuent sans cesse de longs parcours à la recherche de leur nourriture : ce qui est, du reste, leur seul mode possible de ravitaillement. On prétend que les Addax sont doués d’un sens qui leur permettrait de déceler les peuplements d’herbes fraîches à plusieurs centaines de kilomètres. Ils dirigeraient également leurs pas vers les éclairs qui annoncent de lointains orages générateurs de pâturages. Mais, en définitive, on ne sait presque rien sur les mœurs de ces animaux. Gros mangeurs, il est cependant permis de penser qu’ils n’absorbent jamais de l’eau en nature; en effet, on ne les a jamais vus venir aux points d’eau comme le font par exemple
- le Mouflon ou la Gazelle. On a même pu constater qu’un Addax, gardé quelque temps en captivité à Dakar, ne buvait jamais, bien que disposant d’une auge toujours remplie d’eau.
- Il faut donc conclure que .les Addax trouvent l’eau nécessaire à leur vie dans les végétaux dont ils se nourrissent et qui renferment certainement une proportion d’eau non négligeable. Il nous a été donné de nous en rendre compte en séchant entre des feuilles de journaux des spécimens de ces plantes recueillis pour étude. L’eau que perdaient alors ces échantillons était telle qu’il fallait renouveler plusieurs fois les feuilles de journaux mouillées. Or même lorsque les Addax, durant certaines périodes de l’année, ne disposent plus que d’une nourriture sèche, leur panse cependant est toujours remplie d’une bouillie végétale à haute teneur en eau. « Le produit, affirme Th. Monod, est tellement aqueux qu’en se contentant d’ouvrir la panse et de laisser reposer le contenu, on peut, au bout d’un moment, recueillir à la cuiller le liquide en appuyant un peu sur la surface du magma ». Ce liquide est d’ailleurs buvable et l’on dit qu’il a sauvé la vie à plus d’un chasseur du désert mourant de soif (fig. 5).
- Certains auteurs avaient prétendu que l’Addax possédait dans les annexes de l’estomac une poche spéciale renfermant des réserves de liquide aqueux. Mais par la suite ces affirmations ont pu être démenties et il est absolument certain que ces animaux, pas plus que les Dromadaires d’ailleurs, ne sont dotés d’aucun dispositif anatomique spécial qui puisse réaliser une rétention de l’eau dans le tube digestif (x). Leur estomac est d’un type tout à fait comparable à celui des autres Ruminants et l’examen de coupes histologiques de la paroi du rumen et du réticulum d’un Addax a montré qu’il n’existait apparemment aucune différence de structure avec les organes correspondants des Ruminants domestiques comme par exemple le mouton. Selon A. Jeannin, il est vraisemblable que les Addax tirent l’élément aqueux indispensable à la vie d’une oxydation des graisses. Quoi qu’il en soit, ,1a physiologie de ces animaux est encore des plus obscures. On sait que leurs urines sont rares et concentrées à un tel point que là où ils ont uriné le sable est plus ou moins fortement agglutiné puisqu’il est souvent possible d’en soulever toute une plaque durcie.
- Antoine Naegelé, I.F.A.N., Dakar.
- 1. Voir : La fin d’une longue erreur scientifique : Comment le Chameau résiste à la soif, par Francis Petter, La Nature, juillet 1956, p. 263-265.
- Le Chimpanzé a deux chromosomes de plus que l’Homme
- On connaissait la formule chromosomique du Chimpanzé (Pan troglodytes) par une seule numération effectuée par S. H. Yeager, T. S. Painter et R. M. Yerkes en iq4o. Ces auteurs ont donné le nombre 48 pour la formule 2 N, ce qui, à cette époque, permettait de dire que le nombre des chromosomes était le même chez les grands singes anthropoïdes et chez l’Homme. Depuis, cette conclusion s’est montrée fausse puisque les recherches récentes ont permis de fixer le chiffre 2 N chez l’Homme non plus à 48 mais à 46 chromosomes (on sait que le nombre N est celui des chromosomes dans les cellules reproductrices, 2 N celui des autres cellules du corps ; une des paires est cependant faite de chromosomes différents dans l’un des sexes, chromosomes X et Y ; chez les Mammifères, la formule de la femelle est XX, celle du mâle XY).
- Un groupe de chercheurs de la Division de Génétique médicale de la Johns Hopkins University, à Baltimore, ont pensé intéressant de chercher à contrôler le chiffre donné en ig4o, qui n’a reçu aucune confirmation depuis cette date. Les recher-
- ches ont porté sur neuf chimpanzés, sept mâles et deux femelles qui, étant tuberculeux, ont été sacrifiés. Après anesthésie par le nembutal, durant trois à cinq heures, suffisante pour laisser agir une injection de colchicide ou de colcémide qui stoppe les divisions cellulaires dans une phase favorable à la numération des chromosomes, les auteurs ont prélevé de la moelle dans le tiers basal du radius. Après traitement dans une solution de citrate de soude à 37° et centrifugation, les cellules sont fixées dans l’alcool-acide acétique et préparées par la méthode de Feulgen, ou fixées à l’acide acétique à 5o pour ioo et colorées à l’orcéine lacto-acétique. Le comptage a été fait sur des plaques équatoriales à la métaphase. Les résultats, publiés dans Science (3 juin i960), permettent de confirmer sans aucune hésitation le nombre 48. La constitution sexuelle est, comme chez l’Homme, XY pour le mâle, XX pour la femelle. Le chromosome X est un « métacentrique » de taille moyenne, tandis que le chromosome Y semble être un très petit métacentrique.
- L. C.
- p.463 - vue 466/558
-
-
-
- 464
- Le saturnisme, devenu rare chez les hommes décime maintenant les canards sauvages
- On sait que l’ingestion de plomb provoque une dangereuse intoxication connue sous le nom de saturnisme. Le saturnisme affectait fréquemment autrefois les ouvriers des industries qui utilisent des produits à base de plomb, fabricants de céruse, peintres en bâtiment, vitriers, etc., et l’on prescrivait de donner quotidiennement à ces ouvriers une ration de lait qui passait pour un contre-poison efficace. Aujourd’hui les règles d’hygiène appliquées dans la manipulation de tous les produits toxiques ont rendu le saturnisme beaucoup moins fréquent. On en a pourtant signalé des cas, il n’y a pas longtemps, dans des régions où l’eau est très pure, comme les régions granitiques, et où l’on utilise des conduites de plomb pour acheminer l’eau potable. On sait que, bien que le plomb soit toxique, il n’y a généralement aucun danger à l’utiliser pour acheminer l’eau. La plupart des eaux contiennent du calcium, sous forme de sulfate ou de carbonate acide. Ces sels acides attaquent le plomb et forment à sa surface une couche de sels insolubles qui reste adhérente, de sorte que le métal n’est plus au contact de l’eau et se trouve protégé contre une attaque plus profonde. Cependant, lorsque l’eau est privée de sels de calcium et en même temps très aérée, comme c’est le cas pour l’eau de pluie ou pour celle des sources dans les terrains privés de calcaire, il ne se forme sur le plomb aucune couche protectrice et le métal donne avec l’oxygène un oxyde soluble qui est entraîné par l’eau. Dans ces conditions, les conduites en plomb doivent être prohibées si l’on veut utiliser l’eau pour 1’alimenta.tion.
- Tout comme les hommes, les animaux sont sujets au saturnisme et, à ce point de vue, l’eau qui n’est pas potable pour les hommes ne l’est pas non plus pour le bétail. Cependant il est bien rare que l’eau consommée par les animaux contienne du plomb ou des sels de plomb.
- Ceux qui n’ont pas de soucis cynégétiques seront donc bien étonnés d’apprendre qu’il existe une population animale dans laquelle le saturnisme fait de véritables ravages. C’est celle des canards sauvages, et la situation est assez grave pour que des études approfondies en aient été entreprises, d’abord aux États-Unis, ensuite en France. Un biologiste qui travaille à la station de la Réserve de Camargue, M. Luc Hoffmann, en a fait récemment un exposé dans la revue La Terre et la Vie, organe de la Société nationale de Protection de la Nature et d’Acclima-tation de France.
- Évidemment, il n’y a pas de plomb à l’état naturel dans les eaux que fréquentent les canards. Le plomb y est apporté uniquement par les chasseurs, sous forme de plomb de chasse. Encore faut-il que ces plombs soient assez abondants. Le saturnisme des canards ne présente donc une certaine importance que dans les régions où la chasse au gibier d’eau est très active, comme en Camargue.
- Malgré leur abondance les plombs de chasse ne sont pas assez nombreux pour polluer l’eau elle-même. C’est en avalant des plombs que les canards s’exposent à l’intoxication. On sait que les canards, surtout les canards plongeurs, comme les Milouins, se nourrissent en grande partie au fond de l’eau. Les auteurs américains qui ont étudié la question pensent que les canards absorbent des plombs de chasse parce qu’ils les confondent avec des graines comestibles. M. Hoffmann pense plutôt qu’ils les absorbent en même temps que des cailloux, ou en guise de cailloux, car on sait que les oiseaux stockent des cailloux dans leur gésier, où ils leur servent de concasseurs pour broyer les aliments durs, comme les graines. En effet, on constate que }es canards qui se nourrissent de graines sont beaucoup plus malades que ceux qui se nourrissent d’herbes, sans doute parce que leur gésier fonctionne alors activement, et que les plombs qu’il contient sont activement érodés.
- Il est à remarquer qu’il est sans danger pour un homme ou pour un mammifère d’absorber des plombs de chasse, car ils transitent rapidement dans leur tube digestif sans y séjourner. Au contraire les oiseaux gardent très longtemps dans leur gésier les corps durs qu’ils ont avalés. On a trouvé des canards dont le gésier contenait jusqu’à vingt plombs et davantage. Quand le canard consomme surtout des graines, ces plombs sont constamment usés et une forte dose de sels de plomb passe dans le tube digestif, s’accumulant particulièrement dans le foie et dans les os. En outre, une grande consommation de graines entraîne une abondance de glucides qui aggrave les lésions hépatiques. Dans ces conditions quelques plombs peuvent suffire, parfois un seul, pour entraîner une intoxication mortelle ou du moins qui affaiblit considérablement l’oiseau.
- L’importance du saturnisme chez les canards sauvages a été établie par Ja dissection d’un grand nombre d’oiseaux tués à la chasse et par l’observation d’oiseaux capturés vivants, qui ont été passés systématiquement à la radioscopie. Plus de io pour ioo des canards plongeurs ont été trouvés porteurs de plomb dans leur gésier.
- Aux États-Unis, où la question a été étudiée depuis longtemps, on a calculé que plus de 6 pour xoo des canards de l’Arkansas, soit 16 ooo sur 260 000, ont péri de saturnisme en deux mois, pendant l’hiver 1953-1954. La proportion a été trouvée encore plus forte dans le Missouri en 1949, et on estime maintenant que près d’un million d’oiseaux succombent chaque année, ces chiffres ne tenant pas compte des canards simplement malades.
- Le nombre des oiseaux qu’il est permis de tuer étant limité par la loi américaine, les effets du saturnisme sont eux aussi limités, du fait que les oiseaux malades échappent plus difficilement aux chasseurs. La situation pourrait être plus grave en France où le saturnisme, là où il sévit, gonfle sans doute beaucoup les tableaux de chasse. M: Luc Hoffmann, qui depuis ig54 a examiné en Camargue un très grand nombre de canards morts ou vivants et en a radiographié plus de i5 000, juge que l’importance du saturnisme doit y être trois fois plus grande qu’aux États-Unis.
- Quels remèdes peuvent être proposés pour enrayer un mal qui menace un de nos gibiers les plus estimés ? Aux États-Unis on a préconisé trois méthodes. La première consisterait à remplacer le plomb de chasse par d’autres métaux ou alliages; mais tous ceux qui ont été proposés jusqu’à présent semblent malheureusement aussi toxiques que le plomb. La deuxième serait de favoriser dans les marais une végétation qui entraînerait les canards à manger moins de graines et plus de verdure. Mais cela ne paraît réalisable qu’en certains endroits et sur des surfaces limitées. La troisième méthode consisterait à interdire de tirer les canards au-dessus de l’eau, pour que les plombs ne s’accumulent pas au fond des étangs. Une telle mesure a bien peu de chances d’être convenablement appliquée. En outre, il semble qu’il y ait déjà au fond des marais assez de plomb pour entretenir le mal pendant longtemps.
- M. Luc Hoffmann a songé à une autre méthode. Elle consiste à répandre au fond de l’eau, dans les endroits où les canards se nourrissent, du gravillon de 1 à 4 mm de diamètre. Il est à présumer que dans ces conditions les canards absorberaient surtout des cailloux et très peu de plomb.
- Cependant, si l’on continue à envoyer du plomb dans les étangs, on peut craindre que cette méthode elle-même puisse devenir insuffisante. L’idéal serait bien, semble-t-il, de trouver un alliage métallique inoffensif (du moins chimiquement) pour _en faire des plombs fie chasse. Il serait étonnant que la technique moderne s’y avoue impuissante. J. G.
- p.464 - vue 467/558
-
-
-
- Une branche nouvelle de la psychologie sociale
- Le développement des petits groupes
- 1. Variables fondamentales
- Sous le nom de « petits groupes », la psychologie sociale s’est donnée comme objet d’investigation tout groupement de personnes interdépendantes suffisamment limité pour que chacune d’elles soit directement consciente de la présence des autres, agisse sur elles et subisse leur action d’une manière également directe : réunion de cadres, cercle d’études, équipe de travail, groupe expérimental. Dans nos deux précédents articles nous avons donné un aperçu des méthodes utilisées pour dégager les Lois du fonctionnement de ces « petits groupes » (x).
- Comme toutes lois, les lois qui président à la vie des groupes restreints doivent énoncer des rapports constants et nécessaires entre des faits tels que la modification (ou la suppression) de l’un entraîne la modification (ou la suppression) de l’autre : ces faits sont appelés des variables. Or, l’évolution d’un groupe à partir de sa formation, son développement, semble bien résulter d’un enchaînement de faits observables, mesurables, dont les uns peuvent être appelés causes et les autres effets. Des efforts ont été déployés depuis quelques années pour conceptualiser ces faits et pour débrouiller les dimensions essentielles qui constituent le « champ psychologique » de tout petit groupe, quel qu’il soit, formel ou informel, centré sur la solution d’un problème ou centré sur sa propre vie de groupe. Il semble qu’un groupe ne puisse atteindre ses buts, vivre en tant que groupe, persévérer de quelque manière dans son être si, par exemple, les motivations individuelles ne provoquent pas l’apparition d’un « but de groupe », si les communications ne sont pas aptes à provoquer un consensus relatif aux normes, etc.
- Avant de nous intéresser d’une façon concrète aux facteurs de cohésion, de résolution de problèmes et de prise de décision, avant de rapporter les études expérimentales effectuées sur ces sujets, il nous faut effectuer une analyse théorique des facteurs et éléments fondamentaux de la vie des groupes, c’est-à-dire des variables sans lesquelles il n’y aurait pas de « conduite collective ».
- En fait, ces variables n’ont pas été posées a priori par les chercheurs; elles résultent de la recherche elle-même. Elles correspondent à des hypothèses validées par l’expérience. Mais nous sommes obligés de les présenter ici d’une façon didactique, sans préciser volontairement dans quel type de groupe elles jouent un rôle plus essentiel.
- *
- * *
- Tout groupe étant fait d’individus, un certain nombre de variables doivent nécessairement se rapporter à la conduite des individus en tant que tels. Étant donné d’autre part que le groupe se présente comme un noeud d’inter-actions et d’intercommunications, d’autres variables représentent les divers aspects de cette inter-dépendance. La structure du groupe comme totalité nécessite également ses propres concepts. Enfin, on ne saurait rendre compte de l’histoire même, de la temporalité du groupe, sans faire appel à des notions de style « dynamique », comme celles de forces, de tension, de progression. Il semble donc utile de distinguer déjà quatre grandes catégories de concepts, correspondant aux quatre grandes catégories de faits précédents : conduites individuelles, inter-dépendance, structure du champ, dynamique interne.
- 1. Une branche nouvelle de la psychologie sociale : la psychologie, des petits groupes, par J.-C. Filloux ; 1. Quelques points d’histoire, La Nature, août 1960, p. 328 ; 2. La méthode scientifique, septembre 1960, p. 373.
- L’individu dans le groupe : motivations, attitudes, activités
- On pourrait considérer, en un sens, que la « personnalité » de chaque membre du groupe est un facteur du comportement groupal. Mais il est plus juste de ne retenir que les motivations, attitudes et actions qui, au moment de la formation du groupe et pendant la vie même du groupe, exercent une influence directe sur les interactions : la personnalité a peut-être une action sur tel ou tel sentiment, telle ou telle conduite, mais c’est le sentiment en lui-même, la conduite en elle-même qui doivent être considérés à un moment donné comme les véritables variables individuelles du comportement de groupe.
- Nul ne participerait à quelque groupe que ce soit s’il n’était directement ou indirectement motivé à cela. Les groupes « formels » (équipe de travail, comité de direction), non moins que les groupes « informels » (groupes de voisinage, clubs spontanés), satisfont toujours, bien qu’à des degrés divers, des besoins qui ne pourraient être satisfaits autrement que par le groupe.
- Ces motivations peuvent être de diverses natures. Les unes sont directement orientées vers le groupe comme fin en soi : le fait de participer aux activités d’un groupe, d’être accepté par ses membres, donne souvent d’intenses gratifications, en supprimant la peur de l’isolement, en donnant une impression de sécurité; l’ambiance même propre à une réunion, malgré les conflits et les tensions qui peuvent naître, peut être le but recherché par ceux qui y participent. D’autres motivations concernent des satisfactions plus personnelles : ainsi le désir de se trouver dans une situation telle qu’il nous soit permis d’influencer, de persuader, de diriger autrui, motif qui dépasse souvent le besoin d’acceptation; ou encore le désir de voir ses propres mérites reconnus, de jouer certains rôles (narrateur, conseiller, bouffon), voire même de parvenir grâce au groupe à un statut social envié (des outsiders) ; bref le désir de réalisation personnelle. Enfin, il faut évoquer les désirs orientés vers des activités qui ne peuvent être accomplies qu’en groupe (jeux), ou qui sont nécessaires à la vie même (travail).
- Pour qu’un groupe fonctionne, il est clair que les diverses motivations des membres doivent être sinon communes, du moins concourantes, de manière à permettre l’élaboration d’un but commun.
- La deuxième variable qui sert à décrire le facteur individuel du comportement de groupe est l'attitude. Enfant chéri de la psychologie sociale, le concept d’attitude renvoie à toute disposition intérieure qui pousse l’individu à valoriser d’une manière ou d’une autre un objet environnant. Ainsi des préjugés, des sentiments de sympathie ou d’antipathie, etc., qüi donnent une certaine signification aux personnes qui nous entourent et qui, partant, induisent des conduites de notre part. Les attitudes (ou les sentiments) s’inscrivent dans des valeurs, pour former de véritables systèmes que Lin ton (2) appelle des « systèmes A^aleurs-attitudes ». Il semble établi que les attitudes observables chez un individu qui participe à un groupe dépendent, d’une part de données caractérielles innées et acquises,
- 2. Voir : Le fondement culturel de la personnalité, par Ralph Linton, professeur d’anthropologie à l’Université Columbia. Trad. par Andrée Lyotard. Préface de J.-C. Filloux. 1 vol. 11 x 17, 140 p. Monographies Dunod, Paris, 1959.
- p.465 - vue 468/558
-
-
-
- 466
- d’autre part de l’évolution propre du groupe : des sympathies immédiates peuvent se changer en antipathies, des préjugés peuvent s’estomper, etc. D’un autre point de vue, on distinguera les attitudes d’origine. culturelle (qui sont liées à des modèles, à des stéréotypes) et les attitudes d’origine psychologique, telles les attitudes agressives qui se trouveraient être le résultat de frustrations antérieures.
- Enfin, il va sans dire que la conduite même de l’individu dans le groupe, ce qu’il dit, ce qu’il fait, est une variable fondamentale. C’est même cette variable qui est observée systématiquement dans le cadre des méthodes destinées à analyser les inter-actions. Précisons toutefois que par conduite ou activité, il faut entendre le comportement réel de l’individu, c’est-à-dire le comportement tel qu’il est perçu par les observateurs ou par les membres du groupe, et non pas ce qu’il représente ou voudrait représenter pour l’individu qui se comporte.
- Les interactions :
- dépendance, influence, communications
- Une fois qu’un groupe est formé, il se présente comme un « tout » dont les « parties » agissent réciproquement les unes sur les autres. L’interaction se définit comme le type de relations entre deux ou plusieurs personnes dans lequel les actions de l’un sont affectées par les actions de l’autre ou des autres. Les concepts essentiels qui permettent de rendre compte de l’aspect proprement interactif du groupe sont ceux de te dépendance », d’ « influence » et de « communication ».
- Si le groupe se définit comme un « ensemble de personnes interdépendantes », cela ne veut pas dire que cette interdépendance ne puisse avoir de degrés. Les relations de dépendance entre les membres d’un groupe sont susceptibles de variations de grandeur et forment donc, en tant que telles, une variable importante. Nous verrons que le degré de dépendance d’un membre peut être un facteur de cohésion et de progression pour le groupe. Il est évident aussi que la dépendance est, dans une certaine mesure, un effet du besoin qui motive un individu vers le groupe : plus il a besoin des autres pour atteindre ses objectifs, plus sa dépendance est grande.
- D’autre part, l’action d’un individu sur un autre s’effectue essentiellement par le moyen de la communication et des échanges. Le « communiqué » consiste en informations relatives à des faits objectifs, des croyances, des attitudes, en questions posées à autrui, etc. Les psychosociologues conviennent actuellement d’appeler « émetteur » l’individu qui émet le communiqué, et « récepteur » celui qui le reçoit. La réponse du récepteur est considérée comme l’émission d’un nouveau « communiqué ». Lorsque des dialogues s’établissent dans le groupe, il se produit des échanges, qui peuvent avoir divers aspects, selon que tous participent ou non, qu’il y a un émetteur <c principal » ou non.
- Le niveau de communication peut être plus ou moins élevé, selon le degré de compréhension des messages. Ce degré dépend lui-même de l’identité du code employé : les mots doivent avoir le même sens pour les uns et pour les autres, il doit exister des systèmes de référence communs. Plus le niveau de communication est élevé, plus il y a de chances pour que le comportement de chacun s’accorde au comportement des autres et qu’en conséquence le groupe progresse vers ses buts et trouve sa cohésion. Signalons au passage que si les mots du langage forment le véhicule fondamental de la communication, surtout dans les groupes de travail et de décision, les gestes et mimiques sont aussi une part importante du communiqué, surtout lorsque la situation est telle qu’ils peuvent être interprétés en fonction d’un « symbolisme gestuel » implicite.
- La variable influence a été étudiée systématiquement depuis
- peu. Il s’agit, en un sens, d’un cas particulier de dépendance. En effet, il y a influence lorsqu’un individu agit de telle sorte qu’il modifie les perceptions, les attitudes, les motivations d’un autre individu, qui se trouve ainsi dans un état de dépendance accrue vis-à-vis de lui. On peut probablement distinguer deux types d’influence, selon qu’elle procède d’une personne ou d’un effet de groupe. Il y a « effet de groupe » (3) lorsqu’un membre du groupe est amené à partager une croyance commune à la totalité des membres du groupe, en raison même de l’uniformité de la croyance.
- Quant à l’influence exercée par une personne particulière, elle résulte souvent de son statut dans le groupe, du rôle qu’elle y joue effectivement : ainsi certaines compétences reconnues dans le domaine où se situe la discussion peuvent être responsables du « pouvoir » particulier d’un individu. Le pouvoir social du leader du groupe est un cas particulier d’influence : il peut dépendre du système externe au groupe lui-même si le leader a été imposé; mais, de toute manière, il dépend surtout de la manière dont le leader sait aider le travail du groupe, faciliter sa progression, ainsi que de l’histoire des interactions elles-mêmes. Nous retrouverons ces questions lorsque nous aborderons l’étude de la conduite (direction) des groupes.
- Ajoutons seulement que les processus d’influence mettent souvent en jeu des mécanismes psychologiques complexes, exprimables en termes psychanalytiques : ainsi le pouvoir d’un individu sur un autre peut provenir du fait que le premier est assimilé par le second au père qu’il avait étant enfant. Comme nous l’avons déjà signalé, des concepts psychanalytiques peuvent fort bien être utilisés dans l’analyse des comportements en groupe, sans pour autant être considérés comme des variables à manipuler expérimentalement.
- La structure du groupe : normes, rôles, cliques, cohésion
- Les processus d’influence, de dépendance et de communication ne sont pas en tant que tels des processus de groupe : ils peuvent exister dans le cadre de la relation à deux (dyade). L’allure qu’ils prennent dans le développement d’un petit groupe dépend de la façon dont la « vie de groupe » se structure progressivement. Ainsi, on communiquera d’autant mieux qu’on se sera mis préalablement d’accord sur un code; un individu aura d’autant plus d’influence sur un autre que le groupe lui aura donné une position de prestige plus grande, etc. Des variables importantes sont relatives à l’organisation interne du groupe comme totalité.
- Une des plus importantes est conceptualisée sous le terme de normes. Il est difficile de concevoir la formation et la préservation d’un groupe en l’absence de formes de comportement standardisées, obéissant aux mêmes normes. De même qu’une société ne saurait exister sans certaines règles qui modèlent le comportement de l’individu dans le sens de son intégration à l’ensemble, de même un petit groupe a besoin pour fonctionner que les individus suivent des règles d’interaction. Si celles-ci ne sont pas présentes au moment de la formation du groupe, elles ne tardent pas à émerger au fur et à mesure que le groupe se structure. On sait que les petits groupes de délinquants juvéniles acceptent une sorte de « code d’honneur », que le nouveau membre doit s’engager à respecter, et qu’il doit respecter effectivement, s’il veut s’intégrer au groupe. Les normes servent donc de systèmes de référence pour le comportement de l’individu dans ses relations avec les autres : l’acceptation
- 3. On sait d’autre part que le biologiste G. Bohn a appelé « effet de groupe » les modifications que beaucoup d’animaux subissent dans leur physiologie et leur croissance par le seul fait qu’un certain nombre d’individus se trouvent réunis.
- p.466 - vue 469/558
-
-
-
- 467
- ou le rejet d’un membre du groupe par les autres dépend dans une large mesure de son adhésion à son « code ».
- Il faut mettre ce fait en relation avec l’existence de processus par lesquels le groupe se « régularise » lui-même : les récompenses liées à l’adhésion aux normes, et les punitions liées aux déviations par rapport à ces normes permettent au groupe de se maintenir et de se perpétuer (auto-régulation). Les observations qui ont été faites dans les équipes d’ouvriers, tant par Mayo que par la sociologie industrielle, montrent l’importance des normes informelles, créées au sein même des groupes, et qui influencent directement le rendement, le moral, etc.
- D’autre part, un groupe ne peut se perpétuer pendant un certain temps sans organiser les membres inter-dépendants dans le cadre d’une hiérarchie fonctionnelle (hiérarchie de positions et de statuts) se traduisant par l’idée de rôle. Tel « jouera » le rôle de leader, de conseiller, d’éminence grise, de conciliateur, de « penseur », etc. Aussi bien un groupe présente-t-il de nombreuses situations dans lesquelles l’individu peut montrer ses capacités, exercer ses aptitudes, voir ses mérites reconnus. La cohésion du groupe dépend, nous le verrons, pour une grande part, de la possibilité pour chacun de jouer son propre rôle de façon à permettre aux autres de jouer le leur convenablement. La position de chaque membre est déterminée, d’une part en fonction de critères nés dans le groupe lui-même ou importés de l’extérieur, et d’autre part en fonction de sa contribution personnelle à la réalisation des objectifs communs. Notons que l’existence de statuts, et de rôles liés aux statuts, montre que la différenciation, non moins que l’intégration, caractérise toutes les relations interactives parmi les individus du groupe. La différenciation peut être à l’origine de conflits divers, et elle intervient incontestablement dans la distribution de l’influence des membres les uns sur les autres.
- Comme l’a montré Moreno, un groupe se subdivise en général toujours, à un moment ou à un autre, en sous-groupes, voire en fractions de sous-groupes. Moreno a utilisé le concept de •« clique » pour désigner de telles portions de la structure totale du groupe. Peut-être faut-il rapprocher le concept de clique du concept lewinien de « région ». On a vu dans un article précédent que, selon Lewin, la structure d’un petit groupe implique l’existence d’une sorte de « champ social », qui est le « lieu » des interactions. Ce champ peut être considéré comme comportant des régions, qui en sont donc des segments. Quoi qu’il en soit, les cliques qui se forment dans le cadre de la structure d’ensemble peuvent être considérées comme occupant des régions ou des sous-régions. Les difficultés les plus courantes dans la vie d’un groupe concernent les « barrières » qui s’établissent entre ces régions, ou entre les cliques, notamment s’il se trouve qu’il est difficile de communiquer d’une région à l’autre, de se faire comprendre d’une clique à l’autre.
- Mais il est évident qu’un groupe ne saurait se développer si les conflits, les oppositions ne se résolvaient, d’une certaine manière, si un équilibre (ou un quasi-équilibre) ne s’établissait pas. La cohésion est une variable qui est à la fois cause et effet : résultante des diverses forces dans le sens de l’intégration, elle est elle-même un facteur d’organisation, puisqu’elle favorise les communications, l’émergence des normes, l’exercice effectif des rôles. Nous lui consacrerons notre prochain article.
- La dynamique du groupe : forces, tensions, progression
- Les concepts que nous abordons à présent doivent rendre compte du mouvement du groupe, de son histoire temporelle. Lorsque des gens sont réunis en groupe, c’est afin d’obtenir •certains résultats qui ne peuvent être obtenus que de cette
- manière : ainsi un comité destiné à prendre des décisions relativement à un problème déterminé part d’un état donné (lors du début de la réunion) et parvient à un autre état (la décision finale). Tout se passe comme si on se trouvait en présence d’un organisme qui se meut d’un point à un autre : c’est pourquoi Lewin parlait de « locomotion groupale », étant bien entendu que cette locomotion est un cheminement dans le temps, comme la vie elle-même.
- Ce cheminement s’effectue en fonction de forces dont on peut dire d’une façon générale que les unes sont intégratives et les autres dissociatives. Il est donc lié au destin des énergies disponibles du groupe, qui peuvent s’exercer en tant que pressions vers Vunanimité (ou vers 1’ « uniformité »), ou inversement en tant que pressions dissociatives. Les diverses forces en action peuvent être représentées par des vecteurs ayant un point d’application, une direction et une grandeur. Leur origine est le groupe lui-même, lorsqu’il exerce une influence sur les individus, ou l’individu, lorsqu’il exerce une influence sur d’autres individus et sur le groupe; les sous-groupes sont eux aussi à l’origine de forces puissantes. Les disciples de Lewin pensent qu’on peut parler d’une véritable « puissance interne » du groupe, fonctionnellement liée à la manière dont les énergies sont intégi'ées, les conflits résolus. Ainsi, on pourra dire qu’un groupe décidé à parvenir au résultat final, persévérant malgré les obstacles et les difficultés internes, sachant s’organiser de façon à être suffisamment maître de sa propre évolution, fera preuve de volonté collective, de tonus.
- Le groupe apparaît donc comme un système de tensions : les unes sont en relation avec les buts que le groupe cherche à atteindre, avec l’ensemble des motivations individuelles (attentes, espérances, etc.), les autres résultent des situations pénibles que le groupe cherche à supprimer (angoisses, décharges d’agressivité, etc.).
- La progression du groupe vers ses buts apparaît donc comme l’ensemble des opérations par lesquelles le groupe réduit ses tensions positives (en franchissant les étapes intermédiaires qui le rapprochent peu à peu du but final) et ses tensions négatives (en découvrant des solutions optimales aux conflits qui le handicapent). La rapidité de la progression dépend bien entendu de la façon dont le groupe dépense son énergie dans ces diverses opérations. Parmi les facteurs de progression, les lewiniens accordent une attention particulière à ce qu’ils dénomment la « pertinence », la « clarté » et 1’ « acceptation » des éléments de la structure du groupe : la pertinence se définit par la concordance entre chaque élément de la structure et les buts; la clarté se définit par la concordance entre les perceptions des membres du groupe; l’acceptation se définit par la concordance entre les motivations des membres du groupe et la structure du groupe. Les obstacles majeurs à la progression résident souvent dans le fait que les buts sont trop élevés, qu’on a eu recours à une information insuffisante pour évaluer l’accessibilité des buts, que tout le monde n’est pas d’accord au fond sur les buts réels, etc. Nous retrouverons ces phénomènes et les analyserons plus en détail en temps utile.
- Conduite et régulation : le leadership
- Terminons cette tentative de synthèse des concepts fondamentaux, utilisés pour interpréter ce qui se passe quand on assiste au développement d’un groupe, en revenant sur le processus d'auto-régulation évoqué un peu plus haut. Cette idée d’autorégulation revient en un sens à dire que, quoi que le groupe fasse, il se conduit (4). Qu’il définisse ses buts et les moyens pour
- 4. Sur les rapports entre le concept de conduite et le fait de « se conduire », se référer à L’unité des sciences humaines, par Guy Palmade, à paraître prochainement chez Dunod.
- p.467 - vue 470/558
-
-
-
- 468
- les atteindre, qu’il organise des rôles et détermine des normes, qu’il hiérarchise ses organes, qu’il établisse des systèmes qui l’asservissent à lui-même, le groupe se présente comme un tout autonome qui (compte tenu des contraintes qui émanent du « système externe ») n’est pas animé de l’extérieur, mais agit de lui-même, dans le cadre de la zone de liberté qui est sienne.
- Ainsi, le groupe d’ouvriers étudié par Mayo lors de ses expériences à la Western Electric Company, tout en dépendant du système externe, c’est-à-dire de l’entreprise et de ses buts, formait un groupe informel ayant ses normes, ses lois, sa structure, sa vie. Il se conduisait lui-même en tant que groupe informel, même s’il subissait un certain nombre de contraintes extérieures : on peut même dire que ces contraintes (qui diminuaient objectivement sa zone de liberté) se présentaient dans la dynamique du groupe comme de simples éléments de fait dont les membres tenaient compte dans les prises de décision explicites ou implicites concernant le rendement, la solidarité, etc. (s). Une « auto-régulation » du groupe, en tant que groupe informel, était responsable du style des interactions, de l’équilibre entre les petites cliques, de l’équilibre quasi stationnaire du rendement.
- L’étude des « fonctions de régulation » (fonctions par lesquelles un groupe se régule, ou se régularise lui-même) a introduit une nouvelle perspective sur le leadership (c’est-à-dire le commandement, la direction du groupe). Il arrive en effet qu’à un moment ou à un autre, un membre conduise les autres membres : le groupe est alors soumis à un « leader » ; il arrive aussi que pratiquement quelques membres se partagent la conduite du groupe, se spécialisent en quelque sorte dans l’exercice des fonctions de régulation : il y a alors « leadership partagé ».
- 5. Sur Elton Mayo et les recherches de la Western Electric Company, voir notre premier article, août 1960, p. 328, et le texte de Homans, dans Hoslett : Les aspects humains de la direction des entreprises, Dunod, Paris, 1958.
- Dans ces divers cas, le ou les leaders n’ont d’influence, ou de a pouvoir », que dans la mesure où ils aident le groupe à atteindre ses buts, à suivre ses normes. L’idée de chef tout puissant parce qu’ayant des « qualités de chef » cède la place à l’idée d’un conducteur jouant un rôle régulateur en organisant les interactions. C’est bien le rôle qui est confié en général au président de séance dans diverses réunions et comités. Nous verrons qu’un « bon leader » facilite la résolution des tensions négatives, la préservation des ressources d’énergie nécessaires à la progression, la prise de conscience des résultats acquis et des moyens qui ont permis d’y parvenir (régulation informée).
- Il semble qu’un groupe de décision qui fonctionnerait d’une façon « démocratique » serait tel que les fonctions de régulation ne seraient jamais que déléguées à des membres, l’initiative de la conduite n’échappant jamais à la totalité du groupe.
- #
- * *
- Nous avons essayé de définir quelques-uns des concepts fondamentaux utilisés par la psychologie des groupes, concepts qui se présentent comme l’expression abstraite de faits concrets, observables. Leur classement en a été nécessairement schématique; et surtout ils sont liés à diverses théories, à divers « modèles » d’explication. Nous avons ainsi réuni des notions utilisées par Lewin à des notions utilisées par Moreno. Il va sans dire, d’autre part, qu’il nous faudra introduire chemin faisant d’autres variables. Du moins le terrain est défriché, et ces quelques concepts aideront le lecteur qui voudra bien les garder en mémoire à suivre les expériences riches en conséquences pratiques que nous aborderons dans nos prochains articles.
- (à suivre). Jean-Claude Filloux,
- Agrégé de l’Université.
- La survie des spermatozoïdes de l’abeille
- On sait que la reine d’abeille s’accouple une seule fois dans son existence, les spermatozoïdes restant vivants pendant plusieurs années dans un petit réservoir annexé au tractus génital, la spermathèque. On a pu observer des reines qui ont pondu des œufs fécondés sept ans après le vol nuptial. Cette extraordinaire longévité des spermatozoïdes pose un problème qui est loin d’être résolu. On a supposé qu’ils recevaient dans la spermathèque certains apports nutritifs; Mann a montré à ce sujet l’importance du fructose dans le métabolisme des spermatozoïdes. Ce sucre existe bien dans la semence fraîche mais disparaît très rapidement et la plupart des auteurs récents admettraient plutôt que les spermatozoïdes n’absorbent rien ou presque rien dans la spermathèque ; ils survivraient avec un métabolisme très bas.
- La spermathèque est un petit corps sphérique, à parois épaisses couvertes d’un réseau de trachées, relativement imperméables. Elle est remarquablement résistante aux causes de destruction; ainsi, quelques heures après la mort d’une reine, alors que tous les organes se désintègrent, la spermathèque reste en bon état avec des spermatozoïdes parfaitement vivants. On a pu les employer pour féconder d’autres reines.
- Ces faits ont donné l’idée à deux entomologistes de Bâton Rouge (Louisiane) de rechercher s’il était possible de conserver vivants pendant un certain temps des spermatozoïdes d’abeille et même de les transporter à une certaine distance pour les utiliser à féconder des reines. Chez les animaux supérieurs les spermatozoïdes ont pu être conservés vivants pendant trois ans à la température de la glace. Les résultats de la conservation des
- spermatozoïdes de l’abeille par le froid n’ont pas été aussi satisfaisants. A la recherche d’une autre méthode, les auteurs ont recueilli le sperme de 5 à 26 mâles et l’ont placé dans des tubes capillaires de 1,8 à 2 mm de diamètre. La conservation a été tentée par divers procédés : dilution du sperme dans différents milieux, remplacement de l’air du tube par un gaz, C02, azote ou hélium, ou exposition des tubes à des températures variées. Le sperme dilué dans du sang d’abeille ou de la gelée royale coagule et devient inemployable; le remplacement de l’air par un gaz n’a pas non plus été couronné de succès; en particulier en ce qui concerne le gaz carbonique, l’injection du sperme traité provoque la mort de la reine ; quelques tubes ont élé contaminés par des microbes.
- Les meilleurs résultats ont été obtenus avec du sperme conservé à la température du laboratoire (220 à 3o° C). La. semence est injectée dans l’oviducte de reines vierges anesthésiées, dont 55 ont été ainsi opérées. Une faible mortalité de 5 pour 100 est observée; les femelles qui subsistent sont conservées au milieu de colonies peu nombreuses et elles ont donné des œufs fertiles pendant trois ans. Conservés in vitro à la température du laboratoire, des spermatozoïdes ont pu être gardés vivants plus de quatre semaines. On a pu aussi les expédier par poste au laboratoire de Madison où, sur dix reines inséminées, huit ont pondu des œufs fertiles. Bien qu’elles ne semblent présenter aucune valeur pratique, ces expériences ne manquent pas d’intérêt en ce qui concerne la vitalité remarquable des spermatozoïdes des Hyménoptères.
- L. C.
- p.468 - vue 471/558
-
-
-
- LE MÉTRO AÉRIEN SUSPENDU
- Le développement des grandes villes est généralement freiné par la difficulté d’établir des modes de transport urbains suffisants. Les transports de surface se trouvent rapidement entravés par l’accroissement de la circulation. Les transports souterrains qui, du point de vue technique, constituent la solution la meilleure, conduisent à des dépenses élevées, insurmontables dans de nombreux cas.
- Aussi, à plusieurs reprises, on a songé à utiliser la troisième dimension non plus vers le sous-sol, mais vers le ciel, c’est-à-dire à réaliser un « métro aérien ». Mais, d’une part en raison du bruit des trains, d’autre part à cause de l’encombrement des structures nécessaires, cette solution n’avait pas été suivie de réalisations marquantes.
- L’utilisation de pneumatiques, déjà adoptée pour certaines rames du métro de Paris et qui s’est révélée très satisfaisante, jointe à la technique des véhicules « monorails », devrait permettre de remédier aux inconvénients précédents.
- Le monorail aérien n’est pas à proprement parler une nouveauté puisqu’il en existe en Allemagne deux exemplaires, dont le plus connu est celui du Wuppertal, dans la Ruhr, qui date de 1901. Depuis la fin de la guerre, quelques autres réalisations ont vu le jour, appartenant soit au type supporté, soit au type suspendu.
- En France, un groupe industriel important comprenant de nombreuses sociétés a étudié depuis quelques années, sous la direction de la Société anonyme française d’Études de Gestion et d’Entreprises, un projet de ce type, dans lequel le véhicule est suspendu à la voie de roulement. Les véhicules supportés par la voie de roulement présentent en effet une tendance à l’instabilité que l’on ne peut combattre qu’en accroissant les dimensions de la voie de roulement; en outre, ils s’adaptent assez mal aux courbes à faible rayon de courbure.
- La voie de roulement est une poutre métallique en caisson, dont la structure est la plus appropriée pour assurer la stabilité transversale de rames de véhicules circulant à grande vitesse. Elle est réalisée en tôles d’acier soudées électriquement. La rigidité d’une telle structure permet de n’installer des supports que tous les 00 m. Ges supports seraient des cylindres de 80 cm de diamètre, donc facilement, logeables dans les plans d’urbanisme existants. Cette structure est en outre très économique, les voies et leurs pylônes représentant de 5o à 55 pour 100 du coût total de l’installation. Le caisson protège les surfaces de
- roulement contre les intempéries et absorbe le bruit d’ailleurs assez faible des boggies.
- Les vitesses envisagées sont assez élevées, de l’ordre de 100 km/h de moyenne, avec une fréquence d’une rame toutes les 90 s. De telles performances nécessitent des dispositifs de signalisation très éprouvés et très sûrs. De plus, un freinage d’urgence intervient dès qu’un signal est brûlé.
- Le véhicule de démonstration a été construit en aluminium selon le principe monocoque. Il mesure i7,3o m de longueur, 2,96 m de largeur et 2,96 m de hauteur, et peut transporter 02 voyageurs assis et 91 debout. Le poids à vide avec ses deux boggies est de 16 tonnes.
- Le système de suspension qui assure la liaison entre le véhicule et les deux boggies est du type à coussin d’air comprimé. Ce dispositif associé aux pneumatiques de roulement donne aux passagers un confort exceptionnel. La stabilisation transversale est assurée par un système d’asservissement automatique.
- Les deux boggies comportent chacun quatre roues motrices dans le plan vertical, auxquelles s’ajoutent quatre petites roues de guidage horizontales qui s’appuient sur les parois latérales internes de la voie de roulement. Chaque boggie est entraîné par deux moteurs de traction qui fonctionnent sous tension de 600-750 V et développent chacun, en régime continu, une puissance de 95 à ii5 ch. Il a été prévu de remplacer ces moteurs par des moteurs plus puissants de i4o ch. Le freinage se fait de deux façons : par action sur les moteurs de traction et, comme sur les véhicules routiers ordinaires, par action pneumatique au moyen de mâchoires agissant sur des tambours ou des disques.
- La légèreté du véhicule et la puissance de traction disponible permettent d’utiliser au maximum l’adhérence des pneumatiques et autorisent des accélérations et décélérations importantes qui, jointes à la vitesse de croisière élevée, garantissent de bonnes vitesses commerciales.
- Le prix de revient d’une ligne de métro suspendu, y compris les installations, serait de 12 à 15 000 000 NF par kilomètre, soit 5 à 8 fois moins que le métro souterrain.
- Une ligne de démonstration de 1 km de longueur (fig. 1) a été installée à Châteauneuf-sur-I.oire, près d’Orléans, et a déjà retenu l’attention de plusieurs grandes villes étrangères qui envisagent de l’adopter. J. S.
- p.469 - vue 472/558
-
-
-
- L’ORGUE
- et ses multiples possibilités
- 2. L’alimentation et la mécanique (l)
- On conçoit que pour faire fonctionner ses nombreux tuyaux (il peut y en avoir jusqu’à io ooo dans les instruments les plus importants qui comportent une centaine de jeux), l’orgue exige une mécanique précise, robuste, complète mais aussi simple que possible, et des « poumons » en rapport avec sa taille : nous verrons dans cet article quelles sont les solutions adoptées en France. D’autres systèmes de transmission sont courants en Allemagne, mais leur étude nous entraînerait trop loin.
- L’alimentation en air
- Autrefois le vent était fourni par des soufflets de peau, actionnés par de robustes souffleurs. On pouvait voir au travail jusqu’à seize de ces modestes serviteurs dans certains instruments énormes, en Allemagne au xvne siècle (Sainte-Marie de Lübeck, i64i). Presque partout maintenant ces soufflets sont remplacés par des ventilateurs électriques centrifuges à fort débit (2/3 de mètre cube par minute et par jeu) mais donnant une pression faible, ne dépassant guère i5o mm d’eau, soit n mm de mercure. L’air est emmagasiné dans des réservoirs, sortes d’énormes soufflets carrés formés de deux tables de bois réunies par des plis de peau. La pression est réglée simplement à l’aide de poids posés sur la table supérieure mobile. Pour régler l’arrivée de l’air, on utilise un régulateur automatique dont le principe, très simple, est présenté par la figure i. A cause du bruit, on éloigne le plus possible l’ensemble alimentaire de l’orgue. Le vent qui sort du réservoir s’engouffre dans un énorme conduit carré
- 1. Voir : L’Orgue et ses multiples possibilités 1. Le matériel sonore, par James Lequeux, La Nature, octobre 1960, p. 401-408.
- Fig. 1. — Coupe schématique de l’alimentation en air d’un orgue.
- Le ventilateur V, entraîné par le moteur M, remplit d’air les réservoirs J? au moyen du porteveut T. Le débit du vent est régularisé automatiquement au moyen du système représenté ici : une peau P se déroule grâce à une ficelle passant sur la poulie L et Axée à la partie supérieure des réservoirs. Si ceux-ci sont pleins, la peau obstrue complètement le passage du vent, mais elle le découvre au fur et à mesure que les réservoirs se vident. Une membrane S, simple peau fixée aux quatre coins, tient lieu de soupape. La pression dans les réservoirs est assurée au moyen de masses M posées sur la table supérieure.
- (D’après A. Roue.ter, Initiation à la Facture rl’Orgue).
- en bois, le portevent, et se rend dans le soubassement de l’instrument.
- Comme le facteur utilise le plus souvent des pressions différentes pour chacun des claviers et même pour les basses et les dessus d’un même clavier (les tuyaux graves demandant un plus gros débit à plus faible pression que les tuyaux aigus), le portevent principal se ramifie pour aboutir à plusieurs régulateurs secondaires, suivis chacun d’un réservoir secondaire chargé des poids qui correspondent à la pression désirée, entre 6o et 120 mm d’eau selon les jeux... et selon les facteurs. Les pressions basses, utilisées exclusivement par les anciens (on trouve des pressions de 4o mm d’eau) donnent des résultats bien préférables aux pressions élevées, malgré une plus grande difficulté d’harmonisation. Pour éviter les a coups de bélier » qui pourraient survenir quand on fait cesser brusquement la demande d’air, on place par endroits des « antisecousses », sortes de petits soufflets maintenus par des ressorts, qui absorbent les variations rapides de pression.
- A la sortie des réservoirs secondaires, l’air est dirigé vers les sommiers qui constituent les éléments essentiels de la distribution d’air aux différents tuyaux.
- Le sommier mécanique. — Connu depuis le xiv® siècle sous la forme encore utilisée aujourd’hui, le sommier mécanique (fig. 2) assume, concurremment avec les systèmes pneumatiques ou électropneumatiques, le double rôle de distribuer
- Fig. 2. — Principe du sommier mécanique.
- A gauche, vue éclatée ; à droite, coupe schématique du sommier reconstitué. Explications dans le texte. F.S, faux sommier ; pv, portevent aboutissant à un tuyau posté, trop gros pour prendre place sur le sommier ; C, chape ; R, registre ; F.R, faux registre ; T, table ; G, gravures ; S, soupapes ; B, boursettes. Bien entendu, il y a pour chaque sommier plusieurs registres ; pour plus de clarté, un seul a été représenté ici.
- (D’après Norbert Dufourcq).
- l’air note par note à chaque tuyau selon l’enfoncement des touches du clavier, et de permettre à tout moment de faire parler ou taire chaque rangée de tuyaux de même timbre selon la position du bouton correspondant sur la console. A chacune de ces fonctions correspondent différents organes : pour la première la laye, les gravures et la table, pour la seconde les
- p.470 - vue 473/558
-
-
-
- 471
- Fig. 3. — Coupe schématique transversale de la laye, montrant une soupape.
- registres et les faux registres.
- Enfin les tuyaux sont supportés par la chape et les faux sommiers.
- Voici d’abord, tout au bas de l’ensemble, la laye, sorte de caisse étroite et allongée, ouverte sur le dessus et dans laquelle arrive le vent (fig. 3). Elle s’étend sur toute la longueur du sommier et sert d’organe distributeur. Sur sa partie supérieure est collée une sorte de grille formée de cases allongées (une par note) qui dépasse de beaucoup en largeur la laye. Ces gravures sont séparées de la laye par autant de soupapes rectangulaires, couvertes de peau collée à une des extrémités pour former charnière et assurer l’étanchéité. On agit de l’extérieur sur chaque soupape par un crochet relié à une tige, ou jonc, qui passe dans un petit trou percé dans le fond de la laye : les fuites d’air sont évitées grâce à une boursette en peau fine et imperméable. Au-dessus des gravures est fixée solidement la table, énorme planche de bois épais soigneusement poli, percée de multiples trous dont chacun correspond à un tuyau. Ainsi, quand on ouvrira une soupape, l’air sera introduit dans la gravure correspondante et sortira par plusieurs trous alignés : tous les tuyaux donnant la note (ou ses octaves s’ils sont de 16, 4 pieds, etc.) parleraient donc à la fois s’il n’y avait moyen
- Soupape
- Boursette
- Jonc
- d’isoler les différents jeux au moyen des registres. Imaginons donc une autre planche ou chape exactement analogue à la table, placée parallèlement au-dessus d’elle afin que les trous qui se correspondent soient sur la même verticale. Entre les deux peuvent coulisser des planches mobiles, les registres percés de trous semblables, guidées entre des planches fixes, les faux registres (voir fig. 16). Que l’organiste vienne à tirer un des boutons de registre, et grâce à un système de tringles, le registre vient à glisser dans son logement : en fin de course les trois étages de trous sont alignés, et l’air peut sortir si l’on appuie sur une soupape, faisant ainsi parler le tuyau dont le pied est encastré dans le trou de la chape. Bien entendu, le tout doit être parfaitement étanche : le bois est poli et ne doit pas présenter de nœud (on choisit le chêne en général) et toutes les pièces sont vissées et collées. Sinon l’air peut passer de registre en registre ou de gravure en gravure, provoquant des emprunts inadmissibles.
- Les pieds des tuyaux sont enfoncés dans les trous de la chape : comme les tuyaux ne pourraient tenir seuls debout, on les maintient plus haut par une planche trouée, le faux sommier (fig. 5). De plus, les tuyaux les plus gros sont fixés en d’autres endroits pour éviter qu’ils s’affaissent. Souvent, en raison de leur encombrement, ils sont postés, c’est-à-dire disposés plus ou moins loin du sommier, étant alors réunis à la chape par de petits portevents de métal ou de carton : il en est ainsi de la plupart des grands tuyaux de façade (fig. 4).
- Pour des raisons d’encombrement ou de symétrie, le facteur
- Fig. 4. — Tuyaux en place sur un sommier (orgue du Prytanée militaire de La Flèche).
- Remarquer la disposition des tuyaux, chaque rangée simple ou double correspondant à un jeu. Les gros tuyaux de bois du fond sont postés, et l’on voit les portevents qui leur apportent l’air. A gauche, les leviers servant au tirage des jeux (Photo Abbaye de Solesmes).
- p.471 - vue 474/558
-
-
-
- 472
- est amené à établir deux sommiers par clavier : le premier, dit sommier d'Ut, comprend tous les tuyaux des sons Ut, Ré, Mi, Fa ÿ, Sol ÿ, La $, tandis que le sommier d'ÎSt ÿ fait fonctionner les notes Ut Ré $, Fa, Sol, La, Si. Ils sont placés symétriquement par rapport à la console, les plus grands tuyaux aux extrémités ; le plancher qui les réunit permet le passage de l’accordeur.
- Les jeux de fond et de mixture sont le plus souvent placés ensemble en avant du sommier, les anches au fond, quelquefois, munies d’une laye et de soupapes particulières (fig. 6) : les
- «m W Wi r<-77T7. m
- 7Y/721, — G, ZZZ2Z Z77? ÆL.L zZz.S. g2 LlSUL. 1
- Fig. 6. — Coupe transversale d’un sommier à double laye.
- Les deux layes L, et L„ communiquent par un orifice fermé par la soupape N. Quand la soupape N est fermée, seule la laye L, est pleine d’air sous pression, et seule la gravure G, se remplit d’air lorsqu'on ouvre la soupape s,, bien que la soupape s„ s’ouvre en môme temps (les deux ver-gettes -u,, v2 sont solidaires de la même touche du clavier). Mais si l’on ouvre N au moyen de la vergette v, reliée à la pédale « appel d’anches » sur la console, la laye L3 se remplit d’air, et les tuyaux d’anches et de mixtures qu’elle alimente peuvent parler quand on appuie sur une touche. Remarquer la coupe transversale des parties supérieures du sommier, où l’on voit les registres et les faux registres (ceux-ci en noir) ainsi que les trous de sortie de l’air vers les tuyaux.
- (D’après A. Rougier, op. cit.).
- deux layes sont alors réunies par une grosse soupape commandée par une pédale d’appel à la console qui permet d’introduire au pied tout en jouant les anches choisies au préalable en tirant leur registre, ou de les supprimer. On place quelquefois les mixtures sur la même laye que les anches, et même des fonds de 4 et 2 pieds, ce qui constitue à nos yeux une erreur sur le plan de l’esthétique.
- Les principaux types de traction
- Il s’agit maintenant de communiquer à la soupape ie mouvement imprimé à la touche par le doigt de l’organiste. A cet effet, trois systèmes peuvent être utilisés dont le premier, qui a fait ses preuves depuis sept ou huit siècles, est encore le plus courant.
- Transmission mécanique. — Entre touche et soupape, le facteur a disposé un mécanisme primitivement fort simple : mais lorsque le clavier prit de l’extension, notamment vers le grave, il fallut « ramener » la largeur des sommiers (3 m environ chacun s’il y en a 2 par clavier) à celle des claviers, soit 78 cm seulement pour 56 touches. De plus, le sommier est souvent éloigné de la console, surtout celui de positif qui est en général situé au dos de l’organiste.
- L’abrégé (fig. 7) répond à ces nécessités. De l’extrémité cachée des touches, fonctionnant comme leviers de traction, partent des vergettes de bois mince terminées par un crochet ou une tige filetée, situées verticalement sous le clavier. Grâce à un petit levier, elles font pivoter autour de son axe une tringle horizontale, le rouleau, de longueur telle que son autre extrémité soit au niveau de la soupape qu’elle actionne par levier et vergette. C’est l’ensemble des rouleaux, réunis sur une planche trapézoïdale, qui constitue l’abrégé. Souvent les sommiers sont éloignés et leur liaison à l’abrégé implique de nombreux coudes à angle droit, réalisés au moyen d’équerres.
- Il en est ainsi pour tous les claviers et pour le pédalier.
- p.472 - vue 475/558
-
-
-
- Fig. 7. — L’abrégé de l’orgue du Prytanée militaire de La Flèche.
- Le sommier est vu par dessous. Les vergettes qui proviennent du clavier aboutissent par l’intermédiaire de tiges plus courtes à l’abrégé proprement dit, formé de rouleaux de fer (plus sombres) qui pivotent autour de leur axe. Chaque rouleau actionne à son tour, grâce à un petit levier, une soupape placée dans le sommier, donc invisible sur la photographie. On voit cependant les fils qui y aboutissent en passant dans les petites boursettes de peau, destinées à réaliser l’étanchéité du sommier. Du sommier partent surtout des portevents qui alimentent des tuyaux postés.
- (Photo Abbaye de Solesmes).
- On sait qu’il est fort utile de pouvoir réunir les claviers entre eux (accouplements) ou au pédalier (tirasses). Ces opérations peuvent être effectuées au moyen du dispositif représenté ligure 8, dont il existe un par touche. Les tirasses nécessitent un abrégé, car la largeur des touches du pédalier est plus grande. Mais il faut exercer sur le clavier inférieur supposé accouplé aux autres claviers une force bien supérieure à celle qui est nécessaire pour un clavier isolé. Dans ces conditions l’exécutant doit faire preuve d’une force physique opposée à un toucher rapide et précis.
- Pour remédier à cet inconvénient, l’anglais Barker inventait il y a plus de cent ans le levier pneumatique, sorte de relais pneumatique dont il existe un par note pour chacun des
- Touche du récit
- Touche du davier de Grand Orgue
- vers tes sommiers
- (D’après A. Rougier).
- Principe de Taccouplement mécanique.
- Grâce à ce système, la touche du clavier de grand orgue peut actionner non seulement une vergette A aboutissant au sommier de grand orgue, mais aussi la vergette B dépendant du récit. Geci se produit au moyen des deux leviers L1 et La et de la tige o. Pour supprimer l’accouplement, il suffit de relever le support P, de l’axe du levier Lv que l’écrou solidaire de A ne pourra plus actionner lorsqu’on appuiera sur la touche du grand orgue. Il existe un appareillage de cette sorte par touche. Tous les supports P, sont solidaires d’une même barre, actionnée de la console
- accouplements et des tirasses principaux (fig. 9). L’ensemble de ces leviers est en général groupé derrière la console en une machine pneumatique. Le principe des tirasses et des accouplements reste absolument le même, mais la fatigue de l’exécutant est supprimée, et non au détriment de la précision du toucher : trilles et notes répétées sont aussi faciles qu’avec le tirage direct.
- On facilite aussi le tirage des jeux, réalisé autrefois au moyen de toute une tringlerie qui nécessitait des muscles entraînés, par des relais pneumatiques, autorisant d’autre part l’établissement de combinaisons de jeux préparées à l’avance qu’on introduit au moment voulu avec un seul poussoir. Quelquefois
- Fig. 9. — Le levier pneumatique de Barker.
- C’est un véritable relais pneumatique. Lorsqu’on tire sur la vergette vlt la soupape s, s’ouvre, et le soufflet B se remplit de l’air provenant de la laye L, où règne une pression assez forte. La vergette v„ est ainsi tirée avec force. En relâchant v,, la soupape st se referme, et s2 s’ouvre, laissant s’échapper l’air contenu dans le soufflet. On conçoit qu’il ne soit pas difficile d’appliquer ce levier aux accouplements, les vergettes vl et v„ étant les analogues des vergettes A et B de la figure précédente. On supprime à volonté l’accouplement en vidant la laye L de l’air comprimé.
- p.473 - vue 476/558
-
-
-
- 474
- encore l’air du sommier dirigé vers les gros tuyaux postés ne sert qu’à alimenter un moteur de note, relais pneumatique qui évite l’altération de la pression dans le sommier, la quantité d’air que nécessite l’alimentation d’un levier Barker étant très inférieure à celle indispensable à faire parler le tuyau, qui possède alors une alimentation particulière.
- Transmission pneumatique. •-— Exploitant l’invention de Barker, le Français Moitessier imaginait en 1866 de remplacer toutes les transmissions mécaniques par des systèmes pneumatiques. Le tirage est donc effectué grâce à des tubes où règne une forte pression (fig. 10). Sachant que le levier Barker est plus sensible encore à 1a. dépression qu’à la pression, les constructeurs furent amenés à placer le soufflet dans la laye elle-même et à le relier à une case remplie d’air à forte pression, susceptible de le gonfler malgré celle qui règne dans la laye.
- De là, il n’y avait qu’un pas à faire pour confier à la paroi plane du soufflet le Tôle de soupape : c’est le sommier à membranes (fig. 11). Au lieu d’une laye par sommier, il y en a autant que de jeux et on peut supprimer les registres, les faux registres et la table puisqu’il est facile d’admettre l’air dans chaque laye au moyen d’une soupape. Les gravures n’ont plus pour fonction d’alimenter les tuyaux maïs actionnent les soupapes ou membranes : elles sont cette fois placées au-dessous.
- Gravure
- Fig. 10. — Principe du système pneumatique à pression.
- En appuyant sur la touche, on ouvre la petite soupape s, et l’air comprimé, provenant du tube t, remplit le soufflet A par l’intermédiaire du porte-vent f2. La soupape s„ est alors ouverte, laissant l’air de la laye remplir la gravure et faire parler les tuyaux (D’après A. Roucier).
- _________£27*72 CZZ) CT77;
- —zzzzzzzzzzzzzzzï
- Fig. 11. — Principe du sommier pneumatique à membranes.
- L’air comprimé provenant de la touche relève par l’intermédiaire du petit soufflet 5 les soupapes a et b. La gravure G, normalement remplie d’air comprimé à forte pression par l’intermédiaire du conduit c, se vide. Comme il règne dans la laye L„ une pression supérieure à la pression atmosphérique, la membrane Af2 est abaissée et le tuyau T2 parle. Mais dans la laye L, ne régnait que la pression atmosphérique (le bouton de registre n’étant pas tiré) et le tuyau T, ne parle pas. Si on relâche la touche, la pression se rétablit en G, et les membranes obstruent les pieds des tuyaux, car la pression est moins forte en L, et L2 qu’en G. Remarquer la simplicité de ce système, qui supprime registres et faux registres. Au contraire du sommier mécanique, il y a autant de layes que de jeux, placées cette fois au-dessus des gravures (D’après A. Rougieb).
- Ordinairement il y règne une pression supérieure à celle de la laye : qu’on vienne à la diminuer en ouvrant la soupape, et les membranes qui correspondent aux layes où se trouve introduit de l’air sous pression s’abaisseront, permettant aux tuyaux de parler.
- Bien entendu tous les tirages de jeux sont tubulaires. Les accouplements sont possibles grâce à des axes à membrane (fig. 12), dont il existe une par note. On peut encore préparer à l’avance des combinaisons de jeux, introduites par action d’une simple pédale.
- Le système pneumatique a été fort en honneur à la fin du
- Fig. 12. — Case d’accouplement à membrane.
- L’air comprimé provenant en a du grand orgue peut se rendre non seulement par b au sommier de grand orgue, mais aussi par b' au sommier de récit, qui se trouve donc accouplé. Pour supprimer l’accouplement, il suffit d’introduire en d une forte pression dans la case c, qui repousse la membrane m contre la paroi.
- (D’après A. Rougier).
- xixe siècle et l’est souv terre; mais, bien que séduisant à première vue, il produit un décalage entre l'instant où l’organiste abaisse la touche et celui où le tuyau parle, décalage qui devient intolérable dès que les tubes dépassent 5 ou 6 mm de longueur, et le toucher est peu précis.
- Transmission électrique. — Peu de temps avant l’invention du système pneumatique, on avait eu l’idée d’appliquer le courant électrique aux transmissions de l’orgue. Initialement de simples électro-aimants produisaient les forces nécessaires, mais ils exigeaient un débit excessif des piles alors seules en usage, et les forts courants usaient les contacts. En 1861 le docteur Peschard pensa à associer l’électricité à la machine pneumatique de Barker : c’est encore sous cette forme qu’on conçoit l’orgue électrique moderne. D’ailleurs, l’un des instruments construits par Peschard, l’orgue de Salon (Bouches-du-Rhône), fonctionne encore aujourd’hui.
- Chaque touche des claviers ou du pédalier permet de fermer un circuit, grâce à une ou plusieurs aiguilles d’argent ou de bronze phosphoreux formant contact. Une dynamo solidaire du ventilateur, ou des accumulateurs chargés par redresseur,
- i m ///// 7
- %
- & 1-2 y
- Fig. 13. — Sommier électropneumatique.
- Le principe est exactement le même que celui du sommier à membranes ; seul le mécanisme qui actionne les petites soupapes a et b diffère. La bobine d, excitée par le courant provenant d’une touche, attire à elle une minuscule pastille-soupape p, et le soufflet s où règne normalement la forte pression de G se dégonfle, entraînant les soupapes a et b vers le haut.
- (D’après A. Rougier).
- p.474 - vue 477/558
-
-
-
- 475
- fournissent le courant continu dont la tension est seulement de io à 16 V afin de limiter les risques d’incendie et d’éviter les étincelles de rupture qui rongent les contacts. Les sommiers schématisés figure i3 sont directement dérivés des sommiers pneumatiques et comportent donc des membranes. On construit aussi des « moteurs de notes » électro-pneumatiques pour les gros tuyaux postés.
- Les blocs de coupure schématisés figure i4 ne sont autres que des leviers Barker dont la soupape est commandée par un électro-aimant. Quand le courant passe dans celui-ci, le soufflet se gonfle grâce à la pression dans la boîte D et les contacts s’établissent en C ; il y a autant d’aiguilles que d’appels, d’accouplements et de tirasses dans l’orgue, et la figure i5 en explique le fonctionnement. Le contact étant établi par la touche d’où part un seul fil, le courant se rend au buffet dons la machine d’appel où il commande un électro-aimant répétiteur. La pièce mobile de celui-ci comporte cette fois plusieurs aiguilles de contact dont chacune correspond à un circuit séparé, fermé d’autre part à volonté par un bloc de coupure : on peut ainsi faire parler les jeux du clavier lui-même ou en plus les jeux d’autres claviers qui sont alors accouplés.
- Il est également possible d’adjoindre à l’aide de blocs de coupure l’octave grave ou aiguë à la note jouée, ou d’accoupler les autres claviers à l’octave. Ceci peut rendre de grands services lorsque les instruments sont de taille réduite, mais souvent au détriment de l’équilibre sonore : aussi convient-il de se méfier de ces combinaisons et de ne pas les employer à tort et à travers (signalons à ce propos que le système pneumatique permet aussi les accouplements et appels à l’octave, exceptionnels si l’orgue est mécanique).
- On peut s’étonner a priori de l’utilisation de l’air comprimé dans les blocs de contact ou de coupure qui pourraient être de simples relais purement électriques, polarisés par exemple. Mais, outre que ceux-ci consommeraient beaucoup de courant (ce qui serait gênant car les blocs fonctionnent souvent pendant toute la durée des morceaux), ils seraient moins sûrs. Peut-être y a-t-il là une marque de l’habitude qu’a l’organier de manipuler les relais pneumatiques, d’ailleurs fort bon marché : l’air comprimé n’est-il pas la force motrice qui vient à l’esprit quand il s’agit d’un orgue?
- Le tirage des jeux est aussi effectué par relais électro-pneumatique. D’autre part, l’électricité facilite énormément l’établissement de combinaisons préparées à l’avance par le facteur ou enregistrées par l’organiste avant l’exécution du morceau (combinaisons libres). Il s’agit là d’une véritable révolution dans le domaine de la facture, et tous les grands instruments sont munis de combinaisons électriques quel que soit leur type de traction. Avant l’application à l’orgue de Saint-Sulpice des combinaisons (alors pneumatiques) par Cavaillé Coll en 1862, on ne concevait l’organiste que flanqué de deux aides robustes et bons musiciens chargés d’introduire ou de retirer les jeux au moment voulu, aides difficiles à découvrir et pas toujours disponibles. Actuellement l’organiste prépare à l’avance toute la registration de ses morceaux importants, et il change de jeux en cours d’exécution en appuyant sur un seul bouton (ou champignon au pied) sans avoir besoin d’aide. Outre la simplicité de cette manipulation, elle incite l’exécutant à préparer soigneusement sa registration à l’avance, au lieu de la livrer trop souvent au hasard de son inspiration : on ne peut que se féliciter de la rigueur de l’interprétation qui est ainsi atteinte. Certains systèmes de combinaisons à carte perforée, où toute la registration d’un concert est enregistrée par l’organiste et peut être conservée, semblent promis à un large avenir.
- L’avenir des différents systèmes de transmission.
- — Les trois systèmes que nous venons de décrire ont leurs partisans et leurs détracteurs, bien que l’orgue pneumatique soit presque partout abandonné à cause de son imprécision. Le
- Fig. 14. — Bloc de coupure.
- Ce relais électropneumatique est l’équivalent d’un levier de Barker (flg. 9) dont les soupapes sont commandées par l’électro-aimant d ; ces soupapes a et b servent respectivement à remplir et à vider la boîte D et à fermer ou ouvrir le contact en C.
- (D’après A. Rougieb).
- Bloc-contact
- \ Touche ~s wyirtnr* récit
- Bloc-contact
- G.O.
- Touche
- grand-orgue
- Bloc-contact
- Ped
- Touche
- pédale
- Vers sommier ped.
- Vers ___
- sommier G.O.
- Tirasse
- Vers ______
- sommier RE
- AccÎRE-GO
- Tirasse
- RE
- Figr. 15. — Coupe simplifiée d’une machine d’appel d’un orgue à deux claviers.
- Cet ensemble correspond à une touche : au total, la machine prend une grande place. La situation de l'orgue est la suivante : le récit UE est accouplé au grand orgue GO, lui-même accouplé au pédalier. On appuie sur la touche du pédalier et sur celle du grand orgue. Les deux blocs de contacts correspondants (simples relais à électro-aimant, mais d’où partent plusieurs fils), assurent l’arrivée du courant aux blocs de coupure correspondants. On voit qu’en définitive le récit est actionné grâce à l’accouplement RE-GO. Il serait revenu au même d’appuyer sur la touche du récit. On voit comment l’introduction d’air comprimé dans les blocs de coupure permet de réaliser les accouplements (D’après A. Rougieb).
- p.475 - vue 478/558
-
-
-
- 476
- Fig. 16. — Boîte expressive de l’orgue de Saint-Merri, à Paris.
- Les tuyaux du clavier de récit sont enfermés dans cette vaste boîte, dont les volets s’ouvrent au gré de l’exécutant qui les commande au moyen d’une pédale. Au premier plan, les tuyaux et la chape ont été enlevés, et l’on voit les registres (planches sombres percées de trous) coulissant entre les faux registres, de bois plus clair.
- (Photo A. Laporte).
- tirage direct mécanique, où le doigt de l’organiste agit directement sur l’ouverture des soupapes, est parfait s’il est bien construit, sans jeu et bien équilibré. Associé aux machines Barker, il constitue pour beaucoup le système idéal par la précision du toucher qu’il permet : le célèbre organier Gonzalez, disparu il y a peu de temps, l’employa sous cette forme pour la construction de ses chefs-d’œuvre connus de tous (Saint-Merri de Paris, chapelle du Château de Versailles, etc.).
- Certains lui préfèrent la transmission électrique qui fonc-
- tionne souvent de façon parfaite, bien que le toucher soit quelquefois moins précis. Elle autorise surtout à placer où l’on veut la console, dont l’éloignement permet de mieux équilibrer les sonorités, quoique à cet égard son emplacement classique entre le buffet principal et le positif ne soit pas si mauvaise qu’on peut le prétendre. Enfin, plus qu’aucune autre, la transmission électrique présente l’avantage des multiples combinaisons électriques ajustables, dont il est d’ailleurs possible de faire bénéficier l’instrument mécanique : c’est sans doute là le perfectionnement le plus important qui ait été apporté à l’orgue depuis quatre-vingts ans, et l’attention des facteurs d’aujourd’hui se porte de plus en plus sur ce point. Les consoles modernes ressemblent beaucoup aux tableaux de commande des machines industrielles, mais l’organiste doit toujours pouvoir facilement s’y retrouver : tout ce monde ne doit-il pas être mis au service de l’art, et celui-ci ne nécessite-t-il pas une concentration intellectuelle incompatible avec une mécanisation trop complexe ?
- La boîte expressive
- L’instrument que nous avons étudié jusqu’ici ne comporte aucun élément expressif, c’est-à-dire aucun moyen de faire des crescendo ou decrescendo. Dès le début du xvm6 siècle, l’Anglais Jordan eut l’idée d’enfermer certains des jeux dans une boîte de bois fermée de tous côtés, sauf une face où des volets mobiles permettent de régler à volonté l’intensité du son parvenant à l’auditeur (fig. 16). Introduite en Allemagne à Leipzig en 1745, où Bach dut l’essayer, cette boîte expressive a été construite presque sans modification par Cavaillé Coll pour tous ses instruments, à partir de la moitié du siècle dernier. La commande mécanique de l’ouverture des volets à l’aide d’une pédale peut d’ailleurs être remplacée par un système pneumatique ou électropneumatique. On limite ordinairement l’emploi de l’expression au clavier de récit où se trouvent la plupart des jeux de solo, plus rarement au clavier de positif. Afin de réduire la dépense, on ne construit jamais de boîte de plus de 8 pieds de haut; c’est pourquoi les 16 pieds du récit sont, soit des fonds bouchés (bourdon ou quintaton de 16), soit des anches cylindriques : si le facteur tient à y placer une bombarde ou un basson de 16, il fera les tuyaux les plus graves cylindriques, au détriment de la sonorité s’il n’est pas très habile.
- L’utilité de la boîte expressive est incontestable et presque toutes les oeuvres pour orgue écrites depuis César Franck nécessitent l’expression; mais il faut bien se garder d’interpréter « avec expression » les œuvres du xvn° et du xvme siècle, surtout celles de Bach, qui procèdent presque uniquement par opposition de claviers, donc de plans sonores : ce serait à la fois une hérésie et une grave faute de goût.
- (à suivre). James Lequeux.
- Agrégé de l’Université.
- Sons transmis a 19 000 km dans l’Océan
- Une information du Centre culturel américain nous apprenait récemment que les chercheurs du navire-laboratoire de l’Université Columbia, le Vema, naviguant dans l’Océan Indien, ont fait exploser à cinq minutes d’intervalle, dans les eaux qui baignent les côtes méridionales de l’Australie, trois charges détonantes de 22 kg dont les ondes sonores ont contourné 1 •• Cap de Bonne-Espérance et ont fait frémir l’aiguille d’un appareil enregistreur situé dans les Bermudes, à plus de 19 000 km de l’explosion.
- Les ondes ont mis 144 minutes pour décrire un arc de cercle qui leur a fait traverser l’Océan Indien, l’Atlantique Sud, puis l’Atlantique Nord. Elles ont pu être entendues sur bandes enregistrées, sous forme de lentes pulsations s’élevant en crescendo
- avant de s’éteindre graduellement. Le son a suiv* un étroit canal comme il en existe au sein de l’Océan, canaux qui sont délimités par les différences de densité et de température de l’eau. Le canal du son Australie-Bermudes commence près de la surface, puis plonge à 1 260 m près de l’Equateur, où la surface de l’eau est chaude.
- Il y a déjà quinze ans que le Dr. Maurice Ewing, chef de l'expédition américaine de l’Océan Indien, a découvert l’existence de ces « voies du son » dans la masse océanique, puis a mis au point un appareil appelé Sofar, basé sur ce phénomène. Aucune expérience de cette importance n’avait pourtant été réalisée jusqu’à présent.
- p.476 - vue 479/558
-
-
-
- A la recherche des codes de Vhérédité
- Travaux récents et prometteurs sur les acides nucléiques
- Les acides nucléiques contenus dans les cellules vivantes sont les véhicules de leur hérédité. Par leur structure, ils constituent des « codes » qui gouvernent la synthèse de toutes les substances dont les cellules sont formées et par là tous les caractères de ces cellules. Cette notion, bien acquise, stimule d’innombrables recherches sur ces acides. Nous allons en signaler quelques-unes parmi les plus récentes.
- Rappelons d’abord que les acides nucléiques existent sous deux formes. D’une part, l’acicle désoxyribonucléique ADN, ou DNA (suivant la terminologie internationale maintenant admise), qu’on trouve dans le noyau de la cellule et qui paraît contenir les gènes responsables de l’hérédité sous l’aspect de séquences variables de certains de ses constituants (La Nature, janvier 1959, p. 29). D’autre part, l’acide ribonucléique ou RNA, présent aussi dans le noyau, mais qu’on découvre surtout dans le cytoplasme où il préside à la formation des protéines. Le RNA se distingue du DNA par l’enroulement plus complexe de sa structure et par de légères différences de composition chimique, en particulier par le fait que le désoxyribose du DNA y est remplacé par le d-ribose.
- Les acides nucléiques se présentent sous l’aspect de longues chaînes moléculaires faites de deux brins enroulés en spirale, comme deux ficelles nattées. Ces brins se séparent dans le DNA au moment de la division cellulaire et puisent alors dans le milieu chimique où ils baignent les éléments nécessaires à la formation d’un nouveau brin, reconstituant ainsi à deux exemplaires la structure double primitive. A côté d’une épine dorsale identique faite de molécules alternées de sucre et d’acide phosphorique, chacun des brins porte des groupes basiques latéraux dont c’est la séquence variable qui semble jouer le rôle d’un code. Ces bases sont au nombre de quatre. D’une part deux bases puriques, l’adénine et la guanine, de l’autre deux bases pyrimidiques, la thymine et la cytosine; cependant, la thymine propre au DNA est remplacée dans le RNA par l’ura-cile. C’est par l’intermédiaire de ces bases que se trouvent unis les deux brins de la structure hélicoïdale double des acides nucléiques (fig. 1). Mais l’adénine de l’un des brins ne s’unit qu’à la thymine (ou à l’uracile) appartenant à l’autre brin. De même la guanine ne s’unit qu’à la cytosine. Ainsi, la séquence de bases située sur l’un des brins règle avec précision la séquence située sur l’autre. Chaque molécule d’acide nucléique possède donc une structure double originale et en même temps permanente, puisqu’elle se reproduit exactement à chaque division cellulaire.
- C’est avant cette division ou mitose, vers la fin de l’inter-phase (période où les chromosomes ne sont pas visibles), que se place la synthèse. Les brins moléculaires du DNA chromosomique se déroulent, se séparent et chacun d’eux synthétise à partir de ce moment un nouveau brin. Mais le brin primitif ne se contente pas d’attirer à lui, par l’intermédiaire de ses propres bases, des bases complémentaires libres. Il existe aussi dans le milieu cellulaire des « nucléosides » et des « nucléotides » tout prêts à s’incorporer dans la structure du DNA.
- Un nucléoside est formé d’une base, la thymine par exemple, liée à un sucre dont nous savons qu’il se présente dans le DNA sous forme de désoxyribose. Ce nucléoside porte le nom de thymidine. S’il s’agit de l’une ou l’autre des trois autres bases on dira respectivement cytidine, adénosine ou guanosine. Quant aux nucléotides, chacun d’eux forme un échelon com-
- a
- b
- c
- DRHA
- GKDR
- Fig. 1. — Structure supposée
- j MgHcH
- I MâHx]—j . I HÂHïh-j ! j-CëHIH I j-m-iÂH ! Hs-E-j | j-TGHçQ-j
- | jHIHÂH
- ! HE!—[g}—j
- du DNA.
- a : Les deux chaînes parallèles s’enroulent en hélice et sont reliées entre elles par des échelons dont chacun est formé de deux bases (l’une purique, l’autre pyrimidique). — b : Chaînes déployées ; chaque chaîne est formée de désoxyribose (DR) alternant avec des groupes phosphoriques (P) ; un couple de bases relie d’une chaîne à l’autre les DR qui se font face, l’adénine (A.) ne s’associant qu’à la thymine (T) et la guanine (G) qu’à la cytosine (C). — c : Séquence hypothétique de bases se présentant en ordre inverse dans les deux chaînes identiques. Pour se reproduire la molécule se scinde d’abord longitudinalement en deux brins, chaque brin conservant une base de chaque couple (voir la figure 2). La molécule de DNA est bien entendu infiniment plus longue qu’il n’est indiqué dans cette figure schématique.
- plet de la structure d’un brin de DNA ou, si l’on considère la structure hélicoïdale double complète, un demi-échelon. Un nucléotide se compose donc d’une base liée non seulement à un sucre mais aussi à une molécule d’acide phosphorique.
- b
- Fig. 2. — Synthèse d’un nouveau brin de DNA à partir d'un brin existant.
- Les lettres ont les mêmes significations que dans la figure 1. — a : Les deux' brins d’une molécule de DNA se séparent au niveau des lignes pointillées, entre les bases qui les réunissaient. — b : Le brin de gauche attire, par l’intermédiaire de ses bases latérales, des nucléotides complémentaires qui vont former eux-mêmes un nouveau brin et compléter la molécule. Le brin de droite, non figuré, se complète bien entendu selon le même processus, de sorte que la molécule de DNA aura donné naissance à deux molécules
- identiques.
- p.477 - vue 480/558
-
-
-
- 478
- On dira alors qu’il s’agit d’acide thymidilique si la base incorporée est la thymine ou, par exemple, d’acide cytidilique si la base est la cytosine. Au moment de la synthèse, il semble que des nucléotides, ou tout au moins, des nucléosides, se trouvent attirés en bloc par le brin de DNA qui cherche à reconstituer sa structure double primitive. C’est ainsi qu’une base purique adénine, située sur un brin de DNA préexistant, attirera à elle non pas seulement une base pyrimidique thymine isolée, mais une thymine déjà liée à un groupe sucre et à un groupe phosphate, groupes qui entreront dans l’ossature longitudinale du nouveau brin en voie de formation (fig. 2).
- On suppose généralement que la séquence des bases dans un brin est telle que lorsque ce brin a induit la construction de son complémentaire, celui-ci est exactement semblable au premier, l’ordre des bases y étant seulement inversé (fig. 1 c). Mais cette hypothèse n’est pas obligatoire pour que le DNA se reproduise fidèlement. Si les deux brins sont différents, chacun des deux, une fois séparé, reconstituera son brin complémentaire, et les deux DNA finaux n’en seront pas moins identiques.
- Notons que, d’après Vendrely, les bases puriques libres, adénine et guanine, entreraient directement dans les processus de synthèse. Tandis que les bases pyrimidiques, thymine et cytosine, seraient incorporées de préférence lorsqu’elles sont déjà combinées en nucléosides ou nucléotides.
- Ayant ainsi bien présentes à l’esprit les caractéristiques principales des acides nucléiques, nous saisirons mieux la signification de quelques expériences récentes.
- Un phénomène inédit : l’hybridation chimique du DNA
- Deux biochimistes de Harvard, les docteurs Julius Marmur et Paul M. Doty, viennent de publier des comptes rendus intitulés : « Séparation et recombinaison spécifique des brins moléculaires d’acide désoxyribonucléique ». Ces chercheurs, après avoir extrait le DNA de deux souches bactériennes voisines, le chauffent pendant 10 minutes jusqu’au voisinage du point d’ébullition. Cette expérience avait déjà été faite et on savait que la chaleur dénaturait le DNA. En particulier son poids moléculaire diminuait de moitié, ce qui indiquait que
- la dénaturation provenait selon toute vraisemblance de la séparation des deux brins de la structure double. En se refroidissant, le DNA reprenait quelquefois un peu de son activité biologique, jamais en tout cas lorsqu’il était refroidi brusquement. Marmur et Doty, en appliquant une nouvelle méthode de refroidissement progressif, durant plusieurs heures, ont réussi à préserver l’activité biologique du DNA. Ils ont vérifié cette activité en mettant l’acide nucléique en contact avec une souche bactérienne étrangère, qui acquérait, par un phénomène de « transduction », certaines caractéristiques provenant du DNA d’expérience.
- Mais nous avons dit que Marmur et Doty employaient un DNA mélangé extrait de deux souches voisines et néanmoins différentes. Lorsque les brins de la structure moléculaire double se séparaient sous l’influence de la chaleur, pouvait-on admettre qu’en se refroidissant ces brins se réuniraient en reformant exactement les deux types de DNA différents qui se trouvaient présents au début de l’expérience? Ou au contraire y aurait-il mélange des brins au hasard ? Dans ce dernier cas, des prévisions statistiques pouvaient être faites. La moitié du DNA actif recueilli après l’expérience avait de fortes chances d’être hybride, c’est-à-dire de porter dans sa structure moléculaire double un brin appartenant à une souche et le second brin à une autre souche. Il s’agirait là d’une hybridation chimique, c’est-à-dire se produisant à l’intérieur même de la molécule.
- Pour vérifier cette éventualité, Marmur et Doty ont cultivé les deux souches microbiennes destinées à l’expérience dans des milieux différents. Un de ces milieux contenait de l’azote ordinaire de poids atomique i4 et l’autre de l’azote i5. Les deux espèces de DNA extraites des bactéries étaient d’abord chauffées séparément. Après un refroidissement rapide, qui empêchait les brins moléculaires de se recombiner et les laissait par conséquent séparés, on procédait au mélange des deux préparations. Ce mélange était alors chauffé de nouveau mais cette fois refroidi très lentement pour que des structures complètes puissent se reformer. On constatait alors, grâce à des procédés de vérification du poids moléculaire, que beaucoup de molécules de DNA contenaient par parties égales de l’azote i4 et de l’azote i5. C’était la preuve que des brins provenant de deux souches microbiennes différentes s’étaient recombinés en structures hélicoïdales doubles. Un des brins portait de l’azote i4 et l’autre de l’azote i5 (fig. 3).
- a b c
- Fig. 3. — Séparation par la chaleur et recombinaison des brins de DNA.
- a : On traite par la chaleur un mélange de molécules de DNA de deux types très voisins (comme deux gènes susceptibles de se remplacer au même « locus » d’un même chromosome) ; les deux types sont représentés respectivement en blanc et en noir ; les deux brins de chaque molécule commencent à se séparer. — b : Sous l’effet de la chaleur, la séparation des brins s’est achevée. — c : Au cours du refroidissement du mélange, les brins se recombinent au hasard : les deux types de DNA forment statistiquement 50 pour 100 de molécules hybrides, comportant un brin blanc
- et un brin noir.
- p.478 - vue 481/558
-
-
-
- 479
- Un tel phénomène d’hybridation chimique est assurément très nouveau. L’hybridation naturelle se présente en effet de toute autre façon : ce sont les chromosomes appartenant à une même paire qui portent des caractéristiques différentes. Mais chacun de ces chromosomes contient des molécules de D'NA spécifiques, qui toutes sont faites de deux brins identiques ou tout au moins parfaitement complémentaires. Même s’il se produit des phénomènes de « crossing-over », de translocation d’un morceau de chromosome dans un autre, la structure des molécules de DNA n’est pas pour autant touchée. De toute façon il ne peut se produire dans ces accidents qu’une coupure transversale de la chaîne moléculaire et non une séparation des deux brins constitutifs dans le sens de leur longueur. C’est justement ce dédoublement longitudinal qui a lieu dans l’hybridation chimique.
- Marmur et Doty ont d’ailleurs contrôlé l’existence de ce genre d’hybridation par un test biologique. Dans une de leurs expériences, ils ont mélangé les DNA provenant de deux souches microbiennes ayant des caractéristiques différentes et aisément contrôlables. La première souche était normale, sensible à la streptomycine, tandis que la seconde y était résistante. Après le refroidissement de la solution on pouvait constater que plus de la moitié du DNA subsistant était capable de conférer la résistance à une souche normale de bactéries. C’était l’indication que le DNA de type résistant, présent au début de l’expérience, possédait le caractère dans chacun de ses deux brins.
- On imagine facilement ce qui se passe dans un tel cas. Au début de l’expérience, nous avons un DNA résistant et un DNA normal. Après séparation des brins par chauffage, nous obtenons 5o pour ioo de brins normaux et 5o pour ioo de brins
- a b
- Fig. 4. — Diverses possibilités d’hybridation chimique du DNA.
- ©eux types de brins moléculaires de DNA sont en présence. En trait plein, brins normaux d’une souche bactérienne sensible à la streptomycine ; en pointillé, brins de DNA d’une souche de la même espèce, mais résistante à la streptomycine. En a, on voit (lre ligne en haut), 2 structures doubles normales et 2 structures doubles résistantes qui possèdent le caractère • dans chacun de leurs deux brins. Après mélange au hasard figuré par les flèches, on peut obtenir 50 pour 100 d’hybrides (2° ligne), 100 pour 100 d’hybrides (3S ligne) ou revenir à la distribution primitive (4e ligne). Si les brins doués de résistance sont dominants on obtient entre 50 et 100 pour 100 de structures résistantes, soit plus de la moitié. En b, les structures résistantes ne possèdent le caractère que dans un seul brin. Dans .ce cas on obtient après mélange au hasard entre 25 et 50 pour 100 de structures doubles résistantes, soit moins de la moitié.
- résislants, en admettant bien entendu que le DNA doué de résistance possède ce caractère dans chacun de ses deux brins. Le mélange au hasard de l’ensemble des brins produit alors statistiquement 25 pour ioo de structures doubles comportant deux brins normaux non résistants, 25 pour xoo de structures comportant deux brins résistants, et enfin 5o pour ioo d’hybrides chimiques formés d’un brin résistant et d’un brin normal. Si l’on admet que la résistance est un caractère dominant, on comprend que 75 pour 100, ou tout au moins plus de la moitié du DNA actif recueilli à la fin de l’expérience possède ce caractère.
- Au contraire, si le DNA de type résistant présent au début de l’expérience n’avait comporté le caractère que dans un seul de ses brins, la séparation au cours de l’expérience des brins des deux types de DNA du matériel d’origine n’aurait produit que 25 pour 100 de brins résistants. Donc, on aurait retrouvé moins de 5o pour 100 de DNA résistant à la fin de l’expérience, après la recombinaison au hasard de tous les brins. Dans cette éventualité l’hybridation ne pouvait être prouvée, les pourcentages de DNA résistant et de DNA normal ne montrant pas de variation caractéristique par rapport à la composition du matériel d’origine.
- Ce n’est pas ce qui se produit en réalité. Le fait qu’après refroidissement de l’acide nucléique on puisse recueillir plus de 5o pour 100 de DNA résistant constitue une preuve de l’hybridation chimique (fig. 4).
- L’adénine changée en guanine ? — Cette hybridation chimique n’est concevable qu’entre souches voisines. Nous nous heurterions dans le cas contraire à des difficultés théoriques. Il faut, pour que l’hybridation soit possible, que les structures moléculaires des deux brins de DNA qui s’unissent soient complémentaires, tout au moins dans la quasi-totalité de leur longueur. Autrement la liaison ne pourrait se faire. On a vu en effet que c’est par leurs groupes basiques latéraux que les deux brins sont liés, l’adénine s’unissant toujours à la thymine et la guanine à la cytosine. L’hybridation ne serait donc possible qu’entre souches voisines dont les DNA ne présenteraient que des différences de structure très étroitement localisées.
- D’ailleurs il faut noter que le changement d’un seul nucléotide doit pouvoir modifier la valeur génétique de la structure, comme semblent l’indiquer les expériences d’Ingram sur l’hémoglobine. Cet auteur a montré que le simple remplacement d’un acide aminé par un autre dans un des deux groupes de 3oo qui composent la molécule, suffisait à modifier gravement l’activité biologique de l’hémoglobine. Celle-ci devient responsable de l’anémie caractérisée par la forme en faucille des globules rouges du sang (sicklémie). On peut donc imaginer, par analogie, que dans un DNA bactérien un caractère comme la résistance à la streptomycine dépendrait de la modification d’un seul couple de bases. Une différence de structure aussi localisée ne suffirait pas à empêcher l’union d’un brin de ce type avec un brin de type normal.
- On se demande en revanche comment la résistance à la streptomycine pourrait se maintenir puisqu’il y aurait incompatibilité de jonction entre deux bases, au niveau justement du facteur qui détermine cette résistance. Peut-être la présence d’une base donnée sur l’un des brins, sans qu’à cet endroit cette base soit liée à une base correspondante située sur l’autre brin, suffit-elle au maintien du caractère. Cela paraît néanmoins douteux puisqu’un brin de DNA perd son activité biologique quand il se trouve isolé. C’est ce qui se produit dans une solution de DNA chauffée et rapidement refroidie où les brins moléculaires qui se sont séparés ne se recombinent pas. Comment donc une base isolée, qui ne serait plus liée à sa base complémentaire, garderait-elle le pouvoir de maintenir un caractère biologique ?
- p.479 - vue 482/558
-
-
-
- 480
- Une autre hypothèse serait sans doute plus vraisemblable. La base isolée, correspondant au caractère dominant porté par le brin de DNA résistant, pourrait induire une modification, c’est-à-dire l’apparition d’une base complémentaire de sa propre structure, sur le brin de DNA de' type normal. La molécule hybride se trouverait dès lors munie sur toute sa longueur de liaisons basiques régulières. Cette possibilité est suggérée par des observations de R. Vendrely et C. Vendrely. Dans la synthèse du DNA, par exemple, des nucléosides formés d’une base et d’un groupe ribose sont souvent incorporés. Pourtant le ribose est propre au RNA. On doit donc supposer que pour entrer dans la composition du DNA le ribose se transforme en désoxyribose sans rupture du lien ribosidique du nucléoside. D’autre part, en utilisant des traceurs radioactifs, on s’aperçoit que l’adénine peut dans certains cas se transformer en guanine. Il ne serait donc pas interdit d’imaginer, par exemple, qu’un couple de bases cytosine-guanine soit propre à un DNA de type résistant tandis qu’un couple thymine-adénine caractériserait un DNA de type normal.
- Supposons qu’un brin résistant, donc porteur de cytosine, s’unisse à un brin normal. La cytosine trouvera en face d’elle de l’adénine avec laquelle elle ne pourra s’unir. Mais si cette adénine se transforme en guanine sans rompre sa liaison avec le nucléotide auquel elle appartient, un nouveau couple cytosine-guanine aura la possibilité de se former à la place du couple thymine-adénine du DNA normal (fig. 5). La chose n’est pas impossible puisque M. et Mme Vendrely ont noté des cas où
- Fig. 5. — Transformation hypothétique d’une base de DNA en rapport avec un caractère biologique.
- a : Structure schématique d’une molécule de DNA. d’une souche bactérienne résistante à la streptomycine ; le couple de bases (cytosine-guanine) qui est supposé gouverner cette résistance est figuré en grisé. — b : Structure de la couche normale, non résistante. — c : Structure hybride ; un couple de bases reste disjoint, la cytosine C ne pouvant s’unir à l’adénine A.. — d : L’adénine A s’est transformée en guanine G, reconstituant ainsi le couple de bases C-G facteur de la résistance.
- des groupes moléculaires d’adénine étaient utilisés dans la synthèse du DNA et se transformaient ensuite en guanine sans rupture de leur cycle. Le groupe moléculaire pouvait être suivi par les expérimentateurs parce qu’il était marqué en deux points de sa structure par de l’azote i5. En revanche, destransformations de guanine en adénine n’ont pas été observées.
- D’autre part, pour que l’hypothèse que nous venons d’énoncer soit valable, il faudrait aussi que la thymine puisse se transformer en cytosine afin d’assurer la liaison de brin à brin au niveau du couple de bases comportant le facteur de résistance. En effet, si l’on suppose que la structure du DNA de type résistant est caractérisée par un certain couple cytosine-guanine, la moitié des bi’ins de ce type qui subsistent après rupture de la structure double par la chaleur doit contenir un échelon de cytosine tandis que l’autre moitié contient un échelon de guanine. Il faudrait donc que cette guanine soit capable d’induire la formation de sa base complémentaire, c’est-à-dire de changer en cytosine la thymine qui se trouve à l’échelon correspondant au sien sur le brin de DNA de type normal. Nous n’avons aucune preuve que cela soit possible. Il n’en est pas moins tentant d’imaginer que le caractère dominant d’un gène provient électivement de l’un des deux couples de bases : thymine-adénine ou cytosine-guanine. C’est ce dernier couple qui porterait toujours le caractère dominant en se montrant capable d’entraîner la transformation de l’autre. En effet, comme nous l’avons vu plus haut, l’adénine peut se transformer en guanine alors que le phénomène inverse n’a pas été observé. La dominance d’un caractère génétique se trouverait ainsi avoir des assises chimiques.
- Bien entendu de telles hypothèses sont purement théoriques et auraient amplement besoin d’être vérifiées. Elles se situent cependant, si incertaines qu’elles soient, dans le cadre des études qui visent à préciser l’action des acides nucléiques.
- Mutation chimique du RNA du vif us de la mosaïque du Tabac
- Les expériences récentes des docteurs Akira Tsugita et Heinz Frankel-Conrat, faites à Berkeley (Université de Californie), ont porté sur le TMV ou virus de la mosaïque du Tabac. On sait que ce virus bien connu se compose d’une tige centrale formée d’un enroulement de chaînes d’acide ribonucléique ou RNA et d’un cylindre de molécules de protéine entourant la lige centrale. Cette structure ne contient pas de DNA, dont le rôle semble tenu ici par le RNA.
- Tsugita et Frankel-Conrat ont procédé pour commencer à la dissolution du cylindre de protéine afin d’obtenir le RNA à l’état pur. Ils ont ensuite traité ce RNA à l’acide nitreux, attaquant ainsi la séquence des bases porteuses du code. Si l’on compare cette séquence de bases aux indentations variables d’une clé Yale, suivant une analogie maintenant classique, on comprend bien que la destruction de quelques indentations modifiera l’information contenue dans le code. Après le traitement par l’acide nitreux, le RNA était placé dans les conditions voulues pour qu’il synthétisât de nouvelles protéines et s’en revêtît; l’activité biologique du virus se trouvait ainsi reconstituée et l’on pouvait observer son action sur un pied de tabac. Quand les nucléoprotéines du virus se multipliaient dans les cellules de la plante, elles causaient une maladie légèrement différente de la mosaïque du Tabac normale. Il y avait lieu évidemment de s’y attendre puisque la structure du RNA avait été atteinte, lésée dans certaines de ses parties. Sans doute, l’ordre de la séquence des bases de l’acide nucléique avait été changé et la composition moléculaire des protéines induites corrélativement modifiée.
- Pouvait-on alors, en analysant les protéines du virus, découvrir en quoi consistait la mutation ? C’est ce qu’ont recherché
- p.480 - vue 483/558
-
-
-
- 481
- Tsugita et Frankel-Conrat. Cultivant dans les feuilles de tabac une quantité de virus suffisante pour l’analyse, ces biochimistes ont mis en évidence des changements survenus dans la composition en acides aminés des molécules de protéine. Sur i58 unités d’acides aminés, 3 avaient été changées. Il s’agissait d’unités de proline, d’acide aspartique et de thréonine qui s’étaient respectivement transformées en leucine, en alanine et en sérine. Jusque-là on ne pouvait définir une mutation que par une différence de comportement biologique; mais cette fois on voyait à quelle modification de composition chimique correspondait la mutation obtenue.
- Il s’agit là d’un grand pas en avant. Le pas suivant serait de découvrir quelle partie du code, c’est-à-dire quelle séquence de bases, s’est trouvée modifiée par l’acide nitreux dans le RNA du virus et a donné naissance à des protéines de composition nouvelle. On sait que des hypothèses détaillées, concernant le mode d’action des acides nucléiques, ont actuellement cours Outre-Atlantique. A côté de faits bien établis, certaines phases intermédiaires des processus envisagés comportent une grande part d’incertitude. Il nous paraît utile de faire un résumé de ces hypothèses pour voir où pourraient éventuellement nous mener les expériences de Tsugita et Frankel-Conrat.
- Migration du RNA et action dans la synthèse des protéines
- Le noyau de la cellule contient une quantité de DNA fixe, répartie dans les divers chromosomes. Cette quantité se double exactement au moment de la division cellulaire; de sorte que la teneur en DNA d’un échantillon donné de tissu vivant permet de connaître le nombre de cellules contenues dans cet échantillon. Au contraire, la quantité de RNA est très variable et dépend de l’activité cytoplasmique de la cellule. On admet généralement que le RNA est synthétisé à partir du DNA, qui lui sert de moule (template), quoique nous ayons vu que certains virus, comme le TMV, ne contiennent que du RNA. Le RNA semble s’accumuler dans une région particulière du noyau, le nucléole, où il constituerait une sorte de réserve.
- D’autre part, il paraît certain que le RNA doit, d’une façon ou d’une autre, traverser la membrane nucléaire pour se transporter dans les minuscules organites du cytoplasme connus sous le nom de microsomes. On a pu mettre en évidence la formation de protéines nouvelles à partir des microsomes qui apparaissent très riches en RNA, Celui-ci peut donc être considéré comme un agent intermédiaire entre le DNA et les protéines cytoplasmiques.
- Quelles preuves a-t-on d’une migration du RNA à travers la membrane qui entoure le noyau ? Herbert Taylor et Philip S. Woods, du Laboratoire national de Brookhaven, ont cultivé les racines d’une fève dans un milieu contenant un précurseur
- Fig. 6. — Transport de RNA marqué, du noyau au cytoplasme.
- En haut à gauche, microphotographie en contraste de phase d’une coupe de racine de fève (Vicia faba) nourrie pendant une heure avec de la cytidine (nucléoside de la cytosine) marquée au tritium. A droite, autoradiographie de la même coupe ; on voit que les points noirs, décelant la radioactivité du RNA. qui s’est incorporé la cytidine marquée, est essentiellement limitée aux nucléoles des noyaux cellulaires.
- En bas à gauche, microphotographie d’un tissu identique mais qui, après traitement avec la cytidine marquée, a continué à croître pendant 5 heures s\ir un milieu additionné de cytidine non marquée. A droite, autoradiographie de la môme coupe ; le RNA nouvellement formé dans les nucléoles n’est plus marqué ; les points noirs qui décèlent le RNA contenant la cytidine marquée se sont dispersés dans le cytoplasme. Ainsi se trouve montrée la migration du RNA du noyau au cytoplasme.
- (Photos Philip S. Woods et J. Herbert Taylor, Département de Biologie, Laboratoire national de Brookhaven, Upton, New York, aimablement communiquées par M. P. S. Woods).
- p.481 - vue 484/558
-
-
-
- 482
- de RNA radioactivement marqué. Les autoradiographies des cellules (faites en appliquant un film sur une préparation mince) montrent d’abord les concentrations de RNA marqué dans le nucléole, alors qu’il vient apparemment d’être synthétisé. Un peu plus tard, la fève ayant cessé de recevoir de la cytidine marquée, une répartition uniforme des points impressionnés de l’émulsion photographique fournit la preuve que le RNA marqué s’est répandu dans le cytoplasme (fig. 6).
- D’autre part, Helen Gay (Département de Génétique de Cold Spring Harbor, New York) a observé au microscope électronique, dans les cellules géantes des glandes salivaires de la Drosophile, des boursouflures de la membrane nucléaire qui pourraient indiquer le passage de substances chimiques à travers cette membrane sous l’influence directe d’un chromosome contigu. Si cette observation se vérifie, on peut aller jusqu’à supposer que la synthèse des protéines, dans le cytoplasme d’un type de cellule donné, dépend d’un chromosome particulier et même alors d’une région spécifique de sa séquence de bases, région assimilable à un gène.
- Dans un autre type de cellule ce serait un chromosome différent qui présiderait à la migration du RNA ou d’autres substances à travers la membrane cellulaire, agissant par voie indirecte sur la synthèse des protéines caractéristiques d’un organe donné. Mais naturellement nous n’avons encore aucune lumière sur les processus qui aboutiraient à l’inhibition d’un chromosome au profit d’un autre. Nous touchons là aux problèmes de l’embryogenèse.
- En ce qui concerne le RNA, il est clair qu’il doit porter des codes spécifiques de la synthèse des diverses protéines. On sait qu’il n’entre qu’une vingtaine d’acides aminés dans leur composition : c’est l’arrangement variable de ces acides aminés au long de la chaîne moléculaire qui confère à une protéine ses caractéristiques biologiques. D’ailleurs certains repliements de la chaîne sont apparemment maintenus par des ponts moléculaires, au niveau d’acides aminés doués de capacités particulières de liaison, comme la cystine ou l’acide glutamique (x).
- Ce chiffre de 20 acides aminés a conduit les biologistes Crick, Griffith et Orgeî, de l’Université de Californie, à faire une hypothèse intéressante. Étant donné que les 4 bases contenues dans le RNA (adénine, guanine, uracile et cytosine) peuvent être considérées comme un code de 4 lettres, on remarque qu’en utilisant ces lettres par groupes de 3 on aboutit seulement à 20 triplets parfaitement distincts les uns des autres, c’est-à-dire ne risquant pas de se recouvrir dans une séquence. Par exemple, prenons deux groupes de 3 lettres, qui se succèdent, soit AGA et GAU (en utilisant les lettres initiales des bases). Ces groupes forment une séquence AG AG AU où l’on voit deux groupes AGA se recouvrir. Il ne saurait donc en résulter un code univoque. En utilisant les 4 lettres dont nous disposons nous ne pouvons former que 20 combinaisons de 3 lettres susceptibles de se suivre sans se recouvrir (fig. 7).
- Peut-être ne s’agit-il là que d’une coïncidence dont on ne devrait pas se prévaloir pour fixer la longueur de la séquence de bases du RNA correspondant à un acide aminé. D’ailleurs, il n’y aurait pas moins de 6 000 nucléotides dans le RNA d’une particule de TMV, ce qui correspondrait à 4o nucléotides pour chaque acide aminé de la protéine du virus. Ce ne serait cependant pas un argument contre l’existence de triplets inducteurs. D’après des hypothèses récentes de Mahlon Hoagland, les triplets se trouveraient incorporés dans les séquences un peu plus longues d’un RNA dit de « transfert » qui s’attacherait l’acide aminé pour le transporter ensuite au long de la chaîne principale de RNA située dans le microsome. Cette chaîne principale de RNA serait complémentaire en des points donnés de chaque type de RNA de transfert et réglerait ainsi l’emplace-
- 1. Voir : les protéines livrent peu à peu les secrets de leur constitution, par Jean Pelmont, La Nature, octobre 1960, p. 414-419
- Fig. 7. — Hypothèse du code par triplets dans le RNA.
- Des groupes de trois bases, ou triplets, dont chacun correspondrait à l’un des 20 acides aminés qui constituent les protéines, pourraient former un code situé au long des chaînes moléculaires de RNA. Chaque triplet est une combinaison de 3 des 4 bases, et seulement 20 combinaisons sont possibles sans recouvrement ambigu des triplets les uns par les autres au long de la séquence. A gauche se trouve une notation abrégée pour les 20 combinaisons. Les 2 triplets qui peuvent être assemblés sans ambiguïté à partir de 2 bases sont en haut à droite. Les 6 triplets formés de 3 bases sont au centre ; les 12 obtenus avec 4 bases sont au-dessous. Chaque lettre correspond à une base du RNA. A, adénine ; U, uracile ; G, guanine ; C, cytosine. Les lettres sont marquées des chiffres 1, 2, 3, 4, pour plus de clarté. Bien entendu la correspondance entre lettres et chiffres est conventionnelle.
- (D’après IIoagjland et CrucK).
- ment des acides aminés au long de la molécule de protéine en voie de synthèse.
- Quoi qu’il en soit, de telles hypothèses ont une utilité dans la recherche du fil conducteur qui nous mènera un jour, on peut l’espérer, à la connaissance des codes d’information contenus dans les acides nucléiques. C’est justement dans ce cadre que se situent les expériences de Tsugita et Frankel-Conrat que
- Fig. 8. — Schéma hypothétique d’un changement dans un couple de bases du RNA, induisant la synthèse d’une protéine également
- modifiée.
- A gauche, un fragment (imaginaire) de RNA est censé induire la synthèse d’un acide aminé particulier, la valine. A droite, le remplacement du couple de bases uracile-adénine par un couple cytosine-guanine a modifié suffisamment la séquence des bases pour entraîner le remplacement de la valine par la lysine dans la protéine synthétisée par le RNA.
- (D’après Ingram).
- p.482 - vue 485/558
-
-
-
- 483
- mous avons exposées plus haut. D’après l’Américain Wendell M. Stanley, prix Nobel, l’action de l’acide nitreux consisterait dans le changement d’une base en une autre. En recherchant •où se situerait une telle modification au long de la chaîne nucléique, on ferait un grand pas dans la voie du déchiffrement des codes. En effet, toute modification du RNA ne pourrait que correspondra à celle déjà découverte dans la composition -en acides aminés de la protéine du TMV. Stanley a émis l’opinion que la mise en évidence d’une telle relation entre RNA et protéine induite constituerait peut-être « la pierre de Rosette du langage de la vie ». Les techniques de Tsugita et Frankel-Gonrat, utilisées chez de nombreux mutants dont on altérerait 'les codes, seraient susceptibles de nous faire découvrir de proche en proche quels groupes de bases sont responsables de 'telle ou telle protéine en même temps que de telle ou telle •-activité biologique (fig. 8).
- DNA inducteur de cancer
- Des expériences récentes faites à l’Institut Sloan-Kettering et à l’Institut national de la Santé (Comptes rendus de l’Académie des Sciences des États-Unis) ont mené à la découverte d’une forme de DNA capable d’induire directement le cancer. Ce fait est très important car jusqu’à présent les phénomènes de cancérisation n’étaient obtenus qu’à partir de virus complets, c’est-à-dire munis de leur protéine et extraits eux-mêmes de cellules cancéreuses. Les chercheurs ont isolé le DNA de •cultures de virus du cancer de la souris et l’ont injecté à des animaux de laboratoire sur lesquels se sont développées des tumeurs. C’est la première fois qu’on peut prouver l’action cancérigène d’un acide nucléique pur. D’autre part, en soumettant cet acide à la désoxyribonucléase on a montré qu’il •s’agissait bien de DNA, à l’exclusion de RNA.
- Il est admis que la cause profonde du cancer se situe à l’intérieur de la cellule, l’action de substances cancérigènes externes n’étant que favorisante. Mais plusieurs théories ont été jusqu’à présent défendues. Selon l’une d’elles, la prolifération aberrante des cellules se ferait sous l’influence d’un virus ayant pénétré dans le milieu cellulaire et s’y développant. Ce fait est bien établi dans le cas du sarcome de Rous. Une autre théorie .admet qu’une mutation transforme l’action des nucléoprotéines
- cellulaires. Cette mutation pourrait se situer dans le DNA du noyau, créant d’un coup une nouvelle race de cellules à multiplication rapide. Mais la mutation serait aussi susceptible de se produire dans le RNA du cytoplasme, au niveau de ces unités héréditaires endoplasmiques que l’on connaît sous le nom de plasmagènes. Nous revenons là indirectement à la théorie des virus. Car un plasmagène ayant subi une mutation aberrante serait justement assimilable à un virus, d’autant que l’un comme l’autre sont reproductibles dans le cytoplasme en dehors de l’influence du noyau. Bien entendu de tels processus restant hypothétiques.
- Au contraire, la découverte d’un DNA cancérigène à l’état pur apporte un fait très clair. Dans certains cas, et peut-être dans la plupart, le cancer proviendrait d’une altération du code fondamental porteur des caractères héréditaires de l’espèce. Il s’agirait donc de savoir en quel point de la structure du DNA cette altération a pu se produire. Nous nous heurtons ici comme toujours à l’écueil du déchiffrement des codes. Seul ce déchiffrement nous apportera des moyens thérapeutiques efficaces; par exemple en soumettant le DNA aberrant à l’influence d’un autre DNA qui posséderait des caractères capables de dominer le facteur cancérigène. On pourrait peut-être injecter directement dans la tumeur un DNA porteur d’un code antagoniste approprié...
- M. et Mme Yendrely ont suggéré une méthode d’investigation des codes, c’est-à-dire des séquences de bases de l’acidè nucléique, qui fait appel aux rayons X. Des recherches sur ce point avaient déjà été entreprises par Dunn et Smith, Zamenhoff et Groboff. Ces biochimistes ont modifié la composition du DNA de colibacilles en leur incorporant du bromo-uracile et de l’iodo-uracile qui remplacent la thymine. L’atome d’iode accolé à la thymine permettrait de déceler la position de cette base, ou tout au moins son accumulation en certains points, dans les diagrammes d’analyse du DNA par les rayons X. Grâce à l’étude comparative de plusieiirs types de DNA, on commencerait peut-être à se faire une idée de quelques caractéristiques des codes. C’est vers ce but que tendent, à plus ou moins iong terme et par des moyens différents, les trois séries d’expériences que nous venons de résumer. Mais des points importants, dont la définition nous échappe encore, restent à éclaircir dans ces domaines.
- Jacques Fouchet.
- Le cobalt utile à la luzerne
- On sait que le cobalt entre dans la composition des vitamines BX2 '(cobalamines). C’est en tout cas un oligoélément indispensable à la vie animale : il est bien connu que les moutons nourris sur des terres déficientes en cobalt font une maladie grave, qui cède à l’administration de faibles doses de cet élément.
- Selon une information du Centre culturel américain, trois biochimistes américains, MM. C. M. Johnson, C. Delwiche et M. M. Reisenauer, ont établi que le cobalt était également utile au développement des plantes., notamment de la luzerne. Entièrement privés de cobalt, des semis de ce végétal ont donné des
- plantes malingres, pâles et ne fleurissant pas. Il a suffi de 24 mg de cobalt dans une solution aqueuse de 4 litres qui alimentait le bac d’expérience pour donner des plantes vigoureuses. En particulier le cobalt agit puissamment sur la fixation de l’azote par la luzerne. On sait que cette fixation de l’azote atmosphérique se fait par l’intermédiaire de bactéries spéciales., incluses dans, des nodosités que portent les racines des Légumineuses. On peut supposer que le cobalt influe sur l’activité de ces bactéries. Il y aurait lieu d’étudier l’action de cet élément sur les plantes d’autres familles végétales, dépourvues de bactéries symbiotes.
- La grippe en i960
- Une recrudescence notable de la grippe a pu être constatée pendant le premier trimestre de I960. 10 632 décès ont été ènre-istrés, contre 2 524 dans la période correspondante de 1959. omme de coutume l’intensité de la grippe semble se répercuter sur la presque totalité des décès dus à d’autres maladies, si bien que le chiffre total de la mortalité (163 742) est en excédent notable sur celui de 1959 (140 720). On observera toutefois que ce phénomène s’est concentré dans les deux premiers mois (janvier et
- février), alors que le mois de mars a été nettement peu meurtrier : le taux des décès par 1 000 habitants a été de 12, contre 12,6 en 1959. L’interprétation des statistiques doit toujours s’inspirer de la plus grande prudence : il est permis toutefois de se demander si le virus grippal n’aurait pas pour effet d’accélérer certains décès, « liquidant » des organismes affaiblis qui, par la suite, n’interviennent plus dans la mortalité des mois suivants.
- G. C.
- p.483 - vue 486/558
-
-
-
- L'Actualité instrumentale
- LA 57e EXPOSITION DE PHYSIQUE (suite) ^
- Les techniques du vide
- L’intérêt porté aux techniques du vide a d’abord eu pour cause la réalisation des lampes à incandescence d’une part, des tubes électroniques d’autre part, sans oublier les tubes de radiologie. Il s’est ensuite considérablement accru au cours de la deuxième guerre mondiale, en particulier pour la mise en oeuvre des applications militaires de l’énergie nucléaire, qu’il s’agisse de la séparation isotopique de l’uranium 235 par diffusion gazeuse, de la construction des accélérateurs de particules ou des études de fusion thermonucléaire. Enfin, les utilisations du vide dans les processus de distillation, de fusion, de soudure, etc., sont de jour en jour plus nombreuses. Cette énumération rapide montre que la production du vide au laboratoire comme dans l’industrie est un problème fondamental qu’il est de plus en plus souvent nécessaire de résoudre. Les moyens susceptibles d’être utilisés se sont considérablement enrichis au cours des dernières années et l’on se trouve désormais devant des productions extrêmement variées. Une étude des appareils existants a déjà été faite ici, il y a quelques mois (Production du vide, La Nature, février 1969, p. 86); aussi nous nous bornerons, dans les lignes qui suivent, à signaler les appareils nouveaux, soit dans leur principe, soit parce qu’ils complètent des gammes d’appareils déjà largement répandus sur le marché.
- Nous classerons les divers dispositifs en fonction du vide limite qu’ils permettent d’atteindre, donnée évidemment essentielle qui est la meilleure pression qu’on peut obtenir dans un système fermé ne présentant pas de fuites et que l’on exprime en mm de Hg (ou lorr).
- Jusqu)à ces dernières années, le domaine du vide que permettent les pompes à diffusion et qui s’étend approximativement de io~4 à io~6 torr représentait la limite qu’il était possible d’atteindre avec les appareils existants. D’exceptionnel, ce degré de vide est devenu habituel et le matériel susceptible de le réaliser est maintenant d’une conception classique. Depuis, il a été possible d’aller encore plus loin et l’on se trouve maintenant dans le domaine de l’ultra Aude (ou du nanotorr), caractérisé par des pressions inférieures à io~8 torr et réalisable grâce aux pompes ioniques sur lesquelles nous insisterons tout particulièrement.
- Pompes à compression mécanique. — Ces pompes permettent de descendre pratiquement vers io~4 mm Hg. Les principes de fonctionnement sont classiques et nous nous contenterons de signaler les nouvelles séries présentées par différents constructeurs.
- — La Compagnie Générale de Ra-
- 1. Voir la première partie de nos exposés sur la 57' Exposition de la Société française de Physique, La Nature, octobre 1960, p. 434.
- diologie (C. G. R.) construit des pompes avec injection d’air permettant d’obtenir une pression limite de 2.io~3 mm Hg et atteignant 2.10-4 mm Hg pour les types Cyclone qui comportent deux étages. Toutes ces pompes peux^ent, en régime permanent, évacuer des quantités importantes de vapeur d’eau sans que leur fonctionnement soit perturbé, grâce à leur dispositif d’injection d’air qui permet l’ouverture de la soupape d’éAracualion avant que la pression partielle des vapeurs atteigne sa valeur de saturation.
- Les pompes proposées par ce constructeur sont de deux types : pompes Zéphyr à palettes qui répondent à diverses exigences comme par exemple le type 5 Spécial réalisé pour les circuits pouvant être pollués par l’hexafluorure d’uranium UF6, et pompes Typhon et Cyclone à piston tournant particulièrement silencieuses et de haut rendement.
- — Les Établissements Beaudouin présentaient deux nouveaux modèles de pompes à palettes comportant, comme les types existants, un dispositif qui évite les remontées d’huile et les rentrées d’air en cas d’arrêt. Une injection d’air est également montée sur ces appareils. Il s’agit des types 120 et 220 qui permettent un débit de 20 m3/h et un vide limite de io~2 à io~3 pour le type 120 et de 2 à 5.io-4 mm Hg pour le type 220 à deux étages. Par ailleurs, ces deux nouveaux modèles sont caractérisés par une attaque directe en bout d’arbre du moteur.
- Pompes Roots. — Il s’agit de pompes qui permettent la production de vides intermédiaires à débit élevé par une méthode
- Tableau I. — Différents modèles de pompes Roots
- Types R 35o A R 35o AS R 2 000 A R 2 000 AS
- Applications Installations de vide classiques Installation en atmosphère corrosive et à 65° de température ambiante Installations de vide classiques Installation en atmosphère corrosive et à 65° de température ambiante
- Pompe préliminaire en m3/h. 3o-6o-iao 120-200-300
- Débit Roots en m3/h entre io-1 et 1 mm Hg . 220-375-320 1 i5o-i 45o-i 700
- Pression maximale en fonctionnement continu au refoulement 20 mm Hg 10 mm Hg
- Refroidissement .... air eau air eau
- Charge d’huile 0,8 1 1,51
- Puissance du moteur . 1/2 CV 3 CV
- Nombre tours par minute . 3 000 3 000
- p.484 - vue 487/558
-
-
-
- 485
- Fig. 1. — A l’Exposition de la
- Société de Physique : le Département du Vide de la Compagnie française Thomson-Houston.
- A.u premier plan, différents modèles de pompes Roots.
- (Photo J. Pellerin).
- entièrement mécanique. Elles sont constituées par deux rotors, de profils identiques soigneusement déterminés, animés chacun d’un mouvement de rotation de grande vitesse en sens inverse l’un de l’autre (fig. 2). Ces deux rotations sont obtenues strictement synchrones par un jeu d’engrenages, sans que les rotors se touchent entre eux, ni ne touchent le corps de la pompe, ce qui permet des vitesses élevées de rotation. Des tolérances extrêmement réduites permettent de n’avoir qu’un très petit espace entre les deux rotors, ce qui assure une excellente étanchéité entre l’aspiration et le
- refoulement sans qu’aucune lubrification soit nécessaire.
- Ce type de pompe, présenté par la Compagnie française Thomson-Houston, est caractérisé par un débit maximal dans le domaine du vide s’étendant de 10 à io~3 mm Hg, c’est-
- Le type Saphir 2 000 donne une pression limite de 2,io-0 mm Hg; son débit est de 2000 1/s à io~4 mm Hg.
- Quant au Saphir 10 000, son débit de 10 000 1/s le fait destiner tout particulièrement à l’établissement d’un vide élevé dans les enceintes de grand volume.
- Pompes ioniques au titane. — C’est en ig58 que L. D. Hall
- publia dans la Review of Scientijic Instruments le premier article sur les pompes ioniques, dont on peut dire qu’elles ont ouvert la voie au domaine de l’ultravide en permettant l’obtention de pressions aussi basses que io-9 ou même io~10 mm Hg. A vrai dire cependant, le principe de base de ces pompes n’est pas nouveau : il utilise en effet un getter, c’est-à-dire une substance qui absorbe progressivement les dernières traces de
- à-dire dans une zone où les pompes à diffusion n’ont qu’un faible débit. Des considérations économiques conduisant à choisir un moteur d’entraînement d’une puissance aussi faible que possible, ces pompes ne refoulent pas directement dans l’atmosphère et ne doivent démarrer que sous une pression réduite (de l’ordre de 20 mm de mercure) obtenue par l’utilisation d’une pompe préliminaire, à palettes par exemple.
- Le vide limite de ces pompes est de l’ordre de io-5 mm Hg, les débits s’échelonnant entre 200 et a 000 m3/h selon le modèle et le type de pompe préliminaire utilisée. Les différents modèles disponibles sont résumés dans le tableau I. D’autres sont en cours de développement : les types R i5o A (i5o m3/h), R i5o B (i5o m3/h, avec deux étages) et R 1 000 A (1 000 m3/h).
- Leurs caractéristiques en font des engins surtout destinés à vider des volumes importants ou aux procédés qui demandent l’aspiration de grosses quantités de gaz ou vapeurs.
- Pompes à diffusion. — Beaudouin exposait deux pompes à diffusion d’huile permettant d’obtenir, à partir d’une pression primaire d’amorçage de l’ordre de 5 . io_1 mm Hg, un vide voisin de io~6 mm Hg avec des débits de 60 1/s ou 3oo 1/s.
- — La C. G. R. présentait plusieurs modèles de pompes à diffusion d’huile, à trois étages, réalisées en acier inoxydable. Le type Saphir 3o permet d’atteindre une pression limite de 5.io-7 mm Hg et un dispositif de refroidissement accéléré permet de réduire de 20 mn le temps nécessaire à la remise à la pression atmosphérique.
- gaz dans l’enceinte à vider. Le premier corps employé comme getter fut le phosphore rouge que l’on déposait par peinture sur les ampoules des lampes à incandescence, il y a de cela quelques décennies. Après scellement de l’ampoule, on chauffait le filament à une température beaucoup plus élevée que
- p.485 - vue 488/558
-
-
-
- POMPES PRÉPARATOIRES ANTI-RETOUR
- Pompes à palettes à I ou 2 étages avec lest d’air — 3,5 et 10 m3/h Vide limite I étage < I0~2 2 étages < 5.10-4
- POMPES MOLÉCULAIRES
- Pompes mécaniques genre Holweck Pompes à diffusion d’huile de 100 ai 300 l/s
- UNITÉS DE POMPAGE
- Jauges électromagnétiques - Vannes Raccords instantanés « TECHNOVIDE »
- Réserves de vide Appareils spéciaux sur demande
- Éts BEAUDOUiN, 1 et l rue RfltouÇ PARIS-Se - FOR 4MF
- NOUVEAU
- SPECTROPHOTOMÈTRE
- ENREGISTREUR
- ULTRASCAN-HILGER
- 2 000-7 500 À Double faisceau
- Ag. excl. : Ets F. C. DANNATT, s. A,
- 198, rue Saint-Jacques, PARIS 5e
- CONTROLE ET MESURE QUANTITATIVE DU
- DANGER BIOLOGIQUE
- DES RADIATIONS IONISANTES ' X " ET "Y"
- USINE - 34, Avenue Aristide-Briond à LA PHYSIOTECHNIE „
- . ARCUEIL (Seine)
- p.486 - vue 489/558
-
-
-
- 487
- Anode
- Aimant-
- Cathode-
- Vis- 4. — Schéma de fonctionnement d’une pompe Vac Ion. Explications dans le texte.
- Cathode-
- Mo/écu/^/azeuse
- tsi
- +
- — Electron
- Ion positif
- \
- la température habituelle de fonctionnement et la pression baissait. La méthode utilisée dans les pompes ioniques est évidemment plus compliquée et mérite qu’on s’y arrête assez longuement. Nous décrirons la pompe Yac Ion (marque déposée par Yarian Associated, U.S.A.) présentée à l’Exposition de Physique par la Compagnie française Thomson-Houston.
- Une pompe Vac Ion comprend essentiellement une alimentation à tension continue, un aimant permanent et la pompe proprement dite constituée par une enceinte contenant une anode en forme de grille placée entre deux plaques de' titane qui jouent le rôle de cathode (fîg. 4).
- Lorsqu’on applique une tension électrique convenable entre l’anode et la cathode, des électrons sont émis par la cathode et tendent à se diriger vers l’anode mais, par suite du fort champ magnétique appliqué, ils sont amenés à suivre une trajectoire en spirale, ce qui augmente considérablement la probabilité de collision entre les électrons libres et les molécules gazeuses. Ces collisions produisent des ions gazeux et un plus grand nombre d’électrons libres.
- Les ions gazeux, chargés positivement, bombardent alors les plaques cathodiques de titane; des atomes de titane sont expulsés de la plaque et viennent se déposer sur la grille anodique, formant ainsi des composés chimiques stables avec les atomes de gaz actifs tels que l’oxygène et l’azote. Les gaz chimiquement inertes sont également éliminés, probablement par ensevelisse-
- Fig. 5. — Cloche d’évaporation sous vide avec pompe de 40 l/s et deux pompes Vac Sorb.
- Comme la pompe Vac Ion, ce matériel est fabriqué par Varian Associated, représenté en France par la Compagnie française Thomson-Houston.
- ment des ions dans les cathodes et par piégeage par l’anode. Étant donné que chaque collision produit un nombre croissant d’électrons à longue trajectoire, l’action de pompage se maintient jusqu’à de très basses pressions, au delà de io~9 mm Idg. Puisqu’il n’y a pas d’évaporation de titane, il n’est pas nécessaire de chauffer les cathodes, et le vide ultime n’est pas limité par le dégagement de gaz provenant du titane lui-même.
- Il y a évidemment beaucoup d’autres processus associés à la décharge : production d’ions négatifs, qui vont directement à l’anode; désorption par pulvérisation d’atomes de gaz' précédemment ensevelis ; pulvérisation du titane des cathodes d’une cathode à l’autre à partir de laquelle il sera habituellement repulvérisé, etc. Tous ne sont pas encore complètement élucidés, mais il n’en reste pas moins que ces pompes permettent des performances qui n’avaient jamais été égalées jusqu’alors.
- Résumons-en les principaux avantages : elles sont essentiellement propres, aucun fluide de pompage n’étant nécessaire; elles sont relativement portables et peuvent fonctionner dans n’importe quelle position; des conditions d’emploi sévères, comme les chocs, les vibrations, l’accélération et les températures élevées (jusqu’à 45o °C pour la pompe seule et jusqu’à 2Ôo °C pour la pompe et l’aimant) sont sans influence. La vitesse de pompage est uniforme dans un large domaine de pressions ; la puissance consommée variant à peu près linéairement en fonction de la pression, de très faibles puissances sont nécessaires aux basses pressions; la plupart des fuites ne sont pas catastrophiques et même l’exposition brutale à la pression atmosphérique ne cause ordinairement aucun dommage. Le courant de la pompe donne une mesure de la pression, celle:ci jouant le rôle de jauge à vide. Enfin, le titane étant efficacement utilisé par autorégulation inhérente, la durée de vie est très longue : 25 ooo heures pour un foctionnement continu à io~ti mm Ilg.
- Thomson-Houston offre actuellement une gamme très complète de ces ponrpes avec des débits allant de 0,2 1/s à 10 000 1/s et susceptibles d’être utilisées dans des domaines aussi variés que les semi-conducteurs ou la fusion thermonucléaire contrôlée.
- Les ensembles de pompage. — Nombreux étaient les constructeurs qui exposaient des ensembles de pompage complets permettant d’obtenir des pressions plus ou moins basses et réunissant autour de la ou des pompes tous les accessoires couramment utilisés dans la technique du vide : vannes, trappes, appareils de mesure, etc. Nous en citerons quelques-uns à titre indicatif,
- — Les Pompes Celtiques ont étudié plusieurs ensembles de pompage répondant à divers besoins. Nous citerons une unité à vide poussé pour laboratoires qui comprenait une pompe à double étage et une pompe à diffusion d’huile de silicone de 100 1/s à io-4 mm Ilg, susceptible d’être remplacée par une pompe de 3oo 1/s sur demande. Ce groupe de pompage est muni de tous les circuits et vannes nécessaires aux opérations de prévidage et de mise en route de la pompe à diffusion. Un système de sécurité permet de remédier aux inconvénients d’une arrêtée d’eau de refroidissement de la pompe à diffusion.
- p.487 - vue 490/558
-
-
-
- 488
- Fig. 6. •— Ensemble de pompage pour ultravide Edwards.
- (Photo Eii\yards Ilion Vacuum Ltd., aimablement communiquée par Zivy et C,e).
- trôle d’étanchéité et, notamment, tracer la courbe de réponse des détecteurs de fuite (de io~6 à
- La même firme exposait une unité de pompage pour tubes à rayons X qui réunissait sur un même socle une pompe à palettes, une pompe à diffusion de mercure de 25 1/s et une pompe à diffusion d’huile de silicone de ioo l/s. Un dispositif automatique arrête la pompe à palettes lorsque le vide est suffisant pour permettre l’amorçage de la pompe à diffusion de Hg et vice versa; le même dispositif remet en marche la pompe lorsqu’il y a remontée de pression.
- — Zivy et Cle présentait un groupe Edwards pour ultravide permettant d’atteindre io~10 mm Hg grâce à une pompe ionique au titane. En raison de son encombrement relativement réduit (fig. 6) et de ses performances qui permettent d’obtenir io~8 mm Hg après deux heures de pompage dans une enceinte de io litres, ce groupe est bien adapté aux besoins des laboratoires.
- — Le Laboratoire des Basses Pressions a réalisé une installation de pompage entièrement soudée sous argon qui permet d’atteindre une pression de 4-io~10 nam Hg. Elle est constituée par une pompe à diffusion DI 5oo surmontée d’un baffle à eau et d’un piège à azote liquide à grande efficacité, refoulant sur une pompe DI 4o, elle-même raccordée à une pompe à palettes à deux étages d’un débit de i5 m3/h.
- — Le Vide Moléculaire dans l’Industrie offrait un groupe à ultravide (io~9 à io-10 mm Hg) principalement constitué par une pompe mécanique à un ou deux étages, une pompe à diffusion primaire abaissant la pression à io~G mm Hg, niveau de refoulement d’une deuxième pompe à diffusion surmontée d’un piège à azote liquide.
- Les accessoires. — Ils sont évidemment très nombreux, qu’il s’agisse de vannes, appareils de mesure, etc.
- Nous pouvons signaler une vanne pour vide très poussé présentée par le G. N. R. S. ; elle permet de maintenir pendant des temps très longs des pressions de l’ordre de io~10 mm Hg dans une enceinte grâce à l’emploi de jonctions métal cuivre remarquablement étanches.
- Citons aussi un baffle pour pompe à diffusion présenté par la C. F. T. II. et évitant les retours d’huile vers le récipient à vider. L’ensemble de l’appareil avec réfrigérateur au fréon est extrêmement compact; construit en métal inoxydable, il peut être utilisé en atmosphère chaude et très corrosive.
- Thomson-Houston offre une gamme de fuites étalons utilisées pour effectuer des mesures précises dans les opérations de con-
- io~10 atm/cm3/s).
- Enfin, nous signalerons l’analyseur de masse AM ioo (« Oméga-tron ») développé dans les laboratoires de la Compagnie générale de T. S. F., qui est un spectro-mètre du type à résonance d’ions dont le principe est le suivant :
- Dans une enceinte où la pression n’excède pas io-3 mm Hg, on applique orthogonalement un champ magnétique constant B et un champ électrique alternatif E de fréquence Un faisceau d’électrons très fin, parallèle à la direction du champ magnétique, ionise les molécules de gaz présentes dans l’enceinte et, sous l’action des champs croisés B et E, les ions formés décrivent autour du faisceau d’électrons où ils ont pris naissance des trajectoires spirales dans un plan perpendiculaire à B (fig. 7). Parmi ces ions, seules les particules de charge e 1 e B
- et de masse m telles que = /, fréquence du champ élec-
- trique appliqué, décrivent des spirales divergentes qui les amènent sur un collecteur situé à une distance déterminée du faisceau d’électrons. Ces ions, dits résonnants, abandonnent
- (Champ électrique alternatif)
- \
- Fig. 7. — Schéma de principe de l’omégatron de la Compagnie générale de T.S.F.
- leurs charges sur le collecteur qui est inaccessible aux ions dont les masses sont différentes de m, de sorte que la mesure du courant ionique recueilli sur la sonde constitue une mesure de la pression partielle des particules de masse m dans l’échantillon de gaz présent sous faible pression dans le spectromètre. Par suite, en faisant varier la fréquence du champ électrique appliqué, on fait défiler des particules de rapports e/m différents. A chaque collection d’un groupe de particules de même masse correspond ce que l’on appelle un « pic » dont l’amplitude est proportionnelle au nombre d’ions collectés. On obtient donc une véritable analyse de l’échantillon de gaz présent.
- Les applications de ce type d’appareil sont très nombreuses : examen de la nature du gaz résiduel dans les tubes à vide, dans les enceintes utilisées pour les études de fusion thermonucléaire, détection des fuites, etc.
- R. Rosset.
- p.488 - vue 491/558
-
-
-
- 489
- Nouveautés en microscopie
- Microscopie classique. — L’Exposition de Physique offrait cette année aux visiteurs une gamme relativement importante d’appareils de microscopie, pour la plupart des loupes et microscopes binoculaires à usages multiples, permettant en particulier la microphotographie.
- La S.O.F.I.C.A. présentait un stéréomicroscope Zoom type BVB 73 caractérisé par un système de grossissement continûment variable de 7 x à 3o x par rotation d’un simple bouton. Par changement d’oculaires et lentilles additionnelles, la gamme possible de grossissement s’étale de o,5 x à 120 x .
- Le Stéréovar réalisé par B.B.T. offre également la possibilité d’obtenir un grossissement variable par simple rotation d’un tambour. Les grossissements sont étalés sur trois bandes : 6 à 4o x , 12 à 80 x , 24 à x60 x . La nouvelle loupe binoculaire Sterette B.B.T. permet de grossir de 12 à 4o fois.
- Un nouveau microscope stéréoscopique M 4 construit par la Société Wild permet de disposer d’une gamme de grossissement de 5 x à 160 x à l’aide d’un changeur de grossissement amovible disposé entre objectif et oculaire. L’appareil M 5 permet de grossir de 6 à 200 fois. Il comporte divers dispositifs d’éclairage et de prise de clichés stéréoscopiques.
- Les Instruments physiques modernes présentent un nouveau microscope, le Stabifocal Locquin, de conception assez nouvelle. L’appareil comprend un pont homologue de la potence d’un microscope classique, posé par l’intermédiaire d’un système plan trait-point sur un socle comportant le support de platine et le mouvement fin. Seul, le pi’opre poids du pont l’appuie par son nez sur le mouvement fin. Le mouvement rapide supporte un révolver 6 trous pour les différents objectifs. Le concentrateur bifocal de Locquin à seul mouvement axial permet la superposition en permanence d’un éclairage fortement diaphragmé pour donner du contraste et d’un éclairage largement ouvert donnant le pouvoir séparateur. Les grandissements des objectifs achromatiques s’échelonnent de 6,3 à 91. Les objectifs panapochromatiçjues, utilisables avec de très faibles grossissements, permettent d’excellentes photographies dans le domaine du visible, du proche ultraviolet et du proche infrarouge. Il est possible de réaliser une installation de télémicroscopie avec cet appareil et une chaîne C.F.T.H. (fig. 8).
- Fig. 8. — Dispositif de télémicroscopie.
- Microscope Stabifocal Locquin (Instruments physiques modernes) avec chaîne C.F.T.H. (Photo C.F.T.II.).
- Fig. 9. — Microscope électronique JEM-S-Y.
- (Photo Établissements Del ville).
- Microscopie électronique. — Trois exposants présentent chacun, sur le marché, un microscope électronique. Il s’agit des Établissements Philips, Siemens et Delville, ce dernier représentant en France la Japan Electron Optics Laboratory. Nous n’insisterons pas sur les microscopes Siemens et Philips de fabrication courante, dont les qualités sont indiscutables et les possibilités nombreuses : par exemple, le microscope Siemens offre un pouvoir de résolution qui peut atteindre moins de 10 À, comporte des possibilités de chauffage ou refroidissement de l’objet de — rio° C à 1 6oo° C...
- Le microscope JEM 5 Y présenté celle année par la maison Delville bénéficie maintenant de nombreux perfectionnements : il permet d’obtenir un pouvoir séparateur meilleur que 8 Â, un grossissement direct continu de 000 à 200 000 et il est d’utilisation plus simple que le modèle précédent (fig. 9).
- Examinons rapidement son fonctionnement : un canon à électrons, alimenté par courant haute fréquence, fournit un faisceau d’électrons accéléré par une anode sous tension de 5o, 80 ou 100 kV. Deux lentilles magnétiques à diaphragme successives servent de condenseur et laissent tomber sur l’échantillon des faisceaux électroniques parallèles très fins. En chaque point de l’objet, une fraction des électrons traverse la préparation sans perte de vitesse ni changement de direction; cette fraction est variable avec le point de l’objet, d’où le contraste observé sur l’image. Api’ès cette traversée, les électrons franchissent successivement une lentille magnétique de distance focale égale à 4 mm qui sert d’objectif, puis un diaphragme, une lentille intermédiaire, enfin une autre lentille magnétique qui projette l’image sur un écran fluorescent de 10 cm de diamètre. L’image est observée à l’aide d’une lunette sous un
- p.489 - vue 492/558
-
-
-
- 490
- angle qui peut atteindre 3o°. Les deux dernières lentilles permettent d’obtenir le grossissement final désiré. Ce microscope peut servir aussi comme appareil de diffraction électronique, par transmission ou réflexion, de haute résolution.
- Un groupe à vide et un bloc d’alimentation très étudiés
- complètent l’appareil. L’échantillon peut être porté depuis la température ambiante jusqu’à une température de — i8o° C ou de i ooo C.
- Le microscope comporte également un dispositif de prise de vue photographique. G. G.
- Nouveaux spectrophotomètres
- Le speclropholomèlre Ultrascan (fig. io) présenté par les Établissements Dannatt pour Hilger et Watts (Angleterre) est un spectrophotomètre enregistreur très maniable, qui permet une précision de i pour ioo. Il permet d’explorer une bande de longueurs d’onde s’étalant de 2 000 à 7 000 Â à l’aide d’un photomultiplicateur sensible. Un prisme en silice fondue autorise une excellente transmission. Trois vitesses de balayage permettent l’enregistrement complet du spectre en 4, 8 ou 16 minutes. Cet appareil à double faisceau, délimité par deux fentes semblables de largeur moyenne, doublable ou dédou-blable, de 3 à 10 Â, utilise une lampe à hydrogène et une lampe à filament de tungstène facilement interchangeables au moment voulu. Il peut être muni d’un dispositif permettant l’enregistrement de l’absorption en fonction du temps.
- Un nouveau spectrophotomètre visuel selon Gatke (Franz Kustner, Dresde), présenté par Biolyon, à double écran inter-férentiel, couvre d’une façon continue la zone de 4oo à 760 mp. L’extension dans l’ultraviolet lointain a été permise grâce à l’utilisation de quartz synthétique dont est fait le prisme, la silice fondue suffisant pour la construction des cellules, des sources et des enveloppes de détecteurs photomultiplicateurs. Il est obligatoire d’opérer une purge de l’appareil par courant d’hydrogène ou d’azote, l’atmosphère étant absorbante (oxygène-vapeur d’eau). Enfin, la perte par réflexion.sur les mii’oirs, qui doit être réduite au minimum, a conduit à leur perfectionnement.
- L’appareil comporte un enregistreur automatique à double faisceau. L’équipement électronique se compose d’une chaîne d’amplification, de détecteurs et d’un enregistreur-potentiomètre électronique. Un servo-mécanisme commande automatiquement la largeur de la fente pour permettre à l’appareil de travailler à résolution optique maximale : avec un simple monochromaleur, la résolution atteint 2  dans l’ultraviolet, 6  dans le visible et 3o  à 3 p.
- L’enregistrement automatique, en fonction linéaire des longueurs d’onde, des transmissions ou densités optiques, peut se faire sur onze gammes photométriques linéaires.
- Le spectrophotomètre Graplii Spectral Jouan à double faisceau que nous avons déjà décrit (La Nature, juin 1958, p. 24o) permet d’explorer une bande de longueur d’ondes s’étalant de l’ultraviolet (i85 mp) au proche infrarouge (1 100 mp). Utilisé pour la mesure, le-dispositif breveté de la persienne tournante permet une détermination rigoureuse de la densité optique. L’enregistrement automatique des courbes d’absorption en fonction de la longueur d’onde utilise une échelle pouvant être rendue linéaire en fonction des densités optiques ou des transmissions (pour xoo).
- Le spectrophotomètre Beckman, présenté par Promesur, est destiné à l’ultraviolet visible et au proche infrarouge. Le modèle DK 2 Spécial est doté des tout derniers perfectionnements de façon à permettre l’analyse jusqu’à un ultraviolet lointain; la gamme de longueurs d’onde s’étend ainsi depuis 170 mu jusqu’à 3 5oo mp.. Ce modèle comporte un enregistreur automatique à double faisceau. De 170 mp. à 65o mp., le récepteur photométrique est un photolube multiplicateur d’électrons, tandis que de 65o mp. à 3 5oo mp, c’est une cellule au sulfure de plomb. Un simple monochromateur permet une grande résolution : 2 Â pour l’U.-V., 6 Â dans le visible et 3o À à 3 p. L’appareil travaille à résolution optique maxima grâce à une commande automatique de la fente. L’enregistrement automatique des spectres comporte 11 gammes photométriques linéaires.
- Deux spectrophotomètres infrarouge Beckman ont bénéficié également de quelques perfectionnements. A côté du type IR 5, modèle simplifié qui convient surtout pour le contrôle, existe le spectrophotomètre type IR 7 à simple et double faisceau. Il comporte un double monochromateur qui se compose de l’ensemble interchangeable d’un prisme (6o°) en NaCl associé à un miroir de Littrow et d’un réseau à 76 traits/mm. La résolution atteint o,3 cm'1 à x 000 cm-1, la gamme spectrale de l’instrument s’étendant de 4 000 à 65o cm-1.
- Précision sur la transmission en pour 100 : ± 0,2.
- Incertitude sur la fréquence utilisée : variable, de ± o,5 cm-1 à 65o cm”1 jusqu’à ± 5 cm”1 à 4 000 cm”1.
- L’enregistreur à déroulement continu donne en échelle linéaire la transmission oq la densité optique en fonction du
- nombre d’ondes j- cm”
- U
- (i
- Spectroprojecteur photométrique. — Ce tout nouveau spectroprojecteur consti’uit par Jobin et Yvon, comportant un dispositif d’enregistrement, est destiné à l’analyse aussi bien quantitative que qualitative des spectres obtenus sur plaque 9 x 2.4 ou sur film standard de 35 mm. Cette analyse se fait sur l’image agi'andie 18 fois d’une portion de la plaque, 1 image étant projetée sur un écran spécial à l’aide d’un des deux systèmes d’éclairage incorporés à l’appareil.
- L’étude quantitative de la plaque se fait pas à pas, en mesurant l’opacité de chaque raie, grâce à un dispositif isolant à l’aide d’une fente chaque raie de l’image : le faisceau lumineux ainsi délimité est envoyé sur un récepteur photoélectrique.
- L’exploration du spectre est possible grâce au déplacement dans son plan de la plaque suivant cinq vitesses différentes.
- Un enregistreur est substituable au galvanomètre.
- .G,. G.
- p.490 - vue 493/558
-
-
-
- - 491
- Appareils de mesures électrochimiques
- Le stand Tacussel (fig. u) offrait celte année un grand nombre d’appareils nouveaux, réellement originaux, en matière de mesures électrochimiques. Tout d’abord le système de vanne électro-magnétique présenté l’année dernière a été remplacé par une burette de 25 ml graduée de o,o5 en o,o5 ml, munie de deux robinets « Verplast ». Le robinet inférieur est commandé, au moyen d’un flexible, par un moteur à double sens de marche à faible inertie (l’ouverture ou la fermeture du robinet ne demandant qu’un cinquième de seconde environ). Quant au robinet supérieur, il sert à régler le débit lorsque le précédent est ouvert. Ce système, qui était présenté en fonctionnement, nous a semblé d’une utilisation beaucoup plus souple que le système classique qui consiste en l’écrasement d’un mince tuyau de vinyle par l’intermédiaire d’un électro-aimant. L’unité de commande du moteur, utilisée en liaison avec un milli-voltmètre, n’a pas été modifiée.
- Un autre appareil, plus spécialisé, permet de réaliser automatiquement certains dosages : iodométrie, réaction de Fischer, etc. Il réunit dans un même boîtier le titrimètre à électrodes polarisées, le dispositif de commande de la burette à robinet motorisée décrite précédemment et, c’est ce qui en fait l’originalité, un temporiseur qui permet de continuer l’addition de réactif titrant dans les réactions lentes. Supposons, par exemple, qu’il s’agisse de la réaction de titrage de l’anhydride arsénieux par l’iode. Cette réaction est lente de sorte qu’il subsiste toujours de l’iode libre pendant un certain temps, même en présence d’anhydride arsénieux. Le circuit indicateur de la fin de réaction (qui détecte précisément la présence d’un excès d’iode) délivre donc un courant qui entraîne l’arrêt de l’addition d’iode, comme si la réaction était terminée. En fait, cet iode en excès disparaît peu à peu par réaction sur As3+, mais en l’absence de temporiseur, la burette, une fois arrêtée, ne pourrait pas pour autant se remettre en marche d’elle-même. Au contraire, le temporiseur permet de continuer l’addition de l’iode jusqu’à ce que les conditions correspondant à la fin de la réaction (excès d’iode) persistent pendant une durée au moins égale à une valeur choisie à l’avance. Il permet donc de remédier à l’inconvénient des réactions de titrage lentes. La temporisation est réglable de 3 à 4o s environ.
- On a pu noter également un dispositif qui permet l’addition automatique à vitesse constante d’un réactif. Il se compose d’un tube de verre parfaitement calibré dans lequel se déplace
- Fig-. 11. — Large éventail d’appareils nouveaux au stand Tacussel.
- Au premier plan, à gauche : le. titrimètre automatique à temporiseur pour réactions lentes ; à droite : ensemble potentio-statique pour le tracé automatique des courbes intensité-potentiel.
- (Photo J. Pellerin).
- un piston en téflon actionné par un moteur synchrone. Ce moteur est interchangeable, de sorte qu’il est possible de réaliser des vitesses d’addition de réactif variables dans de larges limites, à condition de disposer d’un nombre suffisant de ces moteurs.
- Tacussel présentait aussi un nouveau conductimètre à lecture directe dont il n’existe pour l’instant que deux exemplaires : le CD 7 A. Son originalité réside essentiellement dans un dispositif de correction de constante de cellule. Dans une mesure de conductivité effectuée à l’aide d’un appareil classique, il est indispensable de déterminer la constante de la cellule de mesure au moyen d’une solution étalon (par exemple une solution de KC1 N/io) et de tenir compte de la valeur obtenue pour les déterminations ultérieures. Dans l’appareil présenté, au contraire, un potentiomètre hélicoïdal permet d’obtenir la valeur de la conductivité cherchée directement sans avoir à multiplier les lectures par la constante de la cellule. Ce dispositif est, à notre connaissance, unique en son genre.
- Signalons, pour terminer, un ensemble potenliostatique pour le tracé automatique des courbes intensité-potentiel (courbes de polarisation) sur lequel nous nous proposons de revenir ultérieurement en détail en raison de son importance.
- R. R.
- Thermobalance à infrarouge
- Cette thei'mobalance (fig. 12), construite par les Établissements Biaugeaud sous licence Mauret, a trouvé un grand succès à l’exposition « Mesure française à Moscou » où elle a été présentée. Elle permet la mesure automatique précise des pertes de poids en étuve infrarouge à température réglable, ce qui
- la différencie totalement des autres thermobalances à four classiques. Un spot lumineux permet la lecture directe sur cadran gradué. Une des principales applications industrielles est le dosage rapide et précis de la teneur en eau de nombreux produits. Par thermogravimétrie et analyse thermique, il est aisé de construire des courbes de pertes de poids isothermes, de déterminer des températures de transformation et des seuils de décomposition, de faire des études cinétiques en tous genres (déshydratations, décompositions thermiques...). La précision annoncée par le constructeur est de ± o,o5 pour 100. Une mesure peut prendre de 5 à 3o mn.
- L’avantage principal de l’appareil réside dans son principe de chauffage par infrarouge. La température se règle instantanément de 3o° à i3o° C. G. G.
- (Quelques autres monographies concernant l'Exposition de Physique seront données dans notre prochain numéro).
- p.491 - vue 494/558
-
-
-
- 492
- Essais aérodynamiques en vol libre sur maquettes lancées par moteur-fusée
- L'augmentation continuelle des vitesses de vol des avions supersoniques et plus encore des engins spéciaux a. mis en évidence la nécessité d’essais aérodynamiques à des vitesses dépassant largement celles du son. Dans ce but, des souffleries super-et hypersoniques ont été réalisées comme nous avons pu le voir dans un numéro récent (La Nature5 septembre 1969, p. 4og), mais leurs dimensions sont souvent très faibles, la puissance nécessaire à leur fonctionnement variant pratiquement comme le cube de ces dimensions. Aussi, certains problèmes ne peuvent être étudiés avec toute la précision désirable et les essais en soufflerie sont doublés par des essais aérodynamiques au moyen de maquettes volantes. Dans ces essais, les maquettes sont lancées du sol au moyen de petits moteurs-fusées à combustibles solides qui leur permettent d’atteindre un nombre de Mach élevé; puis la maquette décélère en vol non propulsé, et c’est au cours de cette période qu’ont lieu les mesures.
- L'équipement de mesure des maquettes. — L’enregistrement des paramètres de vol de la maquette repose sur les techniques habituellement utilisées dans le domaine des engins guidés. La. trajectoire est obtenue au moyen d’un cinéthéodolite qui suit optiquement la maquette et qui donne les valeurs des angles de site et d’azimut à des intervalles régulièrement espacés d’une fraction de seconde. La vitesse est mesurée par effet Doppler, dont nous avons déjà exposé le principe ici même. Les autres paramètres de vol : pressions, incidence, efforts sur les gouvernes, etc., sont mesurés directement à bord de la maquette elle-même et sont retransmis au sol par télémesures. Les résultats de mesure agissent en modulant la fréquence d’une onde porteuse et les variations de fréquence sont retransformées au sol par un oscillographe. L’efficacité de la télémesure dépend beaucoup de l’installation d’antenne; lorsque la maquette est en bois, l’antenne est généralement logée à l’intérieur de l’aile.
- Les appareils de mesure doivent satisfaire à certaines conditions liées à la nature des essais. Le volume très faible disponible à l’intérieur de la. maquette, qui est de l’ordre de quelques décimètres cubes, oblige de miniaturiser les instruments et les circuits, et ceci d’autant plus que le nombre des voies de télémesure augmente. Or, ce nombre est évidemment directement lié au nombre de paramètres à enregistrer, et pour les essais les plus complexes réalisés actuellement, il faut compter au moins vingt voies de mesure.
- En outre, les appareils emportés à bord sont soumis à des conditions d’utilisation très dures qu’ils doivent être capables de supporter. Les accélérations peuvent atteindre 60 Gs, c’est-à-dire 60 fois l’accélération de la pesanteur. Des vibrations d’origines diverses (combustion irrégulière dans le moteur, effets aérodynamiques sur les gouvernes...) peuvent être rencontrées, sans qu’il soit possible de prévoir exactement leur intensité; la résistance des instruments de mesure doit alors être soigneusement vérifiée à la table vibrante. Enfin, il faut encore citer des niveaux de température et de pression élevés, notamment pour la température au voisinage du moteur.
- Parallèlement à la transmission des mesures par radio, certains engins sont équipés d’enregistreurs sur films qui sont alors emportés à bord. Cette technique nécessite la récupération d’une partie au moins de la maquette, mais la plus grande simplicité de la chaîne de mesure procure à l’expérimentation une meilleure sécurité ainsi qu’une meilleure précision.
- En France, l’O.N.E.R.A. a étudié et mis au point depuis une dizaine d’années toute une série de capteurs et d’enregistreurs, qui sont maintenant régulièrement utilisés dans des conditions de sécurité et de précision analogues à celles rencontrées en soufflerie.
- Méthodes de mesure. — Une des applications les plus intéressantes des essais en vol libre réside dans la mesure de l’efficacité des gouvernes d’engins aux grandes vitesses. Les gouvernes ont un braquage pré-établi au départ, et on mesure l’effet produit par ce braquage (par exemple, vitesse de tangage pour une gouverne de profondeur). On peut ainsi comparer rapidement les performances de gouvernes de formes différentes, et placées soit à l’arrière du fuselage dans la formule classique, soit, à l’avant dans la formule canard. Les gouvernes sont réalisées en alliage léger pour présenter plus de rigidité, alors que les ailes sont généralement en bois comprimé et collées sur le carter du moteur-fusée.
- Créneaux
- \ Trapèzes
- -5*-t
- Fig:. 1. — Différentes lois de braquage utilisées dans les essais en vol libre.
- Les lois de braquage ont généralement une forme analytique simple périodique : triangle, créneau ou trapèze (fig. 1), qui peut se réaliser sans trop de complexité. Par exemple, un braquage en créneau s’obtient en reliant la gouverne par un embiellage à un électro-aimant commandé par une minuterie qui inverse périodiquement le sens du courant. La période du mouvement est d’environ 4 s.
- Enfin, oh peut également déterminer l’évolution en fonction du nombre de Mach de vol de la traînée et de la portance de la maquette.
- Jacques Spincourt.
- Rayons X détectés par les souris
- On a observé que des souris soumises aux rayons X paraissaient capables de déceler la présence d’un faisceau de radiations suffisamment énergique. Dans une cage, en partie isolée par un écran de plomb, les souris ont tôt fait de se réfugier dans la zone protégée. Ceci se produit quand la dose reçue atteint 3 à 400 rœntgens et il semble que la réaction des souris augmente avec l’intensité de la radiation. Il était généralement admis que les êtres vivants sont insensibles aux rayons X, quoique des sujets humains aient prétendu ressentir des impressions de fourmillement ou de brûlure au cours de traitements radiothérapiques.
- p.492 - vue 495/558
-
-
-
- LE CIEL EN DECEMBRE I960
- 493
- SOLEIL : du 1er au 22 (à Oh) sa déclinaison décroît de — 21°46' à — 23°2T (minimum), puis revient à — 23°2' le l'er janvier 1961 (à 0h), la durée du jour passe de 8h30m le 1er, à 8hllm le 22 (minimum), puis revient à 8h16m le 31, diamètre app. le 1er = 32'29",9, le 31 = 32'35",2. — Lune : Phases : P. L. le 3 à 4h25m, D. Q. le 11 à 9h39m, N. L. le 18 à 10h17rn, P. Q. le 25 à 2h30m ; apogée le 7 à 311, diamètre app. = 29f'27" ; périgée le 19 à llh, diamètre app. = 33'20". Principales conjonctions : avec Mars le 6 à 6h, à 6°47' S. ; avec Uranus le 9 à 12h, à 2°2' S. ; avec Neptune le 15 à 611, à 2°46' N. ; avec Mercure le 17 à lo^, à 5°11' N. ; avec Jupiter le 19 à 11h, à 4°20' N. ; avec Saturne le 19 à 22h, à 3°47' N. ; avec Vénus le 21 à 15h, à4°18 N. Principales occultations : le 3, d’Aldé-baran (mag. 1,1), immersion à lhlm,3 et émersion à 2h21m,l ; le 7, de 5 Cancer (mag. 5,9), émersion à ; le 10, de 44 Lion
- (mag. 5,9), émersion à ; le 16, de 38 Balance (mag. 4,0),
- émersion à 6M6m,7 ; le 29, de 54 Taureau (mag. 3,9), immersion à 23hoom,7. — PLANÈTES : Mercure, encore étoile du matin la première moitié du mois, lever le 14 à 6h3i6m, soit lll2ni avant le Soleil ; Vénus, étincelante étoile du berger, se couche le 26 à 19h42m, Soit 3M4m après le Soleil ; Mars, dans les Gémeaux très bel astre rouge brillant toute la nuit, le 15 diamètre app. 15",2 et mag. — 1,1 ; Jupiter et Saturne, dans le Sagittaire s’effacent vite dans les brumes du couchant ; Uranus, à 1 degré au N-W de
- v Lion se lève dès la fin de la soirée, le 15, position : 9ho3m et -1- 13°39', diamètre app. 3",8 ; Neptune, dans la Balance devient mieux visible le matin, le 26 lever à 3h7m, soit 4h38in avant le Soleil. — ETOILES VARIABLES : minima observables d’Algol (2m,2-3m,5) le 6 à 3h,8, le 9 à O»1,7, le 11 b 21b,4, le 14 à 18^,2, le 29 à 2h,4, le 31 à 23h,0 ; minima de p Lyre (3*,4-4®,3} le 3 à 9*,4, le 16 à 7h,7, le 29’ à 6h,0 ; maximum de R Petit Lion (6m,3-13P>,2) le 13. — TEMPS SIDÉRAL : au méridien de Paris à 0h (T. U.) : le l*1- : 4h48m45s, le 11 : 5h28mlls, le 21 : 6h7m36s, le 31 : 6,147m2s.
- Phénomènes intéressants.-' — Solstice d’hiver le 21 à 20h27m. — Surveiller l’activité solaire. — On pourra encore rechercher la planète Mercure le matin avant le lever du Soleil, au début du mois. — Vénus se dégage bien du crépuscule. — Du 20 au 23, lumière cendrée de la Lune, le soir. — Ne pas manque d’observer l’occultation d’Aldébaran, le 3. — Du 9 au 13, étoiles filantes Géminides (maximum le 12), radiant Castor. — On observera les belles constellations d’hiver : Taureau, Gémeaux, Cocher, Orion, Grand et Petit Chien.
- Heures données en Temps universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. T ARTOIS.
- LES LIVRES NOUVEAUX
- Introduction à la théorie des probabilités,
- par ü. V. Gnédenko et A.. la. Khintchine. Traduit du russe par M. Gilliard. 1 vol. 11 x 16, 165 p., 16 fig. Monographies Dunod, Paris, 1960. Prix, relié toile souple : 12,50 NF.
- Calcul des probabilités en vue des applications, par Maurice Girault. 1 vol. 14 x 22, 178 p., 26 flg. Collection Probabilité, statistique, recherche opérationnelle. Dunod, Paris, 1960. Prix : 14,50 NF.
- Traitant tous deux des bases du calcul des probabilités, des définitions fondamentales et de certaines fonctions de répartition importantes, ces deux livres sont écrits dans un esprit très différent. Le premier, fidèle à l’esprit des monographies Dunod, vise surtout à intéresser un public éclairé. Les auteurs, parmi les plus grands probabilistes de notre temps, utilisent de nombreux exemples simples propres à intéresser les lecteurs de toutes catégories désireux de s’initier à cette branche si vivante des mathématiques. Le second, plus orienté vers l’enseignement, réunit le cours du certificat de probabilité du second cycle. C’est ainsi un ouvrage d’initiation qui s’adresse surtout aux futurs utilisateurs, et l’auteur a tenté par conséquent de fournir en plus au lecteur les mathématiques propres au calcul des probabilités : ensembles probabilisables, fonction caractéristique, convergence en probabilités, etc. 20 problèmes et leurs solutions.
- Sur les sentiers de la Science, par Louis de Broglie. 1 vol. 13 x 20, 418 p. Collection Les savants et le monde. Albin Michel, Paris, 1960 .Prix : 12 NF.
- Recueil d’articles et de conférences de l’illustre auteur de la Mécanique ondulatoire. Une bonne
- partie sont consacrés à des savants de grand mérite dont L. de Broglie analyse la pensée et l’œuvre avec pénétration. Un intérêt plus grand encore s’attache naturellement aux conférences et exposés qui traitent des questions scientifiques qui ont toujours spécialement préoccupé l’auteur et qu’on retrouve dans des domaines très divers de la Physique, pure ou appliquée. Quelques-uns, comme celui qui situe l’œuvre de Boltzmann dans la Physique moderne, seront précieux pour les historiens des sciences. Enfin, des discours et articles sur d’autres sujets comportent aussi des pages intéressantes, et on sera curieux de savoir ce que M. Louis de Broglie pense par exemple de l’évolution du langage scientifique ou du travail des hommes de science.
- Précis de Physique d’après les théories modernes, par A. Boutaric et P. Barcheyvitz. 7e édition entièrement refondue. 1 vol. 15 x 21, 844 p., 446 fig. G. Doin et Cls, Paris, 1960. Prix : 44,45 NF.
- Ouvrage d’enseignement pour les étudiants du P.G.B. et S.P.G.N. ; le livre est bien présenté et fournira à ces étudiants le traité simple et relativement complet dont ils ont besoin. Les calculs particulièrement simples ne sont là que pour souligner l’aspect physique du phénomène. On peut regretter la présentation brochée d’un livre de cette épaisseur, destiné à être très souvent compulsé.
- Course of theorical Physics :
- Vol. 6. Fluid Mechanics, par L. D. Landau et E. M. Lifshitz. Traduit du russe par J. B. Sykes et W. H. Reid. 1 vol. 15,5 x 25, xii-536 p., 119 fig. Pergamon Press, Londres, 1959. Prix, relié : 105 sh.
- Vol. 7. Theory of Elasticity, par L. D, Landau et E. M. Lifshitz. Traduit du russe par
- J. B. Sykes et W. H. Reid. 1 vol. 15,5 x 25,
- 134 p., 20 fig. Pergamon Press, Londres, 1959.
- Prix, relié : 40 sh.
- Soulignons d’abord la richesse du premier ouvrage dont la grande originalité est de relier dans un même cadre théorique les aspects multiples et très variés de la mécanique des fluides : aérodynamique, hydraulique, thermodynamique acoustique. Après deux chapitres classiques sur la dynamique des fluides incompressibles idéaux ou visqueux, les auteurs consacrent deux chapitres à une étude détaillée des phénomènes de turbulence et de la couche limite, puis cinq à l’écoulement des fluides compressibles et au phénomène de choc (choc stationnaire, propagation, écoulement sonique et supersonique). Outre ces sujets essentiels, le traité comprend d’importants chapitres sur la conduction thermique dans les fluides, la diffusion, la capillarité, la propagation du son, la dynamique de la combustion, ainsi que trois appendices : mécanique relativiste des fluides, mécanique des superfluides et fluctuations. Le second ouvrage est un traité succinct et classique de la théorie de l’élasticité. Les auteurs posent les équations fondamentales (chap. I) et développent les applications : équilibre des barres et des plaques (chap. Il), propagation des vibrations acoustiques dans les solides (chap. III). Enfin, le dernier chapitre est un exposé original des processus de dissipation de l’énergie dans les solides : conduction thermique et viscosité.. On retrouve dans ces deux ouvrages la clarté d’exposition et les explications détaillées qui caractérisent ce cours de physique théorique. Index et. problèmes avec solutions.
- MICROSCOPE
- SXi\BlTOCAL-LOCQÜI%
- (voir page 489 de ce numéro)
- Marcel LOCQUIN 2.0, Avenue Rapp
- INV. 96-53 Paris-7e
- CHROMOTAXIA
- Code Universel des couleurs
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 19551
- 84, rue de Grenelle, Paris-7e
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d’État Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignemènt " à domicile "
- (Joindre timbre pour notice)
- p.493 - vue 496/558
-
-
-
- THE McGRAW-HILL
- ENGYCLOPEDIA OF SCIENCE AND TECHNOLOGY
- E N
- QUINZE
- VOLUMES
- A poster aujourd’hui
- A : Dept. LN, McGRAW-HILL PUBLISHING CO., LTD.,
- 95, FARRINGDON STREET, LONDON, E.C.4
- /
- Prière de m’envoyer, par l’intermédiaire de mon libraire, un prospectus de THE McGRAW-HILL ENCYCLOPEDIA OF SCIENCE AND TECHNOLOGY.
- AL A/ra\ A/'le..............................
- A dresse ...................................
- Mon libraire est
- Il m’intéresserait de connaître les conditions de paiement à crédit.
- (Rayer cette mention si elle est inütiïk)
- Pour cette entreprise de publication sans précédent, plus de 60 éditeurs-conseils, collaborant avec un Comité de rédaction de haute tenue, ont obtenu le soutien des leaders de tous les domaines de la Science et de la Technique. Le nom des participants se lit comme un « Who’s Who » de la communauté scientifique mondiale. Tous sont des spécialistes reconnus : dans bien des cas, les articles ont été écrits par ceux à qui l’on devait de nouvelles découvertes et de récents progrès dans le domaine considéré. Ainsi, vous trouverez des textes signés de Léo Beranek sur l’Acous-tique..., de H. E. Edgerton sur la Photographie au fond des mers..., de Krafft A. Ehricke sur le Génie spatial..., de Paul A. Siple sur P Antarctique..., de W. J. Calloway sur le Bruit des avions..., de H. F. Oison sur l’Enregistrement magnétique..., de Richard F. Post sur la Physique des plasmas..., et d’autres encore, également renommés pour leurs originaux et importants travaux.
- Un grand nombre d’articles exposent des connaissances que l’on ne pouvait pas trouver jusque-là sous la forme d’un livre. Il y a des articles dont les signataires sont des lauréats du Prix Nobel : Selman A. Waksman sur la Streptomycine, Emilio A. Segré sur l’Antiproton, Glenn T. Seaborg sur les Eléments transuraniens, P. Kusch sur les Faisceaux moléculaires, Percy W. Bridgman sur la Physique des hautes pressions.
- Rien de comparable par l’ampleur de la conception, par l’autorité, par la commodité d’utilisation n’avait encore été offert dans un ouvrage de référence de ce type. Posséder THE McGRAW-HILL ENCYCLOPEDIA OF SCIENCE AND TECHNOLOGY, c’est vous pourvoir d’une information pour laquelle vous auriez à consulter des milliers de sources (livres, périodiques et comptes rendus spéciaux). Comme outil de travail pratique, cette Encyclopédie fait partie de la bibliothèque privée et professionnelle de quiconque se trouve dans un domaine de la science ou de la technique. Réellement compréhensive, cette Encyclopédie est un ouvrage non seulement essentiel pour le scientifique professionnel et l’ingénieur, mais aussi pour l’étudiant, et pour toute bibliothèque publique ou de référence.
- Un Annuaire McGraw-Hill de la Science et de la Technique sera publié chaque printemps. Épais de 500 pages environ, il conservera à l’Encyclopédie son caractère « up to date » grâce à une révision des matières traitées et à l’adjonction d’articles entièrement nouveaux.
- 8 500 pages de texte 7 200 articles 9 700 illustrations 600 pages d’index
- p.494 - vue 497/558
-
-
-
- 495
- Wave propagation and group velocity, par
- Léon Brillouin. 1 vol. 15,5 x 23,5, xn-154 p,, 62 fig. Academie Press, New York, 1960. Prix, relié : 6 dollars.
- Série d’articles publiés entre 1914 et nos jours où l’auteur a éclairci cette délicate question de vitesses de groupe, de phase et d’énergie. En effet, dans tous les milieux, à l’exception du vide, toutes les fréquences ne se propagent pas avec la même vitesse (ce qui permet d’expliquer le phénomène de dispersion de la lumièi'e par un prisme). Un signal composé de différentes fréquences se déformera donc au cours de la propagation, les fréquences les plus rapides précédant les fréquences les plus lentes. Ceci amène donc à étudier comment se déforme le signal et à définir plusieurs vitesses. L'importance de ces problèmes en optique, en radioélectricité, en acoustique ou en mécanique quantique fait à ce livre une place de choix dans la bibliothèque du physicien (Le chapitre 2 a été écrit par A. Sommerfeld). — J. L.
- Vibrations mécaniques, par J. P. Den ITartog. Traduit par H. L. Supper et IL Aberbam.
- 1 vol. 16 x 25, 476 p., 9S1 fig. Dunod, Paris, 1960. Prix, relié toile sous jaquette : 65 NF.
- L’importance des vibrations mécaniques dans tous les problèmes de technique moderne n’est plus à souligner. L’auteur a su correctement doser la partie mathématique, aisément accessible, et les exemples pratiques (moteurs, hélices et ailes d’avions, hélicoptères, « shimmy » des automobiles, etc.). Quelque 200 problèmes avec leurs solutions.
- Radioactivité et Physique nucléaire, par J. M. Cork. Traduit de l’américain par J. Bodet. 1 vol. 14 x 22, 422 p., 192 fig.
- 2e édition. Dunod, Paris, 1960. Prix, relié toile sous jaquette : 39 NF.
- Très intéressant ouvrage qui dresse le bilan de nos connaissances sur la constitution de la matière et traite notamment de la radioactivité naturelle et de la radioactivité artificielle, des transmutations, des rayons cosmiques, des fissions d’éléments lourds, etc. L’auteur donne pour chaque question le développement histo-rique, puis l’exposé détaillé des plus récents travaux et de leurs applications pratiques. Ces diverses questions de physique nucléaire ont en effet fait l’objet durant ces dernières années de découvertes importantes : découverte de l’antiproton et de l’antineutron, mise au point d’appareils détecteurs plus sensibles, etc. Après chaque chapitre, l’ouvrage comporte divers problèmes dont les solutions sont indiquées.
- Les traceurs radioactifs en métallurgie physique, par C. Leymonie. 1 vol. 14 x 22,
- 240 p., 43 fig., dont 13 hors texte. Dunod,
- Paris, 1960. Prix, relié : 32 NF.
- Après avoir rappelé les notions fondamentales de radioactivité ainsi que les méthodes expérimentales de détection qui permettent de doser les éléments radioactifs utilisés comme traceurs, l’auteur examine les diverses questions que le métallurgiste a pu aborder grâce à remploi de ces traceurs : diffusion dans les métaux et alliages, ségrégations de coulée, réactions et mécanismes superficiels : corrosion, oxydation, frottement, etc. Il a spécialement approfondi l’étude de la diffusion dans les métaux qui intervient dans des phénomènes très importants tels que la cémentation, l’homogénéisation, le frittage, etc.
- Électricité théorique et appliquée, par
- K. Küpfmüi.ler. Traduit de l’allemand par
- A. Frühling. 1 vol. 16 x 25, 613 p. Dunod,
- Paris, 1960. Prix, broché sous couverture
- illustrée : 39 NF ; relié toile sous jaquette :
- 44 NF.
- Évitant volontairement les difficultés de principe, souvent ardues, inhérentes à un exposé approfondi d’électricité théorique dont l’importance pratique reste limitée, l’auteur s’est
- spécialement attaché, après l’étude des lois fondamentales, à examiner en détail de très nombreuses applications, un exemple numérique lui donnant ainsi chaque fois l’occasion de préciser les ordres de grandeur. Les connaissances mathématiques nécessaires à la compréhension de ce cours sont du niveau de la licence ; il traite successivement le courant électrique stationnaire, le champ électrique, le champ magnétique, les réseaux et quadripoles, les lignes électriques, les champs rapidement variables et les phénomènes électromagnétiques transitoires. L’onvrage s’adresse spécialement aux élèves des grandes écoles techniques et aux étudiants de licence qui préparent le nouveau certificat d’électricité.
- Théorie générale des circuits électriques,
- par Maurice Fallût, professeur à la Faculté des Sciences. Préface de Louis Néel, membre de l’Institut. 1 vol. 16 x 25, 288 p., 194 fig. Dunod, Paris, 1960. Prix : 29 NF.
- Ouvrage consacré à la théorie des circuits électriques à constantes localisées. L’auteur s’est limité aux régimes sinusoïdaux, laissant de côté le problème des régimes transitoires. Les méthodes de calcul sont introduites de manière à suggérer des représentations concrètes. C’est ainsi que le calcul matriciel est présenté d’abord comme une simplification des méthodes d’écriture. Le livre correspond à une partie importante des programmes des nouveaux certificats de licence Électricité et Ëlectrotechnique. Les ingénieurs y trouveront par ailleurs des notions qui ne leur ont pas toujours été enseignées de façon systématique. Important recueil d’exercices.
- Introduction aux circuits à transistors, par
- E. II. Cooke-Yarborougii,, chef de la Division électronique au Centre de Recherche de l’Énergie nucléaire, Harwell. Traduit de l’anglais par A. Maître, ancien élève de l’École Polytechnique. 1 vol. 11 x 16, 173 p., 60 fig. Monographies Dunod, Paris, 1960. Prix, relié toile souple : 14 NF.
- LA NATURE PLASTIFIÉE
- ENROBAGE DE SPÉCIMENS BIOLOGIQUES
- dans résine artificielle claire comme du cristal
- CHEZ VOUS
- Demandez renseignements pour colis d’essai avec instructions
- Joindre enveloppe timbrée avec adresse 5.V.P
- INTERNATIONAL PLASTIC RESEARCH B. P. 03 CONTES (A.-M.)
- L’auteur de cet ouvrage en définit parfaitement l’esprit en écrivant que, « d’un point de vue pratique, il n’y a pas d’objections à l’étude des circuits à transistors par la méthode expérimentale, pourvu que celle-ci s’accompagne d’une compréhension qualitative des phénomènes impliqués, et que le circuit obtenu soit justiciable d’une analyse suffisamment exacte ». Compréhension et analyse sont obtenues ici en utilisant de manière intuitive la description du mouvement des électrons et des trous dans les transistors, ainsi qu’en insistant sur les phénomènes qui distinguent le transistor du tube électronique. Après un chapitre consacré au fonctionnement des transistors, l’auteur aborde l’amplification basse fréquence, puis l’étude des principaux circuits amplificateurs. La seconde moitié de l’ouvrage est consacrée aux circuits à impulsions et à un certain nombre d’applications typiques pour s’achever enfin sur l’emploi des transistors dans les calculateurs. Bibliographie et index.
- Physique et technique des tubes électroniques, par R. Champeix. Tome II ; Théorie et fabrication des tubes. 1 vol. 16 x 25, 414 p., 300 fig. Dunod, Paris, 1960. Prix, relié : 58 NF.
- Le tome I de cet ouvrage était consacré à la technique du vide, essentielle pour la réalisation des tubes électroniques. Le second, consacré aux tubes eux-mêmes, suit sensiblement le même plan : une première partie donne des éléments de physique électronique, et conduit aux formules fondamentales (Richardson, etc.) en partant du niveau de Mathématiques élémentaires ; on y trouve aussi l’étude détaillée des cathodes, du comportement des électrons dans les champs électriques et magnétiques, puis le principe des différentes sortes de tubes électroniques. La seconde partie, purement technologique, étudie les matériaux et les éléments constitutifs des tubes, puis leurs procédés de fabrication. L’auteur a cherché à équilibrer la partie théorique et la partie technique.
- Il y a bien réussi, et la leciure de ce livre très « aéré » sera profitable et agréable à la fois à l’ingénieur, à l’étudiant et au technicien de niveau assez élevé.
- Applications of nuclear magnetic résonance spectroscopy in organic chemistry, par
- L. M. Jackman. 1 vol. 17 x 25,5, xn-134 p., 66 fig. Pergamon Press, Londres, 1959. Prix, relié : 35 sh.
- Les noyaux atomiques possèdent un spin capable d’un certain nombre d’orientations ; à chaque orientation correspond un niveau d’énergie différent ; la différence entre deux niveaux voisins est fonction du champ magnétique externe. Si on met une substance dans un champ magnétique et que l’on envoie dans cette substance une onde électromagnétique correspondant à la différence d’énergie, on observera un phénomène de résonance, la radiation étant très fortement absorbée. La fréquence dépend, outre du champ magnétique appliqué, de la nature de l’atome, de ses voisins dans les composés chimiques, de l’état physique (gaz, liquide, solide), de la nature des liaisons chimiques, etc. On conçoit aisément l’intérêt d’un tel outil pour le chimiste, outil qui permet de donner une idée de la configuration des molécules. L’auteur, dans cette monographie, fait le point des résultats obtenus par cette méthode dans l’étude des molécules organiques. Après avoir succinctement rappelé le principe de la méthode et les moyens expérimentaux, il étudie sur des exemples précis les variations de fréquences des noyaux atomiques dues aux différentes structures moléculaires propres à la chimie organique. — J. L.
- Ingénieurs et Techniciens des Industries
- chimiques, par Maurice Déiubéré. 1 vol.
- 12 x 18,5, 162 p., illustr. hors texte. Collection Les carrières et la tne, n° 2. Presses
- Universitaires de France, Paris, I960, Prix :
- 5 NF,
- L’auteur nous montre en quoi consistent les carrières offertes aux jeunes par l’industrie chimique, ainsi que la façon de les aborder. La description d’une visite d’usine, quelques rappels sur ce qu’est la chimie, des données précises montrant l’essor des industries chimiques françaises constituent un avant-propos judicieux â la présentation des diverses carrières offertes par la chimie et à la liste des diverses écoles (dont trois sont décrites avec assez de détail, à titre d’exemples) préparatoires à ces carrières. Une dernière partie montre les débuts du chimiste à l’usine et indique la localisation en
- p.495 - vue 498/558
-
-
-
- 49C
- France des principaux centres de l’industrie chimique. — H. G-
- Table pour le calcul direct des constantes d’équilibre des systèmes chimiques aux hautes températures, par Henri .Matjras. Préface du professeur Paul Pascal, membre de l’Institut. 1 vol. 16,5 x 25, 150 p., fig. Masson, Paris, 1959. Prix, broché, 16,50 NF ; cart. toile : 24,50 WF.
- Le calcul des équilibres chimiques est d'une application courante au laboratoire ou dans L’industrie car de la valeur de la constante d’équilibre peut être déduite, a priori, la possibilité ou l’impossibilité de réaliser une réaction dans certaines conditions de température et de pression. Ce calcul est rendu possible par la connaissance des constantes thermochimiques ou thermodynamiques ; encore convient-il de disposer de ces données notamment aux diverses températures. Après avoir rappelé comment se calculaient ces équilibres, l’auteur réunit dans plus de 100 pages les données numériques permettant de tels calculs, puis donne des exemples dans une vingtaine de pages.
- L’analyse chimique et physico-chimique de l’eau, par J. Roiuer. Préface de R. Fabre, doyen de la Faculté de Pharmacie de Paris, membre de l’Institut. 1 vol. 16 x 25, 472 p. Dunod, Paris, 1960. Prix, relié toile sous jaquette : 48 NF.
- Refonte complète de l’ouvrage publié en 1950 et rapidement épuisé. Dans une première partie, l’auteur examine en détail l’analyse des eaux naturelles, en décrivant avec s0*11 *es divers modes opératoires qu’il préconise ; dans la deuxième partie, il étend ces dosages aux eaux usées, tandis que diverses annexes fournissent des renseignements intéressants. 11 convient de noter qu'on trouvera dans cet excellent travail non seulement les méthodes d’analyse, mais aussi la façon de présenter les résultats et surtout celle de les interpréter. A une époque où les besoins en eau, chaque jour plus considérables, nous obligent à utiliser^ de plus en plus des eaux de surface alors meme que ces eaux sont polluées par le développement de l’industrie et aussi par l’évacuation des eaux d’égout dans les rivières et qu il convient par la suite de les épurer, 1 analyse de l’eau prend une importance de plus en plus grande.
- Principes of Animal Virology, par F. M. Bur-net. 2e édition. 1 vol. 15,5 x 23,5, x-490 p., 34 fig. Academie Press Inc., New York et Londres, I960. Prix, relié : 12 dollars.
- Cinq ans après son apparition, l’auteur estime nécessaire de remanier profondément une moitié de son ouvrage fondamental. C’est qu’entre temps, le progrès technique, et en particulier la pratique systématique des cultures de tissus, a permis de résoudre divers problèmes, déplaçant ainsi les centres d’intérêt de la recherche. Celle-ci s’engage dans deux voies essentielles : l'une consiste à déceler l’évolution des particules virales, phénomène responsable de l’apparition permanente de nouvelles maladies \ l’autre à exploiter pour l’analyse des processus physiologiques normaux les perturbations du métabolisme cellulaire consécutives à l’infection. Cet ouvrage fait le point des connaissances acquises et oriente les esprits vers ces aspects modernes de la virologie. — G. B.
- Paris et la région parisienne, par Pierre George et Pierre Ranoet, avec la collaboration de Jean Bastie (France de demain, ntf 1). 1 vol. 17 x 23,5, 160 p., 23 fig. et cartes, 16 pi. photos h. t. Presses Universitaires de France, Paris, 1960. Prix, cart. : 15 WF.
- Ce volume ouvre la nouvelle collection France de Demain, dirigée par F.-L. Closon et P. George. Il s'agit d’une série de 8 volumes qui étudieront la France sous un angle nouveau, où la géographie et l’économie collaboreront intimement : chaque volume est d’ailleurs confié à une équipe de deux ou plusieurs collaborateurs, généralement un géographe et un économiste ou un statisticien. Celui-ci, dû à P. George, professeur à la Sorbonne, et Pierre Randet, directeur de l’Aménagement du Territoire, étudie Paris et sa région, leurs activités, leurs problèmes. Le cadre départemental choisi peut susciter des réserves : il faut reconnaître
- —. A NOS LECTEURS —
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition d6S lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques , français et étrangers.
- que la mise en œuvre de l’appareil documentaire et statistique actuel impose un découpage qui ne sera jamais satisfaisant pour tout le monde. C’est tout le visage de la France qui se modifie sous nos yeux et oblige à reconsidérer la notion de région. Bonne présentation, caries agréables ; manque un index. — P. VF.
- La région du Nord et du Nord-Est, par
- Roland Wistri et Claude Prêcheur (France de demain, n° 2). 1 vol. 17 x 23,5, 160 p., 12 fig. et cartes, 16 pl. photos h. t. Presses Universitaires de France, Paris, 1960. Prix, cart. : 15 WF.
- R. Wistri, administrateur à l’LW.S.E.E. de Lille, et Cl. Prêcheur, professeur à l’Université de Wancv, étudient ensemble ce complexe économique vital qu’est pour la France la région Word et Word-Est : 1/15 du territoire, mais 1/8 de la population, 75 pour 100 de la houille, 90 pour 100 du minerai de fer, la quasi-totalité der la fonte et de l’acier... Que serait une France amputée de ces secteurs-frontière, qui ne représentent pas 7 pour 100 de sa superficie totale ? Les auteurs, tout en rendant hommage au renouveau industriel et aux essais réfléchis de modernisation et d’adaptation à la C.E.G.A. et au Marché commun, soulignent les insuffisances qui subsistent, et notamment le contraste qui sépare l’agriculture progressiste du Word et celle, restée arriérée, de la Lorraine. — P. VF.
- La région lyonnaise, par Jean Labasse et Michel Laferrère (France de demain, n® 4). 1 vol. 37 x 23,5, 160 p., 16 fig. et cartes, 16 pl. photos h. t. Presses Universitaires de France, Paris, 1960. Prix, cart. : 15 NF.
- « Dix départements autour de Lyon... », telle est la délimitation de*j cette nouvelle région étudiée par J. Labasse et M. Laferrère, et à laquelle nos manuels ne nous avaient pas habitués. Ils avaient tort, car une nouvelle géographie économique se modèle sous nos yeux et Lyon exerce incontestablement une influence qui dépasse le traditionnel cadre du « sillon rhodanien », allant de Chalon à Viviers et du Puy à Modane... Le plan est plus classique, étudiant successivement le cadre naturel et humain, l’agriculture, l’industrie, le tourisme (quinze pages excellentes), et terminant par une étude très neuve sur l'action unificatrice de Lyon. Ce nouveau manuel sera rapidement un ouvrage de référence : quelle plus belle preuve de son utilité ? — P. VF.
- La région méditerranéenne, par Paul Carrère et Raymond Dugranr (France de demain, n° 5). 1 vol. 17 x 23,5, 160 p., 21 fig. et cartes, 16 pl. photos h. t. Presses Universitaires de France, Paris, 1960. Prix, cart. : 15 WF.
- Nettement originale en France de par son climat, sa végétation, sa façade maritime, la région méditerranéenne possède à la fois une unité profonde et une diversité régionale poussée : les problèmes de la Gerdagne ne sont
- pas les mêmes que ceux du littoral niçois, sans compter la Corse, très particulière en raison de sa situation insulaire et de son insuffisance économique. D’excellents passages sont consacrés à la viticulture languedocienne (d’où toute démagogie est bannie), au tourisme, à l’expansion marseillaise, aux grands plans d'aménagement (Durance, canal Rhône-Languedoc, etc.). Ouvrage très clair, excellente documentation pratique. — P. FF.
- L’Année ferroviaire 1960. 1 vol. 14,5 x 23, 279 p., fig. Plon, Paris, 1960. Prix : 10,20 WF.
- Un captivant exposé de P. Gaxotte sur Rouies, chemins de fer, centralisation ouvre le traditionnel volume de L’Année ferroviaire. Les articles suivants, plus techniques, sont dus à F. Q. Den Hollander (Les T. È. E.), R. Hutter (Le tunnel sous la Manche), G. Ramé (Le pro-blème des grands départs), A. Barbaut (L’auto-mobiliste et le chemin de fer) et J. Walter (Les téléimprimeurs à la S.N.C.F.). La seconde partie du volume fournit les habituels et précieux renseignements statistiques, ainsi que des détails intéressants sur l’activité ferroviaire en France et dans le monde.
- Engrais, guide pratique de la fertilisation,
- par André Gros. 2e édition. 1 vol. 13 x 22 cm, 406 p., nombreux tableaux, schémas, cartes, photos. La Maison rustique, Paris, 1960. Prix, cartonné : 11 NF.
- La première édition de cet excellent ouvrage de vulgarisation agricole avait valu à son auteur le prix Lenglen de l’Académie d’Agri-culture en 1957. Aucune connaissance scientifique n’est nécessaire au lecteur qui aborde cet ouvrage mais seulement le solide bon sens qui ne manque pas à nos agriculteurs. Les premiers chapitres traitent fort complètement de l’alimentation de la plante et de la constitution des sols, puis décrivent les amendements et engrais. On traite ensuite systématiquement tous les problèmes pratiques, depuis le calcul de la fumure jusqu’à la réglementation de la vente des engrais. La présente édition est augmentée d'un chapitre sur la fumure dans les régions méditerranéennes et tropicales, et d’un Index alphabétique des matières. Les considérations de rentabilité sont encore plus fortement exprimées que dans la première édition. Des illustrations photographiques concrétisent les arguments tirés de l’expérimentation agricole ainsi que les données générales sur l’industrie des engrais en France,
- Aide-Mémoire Dunod : Agriculture, dide-mémoire pratique du technicien agricole, par E. Quittet, 14e édition. 2 vol. 10 x 14 cm, 300 p. environ chaque. Dunod, Paris, 1960. Prix, relié toile : 6,80 WF le vol.
- 1er volume : agriculture générale, principales cultures, lutte contre les ennemis des végétaux, viticulture, calendrier des travaux du jardin et du verger. 2e volume : améliorations foncières, machinisme, constructions rurales, productions animales, etc. Notons en particulier dans ce second volume ; notions sur les associations agricoles, lois sociales applicables à l’agriculture, services administratifs, enseignement agricole, économie rurale. Ces matières sont présentées sous forme de tableaux accompagnés d’explications. Outil de travail qui a fait ses preuves.
- Mon magnétophone, par P. IIémardiinquer et M. Aubier. 1 vol. 13,5 x 21,5, 160 p., 82 fig. Chiron, Paris, 1960. Prix : 8,70 WF.
- Fort utile mise au point destinée à l’amateur, ce volume est avant tout pratique et fourmille de conseils : comment choisir et manœuvrer un magnétophone, ses usages multiples, le cinéma d’amateur, la « chasse aux sons », etc. Excellent condensé qui n’a pas son équivalent à l’heure actuelle.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 WF pour domiciliation aux bureaux de la revue)
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 4° trimestre i960, n° 3528. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lo566), LAVAL, K° /U76. — II-I960.
- p.496 - vue 499/558
-
-
-
- N° 3308
- Décembre I960
- LA NATURE
- Aux insecticides de synthèse les insectes résistent de plus en plus
- Fig. 1. — Épandage d’HCH par hélicoptère sur la lisière d’un bois, contre les hannetons (Photo G. d’Agtjilab).
- La. population du globe est aujourd’hui en augmentation continuelle. Ce fait, joint à l’élévation du niveau de vie dans beaucoup de pays, rend nécessaire un accroissement important des ressources alimentaires. Trois solutions sont possibles : augmentation de la superficie des terres cultivées; augmentation des rendements; enfin diminution des pertes causées par les nombreux ennemis des récoltes : champignons parasites, rongeurs, insectes, etc.
- Chacun connaît les ravages causés par le hanneton, le doryphore, les criquets. Deux chiffres donneront une idée des pertes causées par les seuls insectes : en ig55, soixante millions d’hectolitres de maïs ont été détruits aux États-Unis par le papillon Pyrausta nubilabis, connu sous le nom de European corn borer. Dans le même pays, on évalue à 335 millions de dollars les pertes annuelles en coton dues aux insectes. De nombreux insectes sont aussi les agents transmetteurs de maladies qui sont des fléaux d’importance mondiale : le paludisme pro-
- pagé par les moustiques; la maladie du sommeil inoculée par la mouche tsé-tsé, etc.
- On comprend que dans ces conditions la lutte contre les insectes nuisibles soit au premier plan des préoccupations de nombreux chercheurs. Une puissante industrie s’est créée depuis une vingtaine d’années. La production d’insecticides est passée de 16 milliards de dollars en ig3g à ioo milliards en ig56. Les prévisions sont de 200 milliards pour ig65.
- C’est vers 1940 que commença l’essor des insecticides organiques de synthèse. Limité jusqu’alors à des produits d’origine végétale (nicotine, pyrèthre, roténone) ou à quelques composés appartenant à la chimie minérale (arséniates, cyanures, bouillie sulfo-calcique), l’arsenal antiparasitaire s’est enrichi de plusieurs centaines d’insecticides nouveaux. Nous allons brièvement passer en revue les groupes principaux d’insecticides modernes, et ce qu’on sait de leur mode d’action, avant d’examiner un problème important, imprévu il y a encore
- p.497 - vue 500/558
-
-
-
- 498
- quelques années, celui de la résistance des insectes à ces produits de synthèse.
- Les principaux insecticides organiques de synthèse se classent en insecticides chlorés et insecticides phosphorés.
- Insecticides chlorés. — Un premier groupe d’insecticides chlorés comprend le DDT (dichloro-diphényl-trichloréthane) et ses analogues. Durant la seconde guerre mondiale, l’armée américaine était à la recherche d’un produit de remplacement du pyrèthre dont les principaux lieux de production étaient occupés par le Japon. Une petite quantité de DDT dont les propriétés insecticides avaient été découvertes quelques années auparavant par le Suisse P. Müller fut envoyée aux États-Unis. Dès que ses étonnantes propriétés furent confirmées, la fabrication commença sur une grande échelle et son premier emploi massif fut un succès considérable. Une épidémie de typhus qui s’était déclenchée à Naples fut stoppée net grâce à la destruction rapide et totale des poux, vecteurs de la maladie.
- Quelques insecticides sont des succédanés du DDT. Ils en ont les avantages, en particulier la longue durée d’action grâce à leur faible volatilité, et n’en ont pas certains inconvénients, en particulier la toxicité. Citons le DDD (dichloro-diphényl-dichloréthane), le méthoxychlore.
- Le deuxième groupe est constitué essentiellement par le IICH (hexachloro-cyclo-hexane) ou lindane. Ce produit fut essayé en France en 1943 comme remplaçant de l’arsenic dans la lutte contre le doryphore. Des essais sur le terrain montrèrent la grande toxicité de l’isomère y pour de nombreux parasites des cultures. Les autres isomères sont à peu près inactifs.
- Le chlorure, l’aldrine, la dieldrine peuvent être rangés dans le 'même groupe.
- Insecticides phosphorés. — La recherche d’insecticides phosphorés commença en Allemagne. Ces produits sont des dérivés des gaz de combat (sarin, tabun) dont ,1’étude et la fabrication avaient été très poussées dans ce pays. Le TEPP apparut le premier en ig44 comme succédané de la nicotine.
- La fabrication de nouveaux insecticides phosphorés prit une grande extension quand on s’aperçut de la résistance offerte au DDT et à ses dérivés par des insectes de plus en plus nombreux. Le parathion, le schradan, le déméton sont connus depuis de nombreuses années : l’endothion a été mis au point
- Fig. 2. — Diminution du nombre des cas de typhus murin aux États-Unis depuis l’emploi du DDT en 1944.
- Cette maladie est transmise à l’homme par la puce du rat.
- récemment en France pour la destruction des pucerons; le ronnel, peu toxique pour les animaux à sang chaud, sert aux États-Unis contre les parasites du bétail.
- Cette grande diversité d’insecticides offerte aux utilisateurs pose des problèmes d’emploi parfois délicats. Le choix du produit toxique contre un insecte déterminé ne peut se faire qu’après de nombreux essais, au laboratoire et sur le terrain. Certains insecticides sont polyvalents, comme le DDT ou le IICH. D’autres ont une action plus ou moins spécifique.
- Les statistiques suivantes montrent l’importance de l’industrie des insecticides (production des États-Unis en 1958) : DDT, 60000 t; IICH, 35 000 t; parathion, 3 000 t; autres insecticides organiques de synthèse, 45 000 t; arséniate de calcium (insecticide minéral), 5 000 t.
- L’emploi de ces produits a eu des répercussions considérables sur l’agriculture et la santé. Les figures 2 et 3 en illustrent deux cas particulièrement nets. La diminution du nombre de cas de typhus murin et l’augmentation massive du rendement des vaches laitières coïncide avec l’introduction du DDT en agronomie et dans la lutte contre les vecteurs de maladies contagieuses.
- Comment agissent les insecticides
- On a l’habitude de distinguer parmi les insecticides de synthèse ceux qui peuvent traverser le tégument épais des insectes : ce sont les insecticides de contact; d’autres sont absorbés par voie digestive avec les aliments : ce sont les insecticides d'ingestion. Cette distinction est cependant un peu arbitraire car le même insecticide peut se comporter de façon très différente suivant les conditions d’application.
- Des symptômes caractéristiques de l’empoisonnement ont été décrits : diminution du nombre des cellules sanguines (leucocytes), destruction des cellules musculaires et intestinales, lyse du protoplasme, etc. Mais les perturbations les plus importantes semblent bien être celles qui affectent le métabolisme et le fonctionnement du système nerveux. Malheureusement, nos connaissances théoriques sur ce sujet sont encore fort réduites, ce qui falentit beaucoup les recherches pratiques. Nous examinerons quelques cas parmi les mieux connus.
- Mode d'action du DDT. — Des expériences réalisées sur la Blatte ont montré que le DDT agit au niveau de la fibre nerveuse. On sait que chez les insectes, dans les conditions normales, une excitation unique du nerf ne produit aucune réponse. Le DDT et ses analogues modifient de telle façon le nerf qu’une seule excitation entraîne une série de réponses avec une fréquence de 25o par seconde durant 0,1 à x s. L’insecte intoxiqué ne tarde pas à mourir après une période d’excitation intense. L’action du DDT est semblable à celle des produits qui précipitent le calcium comme les citrates ou les oxalates. On peut donc penser que le DDT, qui se dissout dans les graisses de la membrane du nerf, altère celle-ci et entraîne une « fuite » du calcium qui est indispensable au bon fonctionnement du système nerveux.
- Cependant cette théorie n’explique pas la non-toxicité de certains dérivés du DDT, comme le DDE, qui sont également solubles dans les graisses. Une autre hypothèse est schématisée par la figure 4; elle suppose que la pénétration du produit dépend de la configuration de la molécule qui lui permet ou ne lui permet pas de s’insinuer dans les espaces libres entre les molécules lipo-protéiques.
- Mode d’action de YHCH. — Deux explications du mode d’action de l’HCH sont possibles, comme pour le DDT. Les deux théories ont le même point de départ, c’est-à-dire la non-toxicité des différents isomères autres que l’isomère y- Suivant la théorie de Mullins (fig. 4), seul l’isomère y serait capable
- p.498 - vue 501/558
-
-
-
- 499
- -Livres de lait par vache (1 livre 453grammes)
- Nouveaux insecticides
- Fig. 3. — Influence de l’introduction des nouveaux insecticides organiques de synthèse sur la production du lait aux États-Unis.
- de pénétrer à travers les espaces libres dans la membrane du nerf et de provoquer les troubles de fonctionnement du système nerveux qui aboutissent à la mort de l’insecte.
- Une autre théorie tout aussi vraisemblable fait appel à des découvertes importantes réalisées chez des levures et des bactéries. Il existe une souche de
- Fig. 4. — Schéma expliquant la pénétration des insecticides à travers la membrane du nerf.
- La membrane du nerf est considérée comme formée de molécules cylindriques, juxtaposées, de lipoprotéines, laissant entre elles des intervalles à coupe triangulaire curviligne. En haut, cas du DDT dont la molécule toxique peut passer dans un tel intervalle. Le DDE ne passe pas et n'est donc pas toxique. En bas, cas des différents isomères de l’HGII. Seule la molécule de l’isomère y peut passer.
- Tableau I
- Principaux insecticides organiques de synthèse
- Insecticides chlorés
- Groupe du DDT :
- DDT
- Insecticide rémanent, actif contre un grand nombre d’insectes. Très toxique pour les abeilles.
- DDD
- Cl<
- Cl,
- Métoxychlore
- ch3o/
- OCH3
- CCI,
- Utilisé dans les étables en raison de sa faible toxicité pour le bétail.
- Groupe du HGH :
- Lutte contre le doryphore, le criquet migrateur, l’anthonome et le carpocapse du pommier, les larves de taupins. Peu toxique pour les abeilles.
- Chlordane
- Cl
- Il cci2 C1 I \ci'/
- Cl
- Cl
- Efficace contre les broyeurs : chenilles, coléoptères, termites. Dangereux pour le bétail, interdit pour les plantes fourragères.
- Insecticides phosphores
- Les composés du phosphore Ri\ Riv
- ayant une activité insecticide /p — x ou /p — x ont pour formule générale : R"
- 0
- Rin
- R*
- TEPP
- Parathion
- c3hsx 0 0 Il 0 Il y /C2H5 .0
- V — 0 — P<
- cr c3h5/ \ °\ xc2H5
- N°o /° 0 ~-P< ||\o s — c2h5 — c2h5
- Remplace la nicotine contre les pucerons.
- Actif contre pucerons et criquets.
- (CH3)3Nv .0 Ov /N(CH3)2
- Schradan /p\
- (CH3)2N/ \ /
- sN(CH3)2
- Insecticide systémique utilisé pour la protection des végétaux.
- Endothion
- O
- ch3 — ^ 0
- O
- Il /OCH3
- ch2s — P<
- noch3
- Insecticide systémiquetactif contre les pucerons.
- p.499 - vue 502/558
-
-
-
- 500
- OH OH
- Méso-inositol
- H Cl
- Y hexachlorocyclohexane ( HCH )
- la levure de bière qui a besoin pour son développement de méso-inositol, substance de croissance appartenant au groupe des vitamines B. La multiplication de cette levure est inhibée par l’addition du seul isomère y à l’exclusion des autres. Cet isomère, qui possède une structure analogue à celle du mésoinositol, prendrait la place de cette vitamine dans une des étapes du métabolisme. Il se comporte donc comme une antivitamine. Un exemple bien connu d’antivitamine est celui des sulfamides découverts par J. Tréfouël. Leur action bactério-statique est due à une analogie de structure avec l’acide p-amino-benzoïque, facteur de croissance indispensable aux bactéries (fîg. 5).
- C00H
- Acide p-amino-benzdique
- S00NH
- Sulfamide
- Fig. 5. — Analogie structurale entre métabolite et corps toxique.
- Par leurs analogies respectives de constitution, le HCH peut facilement prendre la place du méso-inositol et un sulfamide peut remplacer l’acide p-aminobenzoïque dans la série de réactions du métabolisme, bloquant ainsi des fonctions vitales.
- Fig. 6. — Épandage nocturne d’HCH.
- La poudre est humectée pour lui assurer une meilleure adhérence à la végétation dont se nourrissent les hannetons (Photo G. d’Aguilar).
- Action des insecticides phosphorés. — De nombreuses expériences ont été faites chez les Mammifères (souris, cobaye) et les Insectes pour élucider le mécanisme de l’intoxication par les composés phosphorés. Ce sont les insecticides dont on connaît le mieux le mode d’action alors que seules des hypothèses ont pu être émises jusqu’ici pour les autres insecticides.
- On sait que l’excitation du muscle par le nerf correspondant se fait par l’intermédiaire d’un médiateur chimique, l’acétylcholine, qui est sécrétée par les terminaisons nerveuses de la plaque motrice. L’acétylcholine formée s’installe dès lors sur des taches réceptrices qui, pense-t-on, peuvent la loger exactement au sein du muscle; celui-ci se contracte ensuite (fig. 7). Par la suite une enzyme, la cholinestérase, transforme l’acétylcholine en acide acétique et en choline qui ne s’adapte pas
- • Extrémité du nerf
- Molécules
- 'd'acétylcholine
- —Taches réceptrices
- Muscle décontracté ——i |-----Muscle contracté
- 1
- Fig. 7. — Schéma expliquant l’action du nerf sur la contraction musculaire.
- A l’état normal (A) le nerf sécrète à son extrémité des molécules d’acétylcholine qui viennent s’encastrer dans les « taches réceptrices » du muscle dont la contraction est alors possible (B). La cholinestérase agit en détruisant ces molécules d’acétylcholine et le muscle revient au repos. Lors de l'empoisonnement par les insecticides phosphorés, la cholinestérase est inhibée et le muscle reste contracté en permanence.
- Fig. 8. — Action de l’insecticide T E P P sur l’acétylcholine et la cholinestérase de la mouche.
- Augmentation de l'acétylcholine
- Inhibition de la cholinestérase
- 6 • 8
- ïemps en heures
- p.500 - vue 503/558
-
-
-
- 501
- dans les taches réceptrices et est donc inactive. La contraction musculaire s’arrête. Les insecticides phosphorés, en inhibant la cholinestérase, provoquent l’accumulation d’acétylcholine qui amène, entre autres troubles, une contraction intense de tous les muscles des insectes empoisonnés (fig. 8).
- Cependant les insecticides phosphorés, comme le parathion ou le schradan, ne sont guère actifs in vitro contre la cholinestérase. Cette contradiction apparente a été expliquée par la découverte de leur transformation in vivo par certains tissus (comme le foie) qui, par oxydation, en font des composés doués de propriétés anticholinestérasiques intenses.
- Les insecticides systémiques. — Le dernier exemple nous conduit au cas des insecticides appelés systémiques ou endo-thérapiques. On sait depuis longtemps que le blé qui pousse sur les sols riches en sélénium de certaines régions des États-Unis n’est pas attaqué par les Pucerons. La plante appelée Gif
- Fig. 9. — Démonstration de l’effet systémique du déméton.
- L’insecticide a été déposé sur la feuille B qui l’a absorbé. Les feuilles A sont placées à l’intérieur d’un verre de lampe D et un cône en carton C empêche l’insecticide de les atteindre directement. Le carton E empêche l’insecticide de tomber sur la terre et d’être absorbé par les racines. Les insectes situés en A sont tués cependant par suite de l’absorption et du transport du déméton dans toute la plante.
- Blaar (Dichapetalum cymosum) en Afrique du Sud contient du fluoroacétate de sodium qui la rend toxique pour les insectes phytophages. Il existe donc des substances qui peuvent pénétrer dans les végétaux et les protéger de l’attaque des parasites. Ce sont ces produits que l’on nomme insecticides systémiques. Presque tous ceux qui sont utilisables sont des composés phosphorés qui subissent dans les végétaux une oxydation qui les rend toxiques (fig. g). Les principaux sont le schradan, le systox, l’endothion, le déméton; un composé intéressant est le trolène, peu toxique pour les Mammifères et actif contre l’œstre, mouche qui pond ses œufs sur le bétail et dont les larves cheminent sous la peau de l’animal. A ce,stade le trolène administré à l’animal tue les larves avant qu’elles ne puissent occasionner des dégâts.
- Un phénomène inquiétant : la résistance croissante des insectes
- Les insecticides utilisés sur une vaste échelle n’ont pas tardé à présenter un certain nombre d’inconvénients. En particulier, de nombreux insectes sont devenus résistants à certains insecticides qui étaient auparavant très efficaces. Ce phénomène est connu depuis près de cinquante ans aux États-Unis où sont apparues des Cochenilles résistantes au cyanure. Les souches résistantes résultaient de l’usage très répandu de la fumigation au cyanure dans les vergers d’agrumes. Mais jusqu’à la seconde guerre mondiale, peu d’insecticides étaient utilisés sur
- une grande échelle et les souches résistantes étaient une curiosité. Après la guerre, le DDT commença à être disponible et fut suivi d’autres produits synthétiques ayant un effet résiduel prolongé. L’usage très répandu des produits chimiques possédant ces qualités eut des effets foudroyants sur de nombreuses populations d’insectes. Mais après quelques années la réaction naturelle de certaines espèces menacées produisit des souches résistantes.
- En 1946, la résistance au DDT apparut chez la mouche domestique en Suède, puis s’étendit presque au monde entier. Le public ne tarda pas à accuser les fabricants de livrer des marchandises de mauvaise qualité. A l’heure actuelle un rapport de l’Organisation mondiale de la Santé précise que la résistance au DDT est connue chez 34 espèces indésirables pour la santé publique; la plupart des insecticides chlorés ont subi le même sort que le DDT. Les mouches, les punaises, les poux et les puces se mettent à résister à des doses égales à 5oo et même 1 000 fois la dose mortelle pour des races sensibles. Les composés phosphorés et le pyrèthre, qui ne paraissaient pas être mis en échec jusqu’en 1957, sont maintenant inefficaces dans certains cas.
- Le développement rapide de la résistance a conduit les entomologistes à entreprendre des recherches pour en élucider le mécanisme. On a noté par exemple une modification du comportement de certaines espèces de moustiques et de quelques races de mouches qui ont tendance à éviter les surfaces traitées et à se poser là où il n’y a pas de DDT. Certains ont cru mettre en évidence une diminution de l’absorption du DDT par les mouches résistantes qui auraient le tégument des pattes plus épais.
- Mais parmi tous les mécanismes possibles de résistance, le plus important semble être la transformation rapide de l’insecticide en un dérivé inoffensif. Encore faut-il préciser que ce mécanisme n’est à peu près bien connu que pour le DDT. On sait son existence pour le HCH, le toxaphène, le chlordane, mais les étapes n’en sont pas encore élucidées avec certitude. Quant à la résistance au pyrèthre et aux insecticides phosphorés, elle est apparue trop récemment pour avoir été étudiée de façon approfondie.
- Si l’on injecte du DDT à des mouches on constate que chez les insectes sensibles le produit injecté est retrouvé intact alors que chez les insectes résistants, il est transformé en un dérivé inoffensif, le DDE. C’est une enzyme, la DDT-déhydrochlori-
- Fig. 10. — Résultat d’un épandage d’insecticide sur des plantes basses.
- La poudre est répartie uniformément, ce qui permet d’utiliser de moins grandes quantités du produit toxique.
- p.501 - vue 504/558
-
-
-
- 502
- nase, qui est responsable de cette modification. On ne la rencontre que chez les mouches résistantes, et elle est localisée dans la cuticule où a lieu l’essentiel de la transformation du DDT en DDE inoffensif.
- Il est cependant possible, dans certains cas, de lutter contre les races résistantes en ajoutant au DDT des substances non toxiques par elles-mêmes mais qui augmentent considérablement par leur présence la sensibilité des insectes. Ces produits, appelés synergiques, agissent en bloquant les mécanismes de détoxification des races résistantes. Ils présentent une analogie structurale évidente avec le DDT et doivent se combiner d’une façon stable avec la DDT-déhydrochlorinase qu’ils empêchent d’agir.
- L’apparition de la résistance a été étudiée au laboratoire (fig. ii). Elle se fait d’abord lentement pendant i5 à 3o générations puis augmente brusquement en une ou deux générations pour atteindre sa valeur maximale. La résistance ainsi acquise est héréditaire. Or on sait que les insecticides ne sont
- Fig. 11. — Acquisition de la résistance à différents insecticides.
- La dose mortelle moyenne (LD 50) représente la quantité d’insecticide nécessaire pour tuer 50 pour 100 des insectes en expérience. On remarque que la résistance au parathion (insecticide phosphoré) se manifeste plus lentement que la résistance aux insecticides chlorés comme le mé-thoxychlore et le DDT.
- 10 20 30 40 50 60-s
- Générations
- Mélhoxychlore
- Prolan
- Parathion
- pas capables de provoquer des mutations héréditaires. On admet donc que des mutations spontanées se produisent constamment dans les populations naturelles d’insectes. A chaque génération apparaissent ainsi des individus ayant des caractères physiologiques très divers, et certains d’entre eux, doués de la propriété de résister aux insecticides, survivent seuls sous l’effet de la sélection naturelle.
- Plus le pourcentage de mortalité est élevé, plus les souches résistantes apparaîtront vite. Il faut que cette action destructive sélective agisse sur une vaste population d’insectes. Si l’insecticide n’atteint qu’une faible partie de la population, la souche sélectionnée est bientôt diluée par accouplement avec des individus normaux qui n’ont pas été exposés. Pour cette raison la résistance n’est probable que si l’insecticide est employé sur une vaste étendue. Ceci est possible grâce aux nouveaux produits synthétiques car ils ne sont pas très coûteux et ils maintiennent leur action pendant longtemps.
- On peut comprendre aussi pourquoi la résistance est plus répandue parmi les insectes nuisibles à la santé publique que parmi les insectes nuisibles à l’agriculture, malgré le plus grand nombre de ces derniers. En effet, la récolte traitée n’est pas la seule nourriture de l’insecte phytophage qui peut être répandu sur des plantes non traitées. Par contre les insectes qui intéressent la médecine sont souvent limités à l’habitat humain par leurs habitudes et peuvent être contaminés pendant plusieurs mois par les résidus d’insecticides sur les murs des habitations traitées.
- Le développement de la résistance à un insecticide déterminé
- semble augmenter simultanément la résistance à d’autres avec lesquels -l’insecle n’a jamais été en contact. C’est ainsi que des mouches rendues résistantes nu DDT sont devenues aussi résistantes à l’îICII et à la dieldrine.
- Une comparaison peut être établie avec le comportement des bactéries à l’égard des antibiotiques. Un certain nombre de bactéries produisent une enzyme, la pénicillinase, qui provoque une destruction rapide de la pénicilline. C’est le cas de certaines souches de Staphylocoques qui peuvent survivre pendant l’emploi clinique de la pénicilline. Chez la bactérie Esche-richia coli il existe des individus insensibles à la streptomycine bien qu’ils n’aient jamais été mis en contact avec cette substance. Cette constatation permet de supposer que des mutations incessantes existent aussi chez les bactéries, à la faveur desquelles apparaissent des souches résistantes.
- On observe donc chez les insectes et les bactéries soumis à l’action de substances toxiques des phénomènes de sélection naturelle qui semblent confirmer les théories de Darwin sur la survivance du plus apte. Mais il n’est nullement certain que la sélection de mutations apparues au hasard représente le seul mode d’apparition de la résistance.
- Le mécanisme génétique de la résistance peut avoir des modalités très diverses. Les auteurs sont souvent en désaccord sur l’explication à fournir. Bornons-nous à examiner quelques cas à peu près complètement élucidés.
- Chez le moustique Anopheles gambiæ le croisement entre un mâle résistant au DDT et une femelle sensible donne à la première génération des hybrides tous semblables avec une résistance intermédiaire à celle des parents. La deuxième génération comprend i/4 d’individus semblables sensibles, i/4 de résistants et 1/2 de type intermédiaire. Il s’agit donc d’un cas de monohybridisme classique qui suit exactement les lois de Mendel, et que l’on peut interpréter à l’aide de la théorie chromosomique de l’hérédité. La résistance aux composés phosphores et à l’HCH chez la mouche domestique se transmet également suivant les lois de Mendel.
- Comme ils l’ont fait pour nombre d’autres caractères héréditaires, en étudiant les générations issues de croisements et en mettant à profit les accidents chromosomiques que l’on peut déceler à l’examen microscopique, les généticiens ont pu localiser en certains cas les gènes responsables de la résistance. Chez la Drosophile le même gène est responsable de la résistance au DDT et à l’HCH. Il est localisé sur le deuxième chromosome. La résistance à la nicotine est liée à un autre gène situé près du centromère du troisième chromosome.
- Fig. 12. — Appareil Pasteur attelé à un tracteur.
- Contre les hannetons, la poudre à base d’HCH à 10 pour 100 est épandue à raison de 35 kg à l’hectare (Photo G. d’Aguilar).
- p.502 - vue 505/558
-
-
-
- 503
- Fig. 13. — Étude du bilan d’un épandage d’insecticide.
- A. la suite d’un traitement par avion sur agrumes en Tunisie, un entomologiste recueille les insectes tombés. On cherchait à atteindre le Cératite (mouche des fruits) mais des insectes utiles aux plantations (prédateurs ou parasites des nuisibles) furent trouvés morts en bien plus grand nombre.
- (Photo G. d’Aguilar).
- Parfois les faits sont plus complexes. C’est ainsi que chez la Blatte, les hybrides de première génération ressemblent toujours plus à la femelle qu’au mâle en ce qui concerne la résistance au DDT. Il semble donc y avoir une action d’un facteur cytoplasmique, car on sait que l’œuf fécondé tient la majeure partie, sinon la totalité, de son cytoplasme de la femelle d’où il est issu, alors que le noyau et ses chromosomes proviennent à parts égales des deux parents.
- Plusieurs chercheurs ont essayé de découvrir si d’autres caractères biologiques sont normalement liés à la résistance. Il n’y en a aucune preuve, sauf peut-être que l’on a constaté que les mouches résistantes au DDT ont un développement un peu plus lent. En général, donc, les colonies résistantes ne devraient pas beaucoup souffrir lorsqu’elles se trouvent en concurrence avec des insectes normaux en l’absence d’insecticides. Certaines
- expériences viennent à l’appui de cette thèse, car dans les pays où, à cause de la résistance, on a abandonné le DDT pour combattre les mouches, de nouveaux essais ont été tentés environ quatre ans plus tard. La résistance s’est manifestée en force quelques semaines après, démontrant qu’une proportion substantielle d’individus résistants persistaient parmi la population.
- *
- * *
- Habitués aux progrès remarquables et constants de la physique théorique et appliquée, qui semble marcher sans que rien ne l’arrête, beaucoup de personnes s’étonnent et s’irritent même que, malgré quelques succès retentissants, la biologie et la médecine ne semblent pas, dans tous les domaines, aller d’un pas aussi égal. C’est que les forces de la vie ne se soumettent pas aussi facilement à l’homme que la matière inanimée. Le mode d’action des insecticides et les mécanismes de l’apparition de la résistance des insectes sont encore bien mal connus dans le détail. L’aspect le plus sérieux du problème de la résistance est que ses dimensions ne cessent de croître. Il n’y a guère de mois qui ne nous amène de nouveaux cas, en particulier dans le domaine de l’entomologie médicale. Notre seule ressource est de nous rabattre sur un autre insecticide, et le choix n’est pas grand. Le jour où, par suite d’une extension universelle de la double résistance, les insecticides de rechange viendraient tous à échouer, il serait nécessaire de revenir aux mesures moins efficaces mais plus constantes utilisées naguère.
- Cependant, cette résistance des insectes aux moyens chimiques de destruction n’a pas seulement un aspect négatif. L’em-, ploi massif des insecticides a d’autres inconvénients qui ont déjà été évoqués dans cette revue; il entraîne notamment la disparition de quantité d’espèces utiles (fîg. i3). D’autres moyens, qui ont déjà été employés avec succès (lutte biologique, modification des façons culturales, etc.), trouveront sans doute de nouveaux développements, et on peut espérer que des techniques nouvelles, résultant d’études scientifiques approfondies, permettront de tenir en respect les espèces nuisibles sans porter tort aux équilibres naturels dont dépend en définitive toute la vie de la planète.
- R. Dajoz,
- Agrégé de l’Université.
- Les seuls cratères de météorite connus en Europe
- On a déci’it de par le monde nombre de cratères de tailles diverses occasionnés par la chute de météorites plus ou moins volumineuses (La Nature, août 1952, p. 239-242), des immenses cirques de Chubb (Labrador), de Meteor Crater (Arizona) et de Wolff Creek (Australie) qui remontent à des époques très lointaines, jusqu’à la fameuse météorite de Sibérie centrale tombée en 1908, dont les savants soviétiques se sont beaucoup occupés naguère. Mais tous ces vestiges qu’évoquait La Nature, des plus grandioses aux plus modestes, étaient situés hors d’Europe.
- La revue soviétique Priroda rappelait récemment que les seuls cratères d’origine météoritique que l’on connût en Europe, les cratères Kaalijarv, se trouvent dans l’île Salema, en mer Baltique, qui fait partie de la République d’Estonie. Ces cratères sont au nombre de sept. Le plus grand, parfaitement circulaire, a un diamètre de 110 m. Sa profondeur est de 9 à 10 m, et il est entièrement rempli d’eau. Mais, comme il est entouré d’un remblai haut de 6 à 7 m, la profondeur totale de T« étang » ainsi formé est de 16 m environ. Les six autres
- cratères, tous situés au sud-est du cratère principal, sont plus petits, leurs diamètres étant compris entre 12 et. 53 m. Ils sont remplis de pierres et de débris de roches.
- L’origine météoritique de ces cratères ne fut établie qu’en 1927. Dans les petits cratères, on trouva de la poussière météorique ainsi que des fragments pesant de 0,1 à 24 g et contenant notamment du nickel. L’analyse chimique de ces fragments révéla que la teneur en nickel de certains d’entre eux atteignait jusqu’à 8,3 pour 100. On y trouva également des débris de coquilles de mollusques terrestres, et même des coquilles entières. Cette dernière découverte permit de conclure que les cratères de Kaalijarv se formèrent peu après le recul de la mer, qui recouvrait auparavant cette région de l’île. La chute de la météorite se produisit donc il y a 4 000 à 5 000 ans. Le plus important des sept cratères aurait été creusé par un gros fragment animé d’une grande vitesse et dont la chute aurait provoqué une explosion. Les six autres cratères ne seraient dus qu’à l’impact de fragments moins gros dont la vitesse, à la chute, était sensiblement moins grande.
- p.503 - vue 506/558
-
-
-
- 504
- Les prix Nobel de Sciences I960
- Les travaux des deux lauréats du prix Nobel de Physiologie et de Médecine intéressent profondément les problèmes de l’immunologie; ceux de Frank Burnet portent sur les virus, ceux de Brian Medewar ayant trait aux questions d’intolérance et de tolérance immunologiques.
- Sir Frank MacFarlane Burnet, né en 1899, fit ses études à Geelong College et à l’Université de Melbourne. Après avoir été interne de pathologie à l’hôpital de cette ville, il alla au Lister Instit.ute de Londres en 1926. Il revint à Melbourne comme directeur adjoint du Walter and Elisa Ilall Institute for Medical Research, dont il devint le directeur en 1944. En ig36, il appliquait aux virus la méthode de culture dans l’œuf de poule incubé (procédé qui fut employé en France initialement par Borrel, en 1912), et il réussissait à isoler et à cultiver le virus de la grippe humaine, ce qui rendait possible la préparation d’un vaccin. Ses recherches ont conduit à cette constatation paradoxale : bien que constituant des unités fonctionnelles bien définies, ayant des propriétés antigéniques, enzymatiques et génétiques caractéristiques, les particules de virus grippal ne peuvent se différencier chimiquement des fragments du cytoplasme cellulaire de l’hôte. M. Burnet pense que c’est dans la structure moléculaire de certains constituants que gît toute la différence et que, si elle se vérifiait, cette conclusion pourrait être d’une importance capitale pour l’élucidation des problèmes biologiques fondamentaux. Ainsi, on va fort loin par la seule étude du virus de la grippe. Son rôle en tant qu’agent de maladie humaine suffirait, évidemment, à justifier toutes recherches le concernant. Mais, au surplus, comme l’écrit le professeur Burnet, aux yeux du biologiste, un virus animal « constitue une sonde particulièrement précieuse pour explorer la structure et le fonctionnement de la cellule des vertébrés et, à mesure que se développent les idées sur les strùctures spécifiques, il revêt une importance spéciale. Il n’est donc pas totalement fantaisiste de dire que nous avons dans le virus de la grippe un moyen unique de déchiffrer quelques-uns des secrets qui se trouvent à la base de la vie cellulaire ».
- Né en 1915, le professeur Peter Brian Medewar fit ses études à Oxford, au Magdalen College. Il était élu, à 35 ans, membre de la Royal Society. Titulaire de la chaire de zoologie et d’anatomie comparée à l’Université de Londres, il a été placé, cette année, à la tête de l’Institut de Recherches médicales britannique. Son œuvre s’inscrit dans cet ordre d’investigations qui, au cours des dernières années, a donné à reconsidérer entièrement la grande question des anticorps et de l’immunité. Les anticorps représentent un des aspects d’un mécanisme général par lequel des substances se montrent capables de s’unir, d’une manière plus ou moins étroitement spécifique, à d’autres substances définies. Les troubles allergiques sont ainsi des accidents provoqués par les anticorps, réputés a priori bénéfiques, et qui, au vrai, ont très souvent des effets nocifs. Quant aux greffes, la raison pour laquelle elles échouent, c’est que tout tisssu provenant d’un autre individu est immédiatement « reconnu » comme étranger par l’organisme du receveur, qui s’oppose à la prise du greffon par l’intermédiaire des anticorps. Seuls, des individus ayant des liens génétiques très proches (jumeaux vrais) ne manifestent pas cette réaction d’intolérance. Or les travaux du professeur Medewar ont conduit à établir que l’intolérance immunologique n’existait pas dans l’embryon à l’origine et qu’elle s’y développait progressivement. Il a pu, d’autre part, prouver qu’en introduisant un élément étranger dans l’embryon au cours de sa formation, celui-ci s’habituait à cet élément, de sorte que si une greffe était pratiquée plus tard avec un tissu présentant les mêmes caractéristiques, elle était acceptée comme s’il s’agissait d’un tissu prélevé sur le corps même du receveur. C’est ainsi que des fragments de peau de souris blanche ont été acceptés par des souris grises. Ce phé-
- nomène de tolérance acquise, mis ainsi en lumière, ouvre de vastes horizons, car il pourrait permettre de trouver un jour réponse à certains problèmes que posent non seulement les greffes, mais aussi le traitement des allergies et de la leucémie.
- M. Medewar a montré en outre qu’on pouvait artificiellement reproduire cet état de tolérance aux greffes en soumettant l’organisme du receveur à des doses élevées de radiations, qui détruisent les anticorps. C’est grâce à ce procédé qu’à Paris les professeurs Kuss et Hamburger ont pu réussir des greffes de rein, entre deux frères non jumeaux, et même entre deux sujets non apparentés. Précédemment, si les atomistes yougoslaves traités à Paris ont pu être sauvés, c’est que l’irradiation qu’ils avaient accidentellement subie a permis à la greffe de moelle osseuse qui fut pratiquée sur eux de « tenir » assez longtemps pour que leur organisme pût fabriquer un grand nombre de globules rouges. Pour temporaire que, dans ce cas, ait été la greffe, elle dura suffisamment pour assurer le salut.
- *
- * #
- Les prix Nobel de Physique et de Chimie couronnent respectivement les professeurs Glaser et Libbv, de l’Université de Californie, le premier pour son invention de la chambre à bulles, le second pour la mise au point de la célèbre méthode de datation d’échantillons fossiles au moyen du carbone i4-
- L’œuvre du professeur Donald A. Glaser, né à Cleveland en 1926, prolonge celle de l’illustre météorologiste écossais C. T. R. Wilson, qui, en 1927, reçut le prix Nobel comme inventeur de la « chambre à détente ». Cet admirable instrument n’autorise, toutefois, que l’étude de particules relativement lentes. Pour l’observation de particules très rapides, la méthode de la chambre de Wilson nécessiterait un appareillage de dimensions prohibitives. Le professeur Glaser a imaginé de remplacer la vapeur d’eau de la chambre par un liquide surchauffé. Lorsque des particules véloces traversent le liquide, elles rendent la situation instable sur leur trajet et s’entourent de minuscules bulles de vapeur, dont les chapelets peuvent être photographiés. La chambre à bulles, qui permet d’observer un nombre considérable d’ « événements », est aujourd’hui utilisée pour l’étude des particules de très haute énergie, présentes dans le rayonnement cosmique ou bien artificiellement produites dans les grands accélérateurs. Rappelons que la chambre à bulles a déjà été décrite dans La Nature (juin 1967, p. 212).
- Le professeur Willard F. Libby, né en 1908 au Colorado, a précisé par quel mécanisme le carbone radioactif (carbone i4) se forme dans l’atmosphère. Cet isotope résulte du bombardement de l’azote de l’air par les neutrons dus aux rayons cosmiques. Le gaz carbonique étant la source principale du carbone végétal, toutes les plantes contiennent donc du carbone i4 et, partant, tout le règne animal. Le radiocarbone perd la moitié de sa masse en 5 568 ans environ, mais les pertes qu’il subit sont compensées par l’apparition de nouveaux atomes. Il en résulte un état d’équilibre tel que l’on peut considérer comme constante la quantité de radiocarbone contenue dans l’air. Tous les êtres vivants doivent donc en contenir une même quantité spécifique. Mais à la mort d’un individu, plante, animal, homme, le cycle du carbone s’interrompt. La quantité de carbone i4 tend, par conséquent, à s’épuiser peu à peu, puisqu’il n’y a plus d’apport extérieur, et la radioactivité d’une relique organique sera réduite de moitié tous les 5 568 ans. En partant de ces considérations, le professeur Libby a ainsi mis à la disposition des archéologues, des préhistoriens, des paléontologistes, une précieuse « horloge radioactive ».
- Fernand Lot.
- p.504 - vue 507/558
-
-
-
- Le satellite stratégique l’emporte sur Écho, même à
- Courrier des fins civiles
- Dans l’espace, les années se suivent, comme ailleurs, mais elles ne se ressemblent pas. Il y a un an, il n’était question que de la Lune : les Soviétiques réussissaient pour la première fois à lancer un engin qui percuta notre satellite, puis, peu de temps après, ils parvenaient à prendre une série de photographies de sa face opposée : expériences spectaculaires, réalisées de main de maître et qui firent couler des flots d’encre... Rien de semblable cet automne : ce sont les Américains, cette fois, qui mènent le jeu, mais leur propos est bien différent. Loin de viser la Lune, ils s’attachent à tirer un profit maximal de l’espace et de la possibilité que l’on a dorénavant d’y envoyer des appareils d’observation et de relais radio, capables d’améliorer les systèmes de télécommunications en usage. Ces essais, bien sûr, ne sont pas de nature à captiver l’attention des masses, plus sensibles aux exploits spectaculaires qu’aux études laborieuses. Mais demain de quoi tirerons-nous le plus grand profit ? Est-ce de la connaissance que nous avons maintenant, grâce aux Russes, de la face ex-inconnue de la Lune ? Ou de la mise au point de nouveaux dispositifs de liaisons radio-électriques ? Se prononcer est bien difficile et les opinions varieront selon que l’on sera porté à prêter une plus grande attention à la recherche fondamentale ou aux applications pratiques...
- Le désir des Américains de mettre à profit les moyens les plus modernes pour améliorer les télécommunications vient d’être illustré par deux expériences : le lancement au début d’octobre du satellite Courrier, puis le lancement, au début de novembre, du satellite Explorer VIII.
- Engins passifs et engins actifs
- Le satellite Courrier, qui pèse 220 kg, est le successeur direct du satellite Écho, mais en même temps il s’oppose radicalement à lui. Le satellite Echo, sphère de quelque 3o m de diamètre, gonflé alors qu’il avait déjà atteint la vitesse de satelli-tisation, est un engin « passif » : son seul rôle est de réfléchir les signaux radio émis par une station vers une seconde station, réceptrice. Ce sont les imposantes dimensions du satellite qui permettent à cette réflexion de s’opérer dans des conditions satisfaisantes, mais le système a un double inconvénient :
- —• L’intensité des signaux qui, naturellement, ne sont en aucune manière amplifiés par leur réflexion sur le satellite ballon, apparaît à la station de réception comme très faible et pour que la liaison puisse être établie il faut munir cette station d’amplificateurs puissants, par exemple des amplificateurs Maser.
- — La station de réception doit être à même de « suivre » le satellite au plus près pour recevoir les signaux qui sont renvoyés dans sa direction. Cela n’est possible que par l’adjonction au poste récepteur d’un dispositif de tracking.
- Le satellite Courrier, lui, est un satellite « actif » : il est muni d’un récepteur, d’une « mémoire », d’un amplificateur et d’un émetteur. Cet équipement indique bien quelles sont ses fonctions : il reçoit un message, l’enregistre et le restitue, après l’avoir amplifié, sur « ordre » lancé par la station de réception. Il n’y a là rien d’original : nombre de satellites ont déjà été munis d’un appareillage semblable, notamment le satellite Score, lancé par les Américains en décembre 1958 et qui s’est illustré en retransmettant les vœux de Noël du président Eisenhower... De même, tous les engins soviétiques sont conçus pour retransmettre au sol les indications qu’ils
- recueillent, et pour les transmettre seulement lorsqu’ils se trouvent au voisinage du territoire soviétique. Mais le Courrier se distingue malgré tout de ses prédécesseurs par l’étendue et la souplesse de sa « mémoire » : il est à même, durant un laps de temps de cinq minutes, c’est-à-dire durant le temps où il peut recevoir les signaux envoyés d’une station au sol, d’enregistrer quelque 370 000 mots et, naturellement, de restituer l’ensemble du message en un temps comparable. Avoir réussi à loger dans un engin de taille réduite et de poids limité un appareillage capable d’une telle mémoire et d’un tel débit constitue évidemment une performance. C’est d’elle que le Courrier tire toutes ses qualités.
- Ce type d’engin présente sur les satellites du type Echo l’avantage de lancer en direction de la station réceptrice des signaux sensiblement plus forts, puisque « réémis ». D’autre part il n’est pas aussi nécessaire que dans le cas précédent de u suivre » le satellite dans sa course à travers l’espace ; on peut se contenter, pour l’entendre, de tendre l’oreille dans sa direction. Evidemment un Courrier est sensiblement plus onéreux qu’un Echo : ce dernier ne comporte qu’une enveloppe métallisée, tandis que l’autre emporte à son bord un laboratoire d’électronique qui est un chef-d’œuvre de miniaturisation.
- Pour un réseau d’engins commerciaux
- Y avait-il donc rivalité entre les engins du type Echo et les engins du type Courrier ? Cherchait-on délibérément à comparer les mérites des satellites « passifs » et des satellites « actifs » ? Oui et non.
- Non, tout d’abord. Le satellite Écho était essentiellement destiné à des usages civils. Il y avait longtemps que l’idée s’était imposée d’une prochaine saturation des moyens de liaison à longue distance; des calculs avaient montré que la mise en place d’un dispositif de satellites Écho reviendrait moins cher que l’établissement de nouvelles liaisons par câbles intercontinentaux, même s’il était nécessaire de procéder fréquemment au remplacement des satellites. Les engins du type Écho, en effet, sont fragiles : la moindre météorite est à même de percer la mince enveloppe d’aluminium dont ils sont faits et l’engin, qui a été gonflé partiellement à l’aide d’un gaz, se dégonfle alors en moins de temps qu’il ne faut pour le dire... D’autre part le satellite Echo est soumis à de fortes variations de température : quelle que soit son orbite, un moment vient où il pénètre dans le cône d’ombre de la Terre et sa température y est alors très sensiblement inférieure à celle qu’il atteint quand il est éclairé par le Soleil : aussi prévoyait-on qu’il ne garderait pas longtemps sa forme parfaitement sphérique. L’expérience l’a confirmé : le satellite a en effet pris des a rides », mais il ne s’est pas encore déformé au point de ne plus réfléchir correctement les signaux.
- On a dû également reconnaître qu’Ëcho, en raison de sa légèreté, est sensible à une « poussée de radiations » qu’exercent sur lui les rayons solaires. Bien que cette poussée ne dépasse pas la valeur totale d’un demi-gramme, le satellite aurait déjà perdu, de ce fait, quelques dizaines de kilomètres d’altitude. Sa durée de vie escomptée (20 ans) s’en trouvera réduite à un peu plus d’un an.
- De puissantes firmes américaines se sont intéressées de très près à l’expérience : elles y voyaient la promesse de réalisations commerciales, par exemple l’établissement d’un réseau mondial de télécommunications, et priées d’apporter leur con-
- p.505 - vue 508/558
-
-
-
- 506
- cours, elles avaient pris à leur charge tous les frais d’études correspondants.
- Le satellite Courrier, tout au contraire, est destiné à un usage militaire. Le Pentagone, en effet, redoute qu’un adversaire éventuel ne parvienne, par un brouillage approprié, à interdire toutes les télécommunications dans le bref temps durant lequel se déroulerait une guerre nucléaire. Il craint aussi que les liaisons par câbles puissent faire l’objet de sabotages. Tous incidents qui auraient, pour un pays dont les forces de représailles sont éparpillées sur l’ensemble de la planète, des conséquences immenses : impossibilité de communiquer dans les plus brefs délais avec les bases où sont stationnés les bombardiers du Strategie Air Command et celles où sont entreposées les fusées porteuses de cc têtes » thermonucléaires; incapacité de lancer l’ordre d’envol ou de lancement avant que ces bases ou ces rampes ne soient détruites; liberté pour l’adversaire éventuel de passer à l’offensive sans craindre d’avoir, en contrepartie, à supporter les effets d’une riposte qui l’anéantirait; bref, destruction de cet « équilibre par la terreur » sur lequel se fonde une étrange paix.
- A mettre en service un réseau de satellites qui enregistreraient des messages en passant juste au-dessus de stations émettrices et les restitueraient en « survolant » les stations réceptrices intéressées (il suffirait de calculer l’orbite des satellites de manière qu’ils « desservent » les centres voulus), on diminue naturellement le risque dans de fortes proportions, puisque l’adversaire devrait alors brouiller non des liaisons à longue distance, mais des liaisons « courtes ».
- Cependant le secteur civil ne peut totalement ignorer ce que prépare le secteur militaire et, s’il est entendu que le premier satellite Courrier est uniquement un engin expérimental, s’il est acquis que le réseau de satellites de ce type qui sera mis en place dans les jours à venir répondra avant tout à des préoccupations stratégiques, rien n’interdit de tirer profit de l’expérience à d’autres fins. Aussi ceux qui s’intéressent à un usage commercial des satellites n’ont-ils pu s’empêcher d’établir une comparaison entre l’engin sur lequel ils fondaient leurs espoirs et celui dont les militaires entendaient se servir.
- C’est le satellite du type Courrier qui est sorti vainqueur de cette confrontation et maintenant il est acquis que les liaisons radio civiles par satellites seront établies non par des engins « passifs », mais par des engins « actifs ». La raison essentielle de ce choix semble être la faiblesse des signaux réfléchis par le satellite Écho : certes, on a pu les capter mais l’opération s’est montrée délicate. On aurait sans doute persévéré sur cette voie si les Courriers n’étaient venus apporter la preuve de leur plus grande efficacité. Aussi faut-il dès maintenant considérer que les engins du type Écho ne seront plus lancés qu’à des fins purement expérimentales. Il y a quelques mois, on pouvait imaginer
- que dans l’avenir la Terre compterait une demi-douzaine ou une dizaine de satellites qui, visibles à l’œil nu comme l’était Écho, viendraient donner une nouvelle vie au ciel nocturne. C’est un espoir qui sera déçu.
- La preuve en est qu’une grande firme, l’American Téléphoné and Telegraph a demandé à l’Administration pour l’Aéronautique et l’Espace l’autorisation de lancer un satellite « privé » qui servirait à la mise au point d’un réseau commercial : cet engin, a-t-il été précisé, sera « actif ». Or, cette firme est de celles qui ont bénévolement participé aux études préparatoires du satellite Echo.
- L'Explorer VIII, satellite scientifique
- Mais, quels que soient les avantages qu’ils offrent, les satellites de télécommunications ne sauraient prétendre accaparer l’attention des radio-électriciens. Ceux-ci se préoccupent toujours d’améliorer les conditions dans lesquelles les signaux peuvent être envoyés à longue distance, ce qui les amène à se pencher sur l’analyse des propriétés et du comportement des couches ionosphériques. C’est pour aider à la solution de ces problèmes qu’a été lancé le satellite Explorer VIII. Il s’agit là d’un engin sensiblement plus léger que le Courrier (il ne pèse que 4o kg), en tous points analogue à ces autres satellites Explorer qui permirent déjà aux hommes de science américains d’acquérir des connaissances poussées sur les anneaux de radiations qui entourent notre planète (voir La Nature, avril i960, p. i46-i54). Ce n’est donc pas comme le Courrier un satellite d'exploitation, mais un satellite d'exploration, destiné à recueillir des informations sur la composition des couches ionosphériques. Ce n’est évidemment pas la première fois que l’on se soucie de réunir de telles données, mais les observations faites jusqu’à ce jour, tant par les satellites américains que par les engins soviétiques, étaient restées partielles. L’Explorer VIII est muni de tout l’équipement voulu pour procéder à une étude plus poussée et il a été lancé de manière à parcourir autour du globe une orbite assez elliptique qui l’amènera à traverser successivement des zones proches de la Terre et des régions de l’espace déjà éloignées (1 000 km). Des mois s’écouleront avant que les renseignements recueillis soient dépouillés et analysés. Il ne faut pas s’attendre à de retentissantes découvertes, mais peut-être les enseignements qui pourront en être retirés se montreront-ils utiles à la connaissance des phénomènes qui président à la propagation des ondes radioélectriques autour de la Terre. Alors l’automne 1960, tout comme l’automne ig5g, fera date, mais à sa manière, dans l’histoire du progrès scientifique et de la conquête de l’espace.
- Nicolas Viciiney.
- Le (( sable
- La revue soviétique Priroda décrivait récemment un cas intéressant de « sable chantant », phénomène que l’on constate assez fréquemment dans les déserts et au bord des rivières et des mers. Un îlot artificiel de sable s’était formé sur le Dniepr, à l’occasion de certains travaux effectués récemment dans la région de Krémentchoug. Cet îlot s’élevait jusqu’au niveau de i,5 m au-dessus de l’eau. Débarquant sur l’îlot, les hommes chargés d’enlever le sable constatèrent que ce sable « chantait ». Leurs pas, en effet, provoquaient des sons fort divers, variant suivant le niveau de l’îlot. Au niveau de o,5 m, le son rappelait le crissement de la neige en pleine période de gel. A des niveaux plus élevés, le son devenait plus aigu. Lorsqu’on frappait le sable avec une rame, on entendait comme un roulement,
- chantant »
- avec extinction progressive de l’écho. L’intensité de tous ces sons variait avec l’heure. Ainsi, l’intensité maximale fut constatée entre 12 et 16 h, à une température voisine de + 24° C. Vers le coucher du soleil, les sons devenaient plus graves. Aux niveaux moins élevés de l’îlot, les sons cessaient plus tôt.
- Ce « chant » du sable dépendait probablement du degré d’humidité du sable. L’expérience a montré, en effet, que le sable cessait de « chanter » dès qu’on l’arrosait. Le « chant » ne recommençait que lorsque le sable, à la surface (et jusqu’à une profondeur de 25 à 3o cm), redevenait complètement sec. Il est intéressant de noter que le « sable chantant » mis dans une caisse continuait à « chanter » pendant trois heures.
- C. M.
- p.506 - vue 509/558
-
-
-
- Installations d’essais pour le vol spatial
- Après les derniers succès de lancements d’engins spatiaux, les études d’astronefs de tonnage important, capables d’atteindre les planètes les plus proches, se poursuivent aux États-Unis et en Russie. Mais la mise au point de tels engins demande des essais nombreux dans les conditions très particulières du milieu spatial. Dans ce but l’U. S. Air Force vient de mettre en chantier, dans son Centre de Recherches de Tullahoma, une installation d’essais qui n’a vraisemblablement pas d’égale au monde actuellement par la variété des conditions qu’il sera possible d’y reproduire. Cette installation ne sera vraisemblablement pas disponible avant trois ans, et pour permettre des essais pendant cette période, deux chambres pilotes de 3 x io m ont été réalisées.
- La grande chambre d’essais projetée aura la forme d’un cylindre de 61 m de diamètre et de 46 m de hauteur. La pression à l’intérieur pourra varier de io-3 à io-11 mm Hg, soit atteindre un niveau de vide assez poussé. Ceci sera obtenu par une combinaison de pompes à diffusion pour les gaz non condensables, et d’un système de pompage qui fonctionnera à basse température (20° Kelvin) pour les gaz condensables.
- Un rayonnement solaire simulé de 1 4oo W/m2 est produit par une rampe mobile de lampes à incandescence ou de tubes à décharge. De même, le rayonnement infrarouge sera obtenu par une rampe de radiateurs, et l’albédo par une batterie de lampes fluorescentes.
- Enfin, la température pourra être réglée entre 4° et 2 ooo° K.
- Des systèmes de sas compléteront l’installation. Le plus grand, de 45 m de long sur i5 m de diamètre, est utilisé pour le montage de l’engin à essayer; il est relié à des pompes pour y faire le vide avant de transférer l’engin dans la chambre d’essai proprement dite.
- Des bobines magnétiques entoureront l’engin pour permettre la simulation des champs magnétiques qui pourraient être rencontrés au cours des missions spatiales.
- Enfin, le centre sera équipé d’installations destinées à enregistrer les réactions des individus ou des animaux soumis aux conditions du vol spatial; les mesures comprendront : respiration, pression du sang, température du corps, fonctionnement du cœur et du cerveau. C’est dans une installation analogue qu’a été essayée la combinaison spéciale utilisée pour le X. i5, avion de recherche expérimental à grande vitesse et à haute altitude (fig. 1).
- J. S.
- Fig. 1. — Chambre d'essais pour températures élevées.
- On voit ici la combinaison spéciale destinée à revêtir le pilote de l’avion expérimental X. 15, qui doit voler à 160 km d’altitude. Elle l’enveloppe complètement et contient son système de ravitaillement en oxygène. En ramenant son appareil dans l’atmosphère, l’aviateur aura à subir momentanément de hautes températures. Les lampes à fort rayonnement peuvent produire dans la chambre une température supérieure à 500° C.
- (Photo U.S.I.S.).
- Fermeture magnétique
- Depuis quelques années déjà, de petites pastilles aimantées remplacent fréquemment, sur les meubles de cuisine, les placards, etc., les classiques loquets utilisés autrefois. On rencontrait jusqu’alors, soit des aimants en aciers spéciaux qui 6ont robustes mais n’ont qu’un pouvoir magnétique relativement faible, soit des
- Contre -porte
- vnrmrnm
- !
- Porte
- Bande _ magne'ticjue
- [LUJJznmJ
- Fig. 1. — Utilisation d’une bande magnétique souple pour la fermeture d'un réfrigérateur.
- aimants de type céramique qui développent des forces d’attraction élevées mais sont fragiles au choc lors d’une fermeture brutale. Ces deux systèmes ont aussi l’inconvénient de n’être guère silencieux.
- Une solution originale, mise au point par la Société Goodrich aux États-Unis, vient de faire son apparition sur le marché français. Elle consiste en une bande de chlorure de polyvinyle plastifié contenant une charge susceptible d’être fortement aimantée. Par extrusion, on obtient des bandes souples de profils divers qui ont l’avantage de pouvoir s’appliquer sur toute surface, même si celle-ci n’est pas rigoureusement plane. Elles sont, de plus, robustes et permettent une fermeture silencieuse.
- Les applications de ces bandes magnétiques devraient être nombreuses. Celle qui a connu le plus grand développement jusqu’à présent est la fermeture des portes de réfrigérateur. La bande est introduite dans un profilé en chlorure de polyvinyle souple fixé sur la porte de l’appareil. Sur la contre-porte se trouve un plat en acier faisant vis-à-vis au profilé (fig. 1).
- La fabrication en France de ces bandes est à l’étude. Pour l’instant, elles sont importées des États-Unis par Kléber-Colombes et vendues sous le nom de Koroseal.
- R. R,
- p.507 - vue 510/558
-
-
-
- Forêts, histoire et linguistique
- L’utilisation relativement récente des métaux, il y a cinq millénaires, nous a permis de retracer les cheminements de la technique métallurgique en étudiant les différents termes employés dans les langues anciennes et modernes d’Europe pour désigner les minerais au fur et à mesure de leur découverte (x). Il est peut-être plus difficile, mais encore plus profitable, de tenter la même expérience à propos du bois, associé à la pierre dès l’aube de la préhistoire, pour fabriquer le premier outil, l’arme originelle des âges lointains où l’homme sortait lentement de la bestialité.
- L’aire primitive des peuples auxquels nous sommes redevables des langues que nous parlons aujourd’hui en Europe se situait sans doute du côté de l’Ukraine, à la limite de la forêt et de la steppe, mais il est impossible de saAroir si ces tribus, au milieu du Néolithique, étaient véritablement sylvicoles ou si la forêt constituait seulement pour elles un domaine annexe et peu exploré. Aucun mot n’a en effet été conservé, commun à toutes les langues indo-européennes, pour désigner les grands ensembles boisés, et les linguistes ont en vain cherché à établir des liens de parenté entre le grec hylè, le latin silva, l’allemand wald ou le russe liés-, ils n’ont même pas réussi à expliquer le sens initial de ces vocables, trop déformés par l’usure des générations. Nous pouvons seulement percevoir l’étroit parallélisme entre le vocabulaire appliqué à la forêt et celui qui désigne le monde hostile des bêtes féroces : wild, sauvage, en face de wald\ silva, forêt, dont le dérivé silvaticus est devenu selvaggio en italien, sauvage en français, avec les deux sens, difficiles à distinguer, de féroce et de forestier.
- Silva, passé en italien, en espagnol et en portugais sous la forme selva, a finalement disparu de notre langue par suite de l’homonymie entre sa forme médiévale, sauve, et celle de l’adjectif issu du latin salvus, sauf, au féminin sauve. Dans le midi, seuve ou séoube ont subsisté plus longtemps. Les noms de lieu, déjà cristallisés au xne siècle, ont par contre conservé partout le souvenir de cet antique vocable, même s’ils désignent aujourd’hui des localités où toute trace « sauvage » a depuis longtemps disparu : Bellesauve, Grandselve, Lasseube, La Sauve Majeure s’expliquent d’eux-mêmes, Pleine Selve et Pleines Oeuvres, jadis Pleine Seuvre, désignent une forêt « plaine-», plate, Sauvelade, une forêt large, étendue, Sauveplantade, une forêt plantée, un reboisement. Il convient de considérer le nom de lieu gallo-romain Silvaniacus, devenu, selon les régions, Sau-vigny, Souvigny, Servigny, Sauvagnat ou Saubagnac, comme une dérivation de silva, plutôt que du nom propre romain Silvanus; il est possible que dans certains cas ces villages perpétuent d’anciens domaines ayant appartenu à des grands latinfundistes voués dans leur jeune âge au dieu des forêts, mais la plupart du temps il s’agit de silvae mérovingiennes, de sauves, défrichées dans les derniers siècles du premier millénaire de notre ère.
- L’abandon de silva favorisa d’abord l’emploi de deux autres termes bien familiers au langage du paysan français, feuille et rain, dont la toponymie a gardé les traces avec les nombreux Beaurain et Hautefeuille de nos' cartes cadastrales. Bain, du latin ramas, dont nous avons seulement conservé le diminutif, rameau, désignait la branche, puis toute forêt avec prédominance du taillis sur la futaie; feuille, du latin folia, désignait non pas la feuille isolée, en latin folium, en ancien français feuil, au masculin, mais le feuillage, la forêt feuillue. Une forme voisine de feuille, feuillie ou folie, se spécialisa dans le sens de bosquet pour les réceptions en plein air, les demeures agrestes près des grandes villes et disparut par suite d’une homonymie fâcheuse; il en est resté à Paris des noms de rues comme celles de la Folie-Regnault et de la Folie-Méri-
- 1. Métallurgie, linguistique et histoire, par Michel Roblin, La Nature, novembre 1959, pp. 472-477.
- Fig. 1. — Bois sacré figuré dans l’Arc de Trajan.
- (D'après Anthony Rien, 1861).
- court, tandis qu'ailleurs Haute-folie est un synonyme assez fréquent de Hautefeuille, de forêt située sur la hauteur, de quartier élevé d’un ensemble boisé.
- Pour les serfs du Moyen Age, la forêt n’était pas précisément la « sauve » qui leur fournissait le bois de charpente, la futaie, pas seulement le taillis qui approvisionnait le bûcher, mais simplement ce qui se trouvait loin du village et des champs cultivés, en dehors, fors, du civilisé et de l’humain. La forêt c’est l’inconnu, l’extérieur, l’étranger, comme l’italien forestière, dérivé de foresto, au sens de sauvage, de désert; elle peut être, selon les cas, lande, taillis, futaie ou marécage et cette association de la forêt avec des idées qui évoquent l’ampleur de la nature vierge permet sans doute d’expliquer la parenté entre les deux termes anglais wood et wide, dans des régions naturellement sylvestres où seul l’habitat humain s’oppose au domaine végétal. Rapidement toutefois nos forêts les plus importantes furent accaparées par la royauté et la haute noblesse et devinrent des réserves de chasse, des garennes, dotées de statuts spéciaux, de privilèges; cette acception secondaire a conduit certains à formuler l’hypothèse d’une dérivation indirecte du latin foris, dehors, par l’intermédiaire de termes juridiques comme forum, for, fuero, exprimant les coutumes concédées aux collectivités locales assemblées sur les places publiques, mais cette évolution sémantique nous a paru trop spéciale et trop restreinte pour s’appliquer au cas présent. Par contre la province du Forez, et sa vieille capitale de Feurs, n’ont aucun rapport avec la sylve gauloise; leurs noms sont issus du forum, place commerciale et marché régional, que les Romains avaient installé sur les bords de la Loire.
- Le buis et le bois
- Chez les Hellènes, la forêt méditerranéenne, appauvrie du fait de l’ancienneté de l’exploitation et de la sécheresse du climat, abondait surtout en buis, puxos, terme préindoeuropéen emprunté aux populations pélasgiques qui précédèrent Achéens, Ioniens et Doriens, à la fin du néolithique. Avec le bois du puxos, qui en ces régions atteint d’ailleurs des proportions inconnues dans nos froids climats, les Grecs confectionnaient divers meubles et ustensiles courants et notamment des coffrets, puxida. Passés' en latin, sous la forme buxus et buxida, parce que les Romains furent en menuiserie également les élèves des Athéniens, les deux termes grecs se retrouvent en français, buis et boîte, en allemand, buchs et biiehse, et en anglais où box désigne à la fois la plante et l’objet.
- Au début du Moyen Age un nouveau terme latin, buscus ou boscus, apparaît dans les textes. Nous le retrouvons en français sous les formes bouis, boues, bois; en provençal, bosc, bost ou bos; en italien, bosco; en castillan, bosque. Les latinistes voient dans buscus une adaptation de l’allemand busch ou de l’anglais bush, exactement un emprunt au langage germanique des guerriers francs, mais les savants nordiques leur renvoient la balle en recherchant une origine latine. Il y a effectivement un radical germanique impliquant une idée de construction et d’élévation, que l’on retrouve dans l’allemand bauen, cons-
- p.508 - vue 511/558
-
-
-
- 509
- Fig. 2. — Plantation d'arbres au XV’ siècle.
- (Figure extraite de l’Album historique de A. Parmentier, t. II ; Armand Colin, Paris, 1897).
- truire, bauer, cultivateur et baum, arbre, mais pour nos voisins d’Outre-Rhin le bois, holz, est simplement ce que l’on va chercher, holen le bois mort que l’on ramasse pour le chauffage, tandis que pour les Anglais, timber, c’est la charpente de la maison, la demeure elle-même, puisqu’il faut rattacher le terme à une idée conservée dans le latin domus et le russe dom. Dans ces conditions, il semble plus rationnel d’admettre que buscus est une simple altération de buxus, dans une acception technique de bois, plutôt, que dans le sens initial de buis. D’ailleurs le langage et les textes distinguent fort mal le buis et le bois, au milieu d’une foule de formes anciennes et dialectales, bouis, boues, bouas, qui s’appliquent aussi bien à l’arbre, à la matière ou à la forêt.
- La fréquence du buis sous une forme naine, évidemment impropre à la menuiserie, explique l’emploi d’autres termes comme « ozanne » qui sont une allusion au rôle liturgique du buis dans la religion catholique, ce qui nous permet de rattacher au sens second du terme tous les noms de lieux et tous les noms de famille issus de buxus et de buscus sans qu’il soit toujours possible de séparer les deux origines et qui indiquent selon les cas des forêts, des bosquets ou de simples buissons. Notre langue écrite, sur la base du parler courant de l’Ile-de-France, s’est enrichie, au cours des siècles, d’une foule de termes empruntés aux lexiques provinciaux, et nous voyons pour cette raison voisiner une série de termes parents, primitivement synonymes et dont le sens actuel est dû au hasard d’une spécialisation, comme bosquet, emprunté au normand ou à l’italien boschetto, bouchon, variante de buisson, jadis boisson, et à l’origine faisceau de branchages pour indiquer un cabaret, bûche, dont le sens premier, simple féminin de buis et de bois, survit dans des termes empruntés au provençal comme débusquer ou embuscade.
- L’onomastique nous fournit des milliers de patronymes, qualifiant au départ des familles forestières, « sauvages », des sylvestres vivant dans les bois, « fors » le village. Qu’il s’agisse du masculin avec Dubois et ses variantes dialectales Dubos,
- Dubost, Dubouis, Duboux, Dubuis, Dubus, Dubosc, Delbos, Delbosc, Dubusc ou Dubuc, du féminin avec Laboisse, Labouesse, Bouysse, Busse, Bûche, Labiche ou Bosche, le bois et non le buis est en question, de même pour les dérivés comme Labois-sière, Labussière, Labusquière, Buissière, Busière et Bizière, auxquels nous joindrons Labouchère pour nous permettre de considérer le nom de famille Boucher, si fréquent, comme une variante de Boissier, Boussier, Bousquier ou Bouquier, plutôt que comme un nom de métier, marchand de viande de bouc. Les deux homonymes ont fréquemment été confondus, mais au Moyen Age, la viande, même de bouc, était rare, il n’y avait pas de boucheries à la campagne et à la ville on les appelait des « maisels ». Aussi Boucherie, en tant que nom de famille, est en général une variante de Boisserie, Boussarie, Bouscarie ou Bocquerie, comme Boucheron correspond à Bûcheron, Boche-ron ou Bosseron.
- Bosquet, Busquet, Buisset, Bouquet, Bouchet, Busset, Bouis-set, Buchet et même Bichet, Bizet, Buzet et Bouzet sont de simples diminutifs, des « petits bois », des « boissons », des buissons, comme les innombrables Bouisson, Buisson, Boizon, Boisson, Bosson, Bousson, Busson, Bisson, Bocon, Bichon, Boucon ou Bouchon, comme Buscail, Buchaille ou Bucaille, Bocage ou Bouchage, comme Boisseau, Boiseau, Bouissel, Buis-sot, Bussot, Buzot, Bizot, Bocquel, Bousquel, Bouchel, Boucot, Boichot ou Bouchot.
- Bouchard, Boucard, Bucard et Bichard peuvent parfois être d’anciens prénoms francs, la plupart du temps ils doivent être rattachés à une autre série, avec Boissard, Boisard, Bossard, Boussard, Bouzard, Buissard, Bizard, Bochard, Bocard, Buchard et Bicard, avec le même sens que les patronymes précédents.
- Les noms propres les plus intéressants, parce que les plus anciens, assez rarement représentés dans les noms de famille, sont ceux qui émaillent depuis plus de quinze siècles nos cadastres et nos archives où ils perpétuent les vieux domaines romains et francs auxquels une nature forestière avait valu les noms de Buxiacus ou Busciacus.
- On avait longtemps pensé que buxus ou buscus, inextricablement mêlés là aussi, représentaient des noms propres, en l’occurrence ceux des premiers propriétaires, mais la rareté sinon l’absence de tels noms de personne chez les Gallo-Romains, opposée à la fréquence des noms de lieux, a conduit à envisager une origine plus modeste et aussi plus récente pour tous ces villages. Selon les régions, radicaux et terminaisons ont évolué différemment : Boissac, Boussac, Bouissac et Bizac, Boissy, Bossy, Bussy, Bissy et Bizy, Boissieux et Bizieux, Bussé, Boiché et Boucé, pour ne mentionner que les noms de lieux les plus courants.
- L’omniprésence de la forêt préhistorique s’est très lentement atténuée au cours de notre histoire et ce n’est pas l’effet du hasard si des milliers de villages, de hameaux et de fermes ont emprunté leur nom au bois qui les bordait et aux dépens duquel les défrichements, les essarts avaient été établis. Plus tard, vers le xiv® siècle, à l’époque de la fixation des noms de famille, l’importance de notre patrimoine forestier déterminera encore des dizaines de milliers de Français à recevoir comme patronymes les noms divers issus du démembrement de la sylve gauloise.
- Si nous faisons maintenant une distinction entre la matière même du bois et la forêt où l’on s’approvisionne, nous constaterons que les peuples d’Europe possèdent un riche échantillonnage que nous avons souvent oublié. A Rome, nernus qualifiait le bois sacré, d’après un antique radical indoeuropéen exprimant l’idée de divinité, conservé par les Gaulois dans des toponymes comme Nemetodurum, devenu Nanterre, le « bourg sacré » gardant le territoire de Lutèce vers l’Ouest, et comme Nemausus, Nîmes, la fontaine divine, la source du dieu Nemausus, le dieu par excellence. Le Niémen, fleuve natior nal des Lituaniens, appartient à cette catégorie, mais est-ce le
- p.509 - vue 512/558
-
-
-
- 510
- fleuve sacré ou le fleuve du nemus, de la forêt sacrée ? On voit par cet exemple les difficultés du choix et la prudence nécessaire des interprétations. Lignum, devenu legno en italien, était à Rome le bois mort que l’on ramasse, comme holz en allemand; materia, devenu madera en espagnol, s’appliquait au bois du tronc d’arbre, de la mater, le latin comparant l’arbre et ses branches à une mère entourée de ses enfants et le « mer-rain » de nos charpentiers n’a pas d’autre origine. Quant à arbor, devenu arbre à Paris, arbol à Madrid, albero à Florence, les Romains semblent l’avoir tiré du lexique de leurs prédécesseurs en Italie et il serait vain d’en chercher la signification.
- Pour les Russes, dub, et les Polonais, dab, le chêne n’est pas l’arbre au bois rouge, mais l’arbre sombre, et l’on ne sait si cette obscurité est celle de son bois ou de son écorce, par opposition à d’autres essences d’aspect plus clair. Les Slaves ont d’ailleurs perdu cet adjectif que l’on retrouve seulement dans le breton du, noir et le gaulois dubis, origine de Doubs, la rivière aux eaux sombres. Quant aux Germains, ayant affecté le premier nom du chêne à l’arbre en général, tree en anglais, et celui de la divinité des orages à divers résineux, ils ont finalement avec oak en anglais et eiche en allemand conservé l’un des surnoms, connu des Romains sous la forme aesculum et des Grecs qui en ont fait aigilops. Faut-il y voir une allusion
- Le chêne et la foudre
- Alors que les Européens de la préhistoire semblent ne pas avoir senti la nécessité d’individualiser dans leur vocabulaire l’ensemble de la forêt, l’arbre et plus spécialement celui dont le bois est utile à la charpente a été très tôt désigné d’un terme exprimant la résistance et la dureté, opposant ainsi l’arbre à l’herbe, aux espèces végétales impropres à la construction de la demeure de l’homme et à la confection de ses outils. On trouve ce terme aux Indes pour désigner le bois, daru\ en Grèce antique, le bois de la lance, doru, l’arbre en général, dendron, et le chêne, drus; en Lituanie, le bois de sapin, derva\ en Russie, le bois, drova, l’arbre, derevo, et au Pays de Galles le chêne, dencen. Chacun sait que les Druides gaulois coupaient le gui sur des chênes, tandis que chez les Hellènes, les Dryades étaient les nymphes de la chênaie. Les adjectifs « dur », d’origine latine, et « dru », probablement gaulois, nous aident à préciser le sens originel d’un vocable qui fut d’abord appliqué à l’ensemble des arbres, puis aux plus vigoureux d’entre eux, aux chênes, lorsque ceux-ci n’avaient pas été individualisés d’une autre façon.
- En effet le caractère divin du chêne lui a souvent valu d’être associé avec les cultes païens dans la plupart des nations d’Europe. Chez les Celtes, nous avons déjà constaté le fait à propos du nom même des prêtres gaulois; chez les Latins, le nom du chêne, quercus, primitivement perçus, est apparenté à celui du grand dieu des Lituaniens, Perkun, et des Slaves, Perun, également à celui des Scandinaves, Fiorgin, et des Indiens, Paria-nias. Perkun et Perun étaient matérialisés par un chêne, Fiorgin par un sapin, et dans tous les cas symbolisaient l’éclair, l’orage qui éclate au sommet des arbres, d'un radical exprimant l’idée de frapper et d’assommer. De ce culte néolithique et qui s’est prolongé fort tard chez les baltes et les Slaves, est sorti à Rome le nom du chêne, en allemand et en Angleterre le nom du pin, fôhre, ou du sapin, jir, tandis que des forêts comme l’Argonne en France ou la forêt hercynienne en Europe Centrale sont empruntées à d’autres dialectes où l’arbre sacré, chêne, pin ou sapin, avait servi à désigner d’immenses territoires où l’on retrouve toujours, Argona, Arcona, Erkuna, Erkyna, le culte de l’orage dévastateur. Quercus n’a survécu qu’en Sardaigne, quercu, et en Italie, d’ailleurs sous une forme dérivée, quercia. Dès l’antiquité il était concurrencé par robur, traduisant non pas la robustesse de l’arbre, sens bien postérieur, mais la couleur rouge de son bois, rubus, et qui est à l’origine du castillan roble, de l’italien rovero et du français « rouvre ». La distinction opérée par les botanistes entre le rouvre et les autres espèces du genre Quercus n’a pas joué dans la diffusion du terme qui était devenu pratiquement synonyme de quercus à la fin de l’antiquité.
- L’onomastique française a souvent fait appel à robur : Rouvre, Rouvier, Rouveau, Rouvel, Rouyer, Rouvière, Royer, Roy ère, Roure, Rouret, Romreyrol, Rouvray et Rouvroy sont d’anciens bois de rouvres qui ont servi, au cours du Moyen Age, à désigner des hameaux, des villages, des fermes, puis les familles qui y étaient fixées.
- Fig. 3. — Le dieu gaulois Esus cueillant le gui sur le Chêne sacré, d’après un bas-relief sur un autel gallo - romain trouvé à Paris.
- (Figure extraite de Gallia, par C. Jullian ; Hachette Paris, 1892).
- à l’utilisation du gland comme nourriture, pour les bestiaux et même pour l’homme, et rattacher tous ces noms à l’un des verbes indoeuropéens exprimant l’idée de manger, en latin edere, en allemand essen, en russe est ? L’étymologie populaire des Latins rattachait en effet aesculum à esculentus, comestible, et à un dérivé de edere, escere, dont le sens était identique.
- Cassanus, dont nous avons fait « chêne », apparaît assez tardivement dans les textes latins. Son origine gauloise paraît assurée, mais il faut peut-être remonter plus avant, s’il s’agit d’un emprunt aux dialectes préindoeuropéens. Les noms propres dérivés de cassanus sont innombrables, et du nord au midi les annuaires abondent en Duquesne, Duquenne, Duchesne, Duchêne, Ducasse ou Delcasse, des milliers de hameaux comme Quesnoy, Chesnay, Chassagne, Cassagne, Cassagnol, Chassi-gnol, Chasseneuil, Chesnier, Chénier, Chênard, Chassard et Cassard s’ajoutent à ceux dont le rouvre a été le parrain.
- Garrigue et son correspondant plus nordique, jarrige, s’appliquent à des terrains calcaires propices à une certaine variété de chênes. Là aussi nous avons affaire à l’un des noms de l’arbre, passé à un sous-genre, en l’occurrence le préindoeuropéen des Pyrénées haritz, conservé en basque sous la forme aris et fréquent dans des noms de famille comme Harispe, sous le chêne, Arismendi, le mont des chênes.
- Hêtres, haies et halliers
- Alors que le chêne était assimilé à la foudre que sa haute taille se devait d’attirer, le hêtre assumait un rôle plus économique que mystique. On retrouve en effet dans les noms de l’arbre en latin, fagus, en anglais beech, en allemand bûche, en russe buk, l’un des thèmes utilisés par les Indoeuropéens pour exprimer l’idée de nourriture. En grec où manger se dit phagein, le nom de phègos ou phagos, selon les dialectes, a été donné effectivement à un arbre, mais c’est une variété de
- p.510 - vue 513/558
-
-
-
- 511
- Ctiénières
- Chénois
- Chesnay
- y£ yXiassignelles Chassignolles-^F18^6^/
- Chasseneuil
- Chassagne
- • Chasseneuil
- Chassaignes
- Cassué/ouls Chgssggnls
- Cassaigne
- Cassagne
- 0 50 100 150 Km
- Fig. 4. — Le chêne en onomastique française.
- Les noms de famille sont en capitales.
- chêne, car le hêtre est très rare à cette latitude; les Hellènes ont donc conservé le vieux terme préhistorique des époques où leur habitat se situait fort loin au Nord des bords de la Mer Egée, mais ils l’ont appliqué à une autre essence, et nous avons là un nouvel exemple de l’instabilité du vocabulaire de notre domaine. Il est fort possible que le fruit du fagus, la faîne, fagina, ait fourni à l’occasion un appoint aux maigres ressources de la chasse, pour remédier à la rareté des céréales lorsque les défrichements étaient peu étendus ; la « fouine » dont le nom n’est qu’une variété de celui de la faîne est la « martre des hêtres », tandis que le « fouet » est le petit hêtre, le faisceau de rameaux qui sert à fustiger, à donner des coups de fût, c’est-à-dire des coups de bâton. On sait que le hêtre a fourni aux Germains la matière utilisée pour fixer l’écriture et que le livre fut d’abord une simple écorce de hêtre, comme en témoigne son nom en anglais, book, en allemand buch. Les Romains utilisaient le liber, plus souple que l’écorce, et pas seulement du hêtre, pour leurs « livres »; quant aux Grecs, ayant emprunté aux Égyptiens le papyrus, le premier « papier », qui est un roseau du Nil, ils en firent des « bibles » en souvenir des marins phéniciens de Byblos, intermédiaires habituels entre Alexandrie et Athènes.
- Fagus est resté en Italie, fago, en Espagne, au féminin, haya, et en Provence, fau. En français, la forme médiévale « fou » a cessé d’être utilisée, pour des raisons d’homonymie, d’abord au profit d’un diminutif, fayard, puis d’un vocable d’origine germanique, hêtre, à une date assez tardive d’ailleurs car les noms propres abondent en Dufayard, Dufayel, Dufau, Lafayette, Lafaye, Lafay, Fay, Fayolle ou Failly qui du nord au midi témoignent de la vitalité des dérivés de fagus aux alentours de la Renaissance.
- Hêtre, du francique haistr, l’arbre des haies, a d’abord désigné en dialecte picard les jeunes troncs, coupés souvent pour fournir les tiges nécessaires aux clôtures, et la hêtraie n’était donc pas l’imposante futaie des fayards, mais le taillis que la rapide croissance du hêtre réserve pratiquement à cet arbre. Dans les langues germaniques, cette notion de tailler, de couper, de frapper, est également celle du noisetier, hasel, qui comme le foin, heu, la lande, heide, ou la haie, hage,
- dérive du verbe hauen, dont l’équivalent latin cudere, battre, nous a donné cosilus, devenu corylus, puis colyrus, le coudrier, le noisetier, tandis que caedere, couper, se retrouve dans concides, destiné en basse latinité à remplacer constamment silva avant le triomphe de forestis ainsi qu’en témoignent divers textes mérovingiens et notamment celui où il est question de la concides Vulcenia, le bois de Vincennes. L’abattis d’arbres, le taillis, semble souvent avoir été la forme préférée de l’exploitation : le halfier, encore un dérivé de hasel, dont une forme locale, halatte, cristallisée en toponymie, est toujours appliquée à un important massif forestier au nord de Paris.
- La coupe, la taille, est pratiquement synonyme de la croissance, du rejet, et nous retrouvons cette notion dans le nom du et charme », assez voisin du hêtre pour être en allemand hagebuche, le hêtre des haies, c’est-à-dire le véritable hêtre, étymologiquement. Les Anglais l’appellent hornbeam, l’arbre en corne, allusion à la dureté de son bois, mais son nom russe grub et polonais grab est à rapprocher justement du vocable utilisé à Londres pour désigner le hallier, le buisson, grove, apparenté à grow, pousser, aussi bien qu’à green, vert ou nouvellement éclos, de même qu’au latin carpinus, devenu charme, carpe et carpino, en France, en Espagne et en Italie. La charmille est donc très proche de la coudrette, et à l’abondante série des Charmoy, Charmoilles, Carnoy, Charpenay ou Carpenet, nous pouvons ajouter, en onomastique, les Ducoudray, Coudreau ou Coudret de nos registres d’état civil.
- Les arbres clairs : bouleaux, ormes, frênes et tilleuls
- La confusion des essences que nous avons déjà constatée à propos du chêne, du hêtre et du charme, atteint ici de telles proportions que l’on peut assurer que les préhistoriques, ayant déjà eu du mal à isoler quelques espèces, ont renoncé à aller plus avant.
- Un adjectif, conservé dans l’anglais bright et exprimant l’idée de clarté, de luminosité, a d’abord été appliqué au bouleau; on le retrouve aussi bien dans le russe bérioza, le polonais brzoza, l’allemand birke et l’anglais birch. Mais s’agit-il de la couleur blanche du bois, de la faible densité de son feuillage qui laisse filtrer les rayons du soleil, de la claire forêt des bouleaux, ou plutôt de la couleur de son écorce, frappant le regard du simple promeneur et qui l’isole facilement des autres essences voisines ? Le doute est d’autant plus permis que les Romains, n’ayant pas de bouleaux dans la Campagne Romaine, mais ayant gardé, sous la forme fraxinus, frêne, le nom du bouleau, l’ont attribué à l’orne, ornus, jadis osnus, dont le nom se retrouve dans l’anglais ash, l’allemand esche, le polonais jesion, le russe yassen et le lituanien vosis. Si le radical sanscrit yassas, clair, brillant, conservé dans l’adjectif russe yasny, est vraisemblable, il ne peut concerner l’écorce du frêne, ni même son bois, tout au plus son feuillage qui, sans avoir la légèreté de celui du bouleau, est cependant plus translucide que les voûtes opaques des chênaies et surtout des hêtraies. Mais la question se complique encore du fait que pour les Russes, berest, et les Polonais, brzost, l’orme est très voisin du bouleau. Les Slaves ont d’ailleurs deux autres noms pour désigner l’orme : le premier,. ilem, s’apparente à l’irlandais lem, à l’allemand uime, à l’anglais elm et au latin uimus; le second, viaz, est une allusion à la souplesse de son bois, et le rapproche du saule, sur un radical qui exprime l’idée de lier et d’assembler ! La confusion s’étend maintenant jusqu’au tilleul, dont le nom en russe et en polonais, lipa, est emprunté à un thème qui désigne la glu et la colle, c’est-à-dire le nectar sécrété par les fleurs dont les abeilles font leur meilleur miel. Or, l’un des noms du tilleul en anglais, lime, est également celui de l’argile, de la glaise, autre matière collante comme le limon, et nous ramène au nom
- p.511 - vue 514/558
-
-
-
- 512
- celtique de l’orme ! Enfin le second nom anglais du tilleul, linden, qui est également usité par les Allemands, est le correspondant du nom russe, klen, et polonais, klon, de l’érable, sur un radical qui exprime l’inclinaison, la pente et dont on saisit mal l’interprétation. En latin, acer et en allemand, ahorn, l’érable est peut-être l’arbre aux feuilles dentelées, cornues, hypothèse rendue plausible si l’on considère le nom du platane, souvent confondu avec l’érable, et qui était pour les Grecs l’arbre aux larges feuilles, platanos. La confusion englobe un autre érable, le sycomore ou figuier de Pharaon, étymologiquement le figuier-mûrier, dont les feuilles sont également digitées.
- Le nom latin du tilleul, tilia, devenu tilius en bas latin, n’offre aucune comparaison possible. Il peut avoir été emprunté aux prédécesseurs des Romains en Italie, mais comme il s’appliquait également au chanvre, spécialement à son écorce, et qu’aujourd’hui encore l’écorce de tilleul sert en Europe Orientale à confectionner des cordes et des toiles grossières, on est en droit de se demander si le rapport entre tilia, tilleul, et tela, toile, est purement fortuit et si le tilleul n’a pas été pour les Indoeuropéens la première plante textile.
- Il est par conséquent possible d’imaginer la moindre place occupée dans l’économie préhistorique par ces cinq essences mal distinguées les unes des autres par les Néolithiques de la forêt européenne, bouleaux, frênes, ormes, tilleuls et érables; la luminosité du sous-bois, la blancheur de l’écorce et de l’aubier, l’utilisation du nectar par les abeilles peuvent successivement avoir joué et la confusion originelle ne peut qu’avoir augmenté par suite des migrations, de l’oubli du nom de certaines essences et de leur attribution à des espèces voisines, tout au moins dans l’esprit pratique de nos ancêtres. Fraæinus, ulmus, tilius et acer, finalement cristallisés dans le lexique latin, avec leur sens peut-être erroné mais adopté par l’ensemble de l’empire romain, il manquait un terme pour désigner le bouleau que les Légions avaient maintenant rencontré dans leur marche vers le nord; le lexique rural de la plaine du Pô, d’origine celtique, fournit alors betullus, sans doute apparenté au birke germanique, et les cinq arbres passeront progressivement dans la langue française, espagnole et italienne, avec des avatars que nous allons pouvoir suivre avec précision.
- Betullus est à l’origine de l’italien bidollo, de l’espagnol abedul, et du vieux français boul dont bouleau n’est qu’un diminutif; une forme voisine de très basse latinité, bettius, en vieux français biez, survit dans le provençal bez et surtout en toponymie avec des noms comme Besse, Besseyre et Bessières, auxquels correspondent ailleurs les Boulay, Bouloy, Bellay et Belloy qui émaillent nos cartes et nos annuaires.
- Ulmus, devenu olmo en italien et en espagnol, avait d’abord donné chez nous une forme oume, fréquemment confondue avec homme et écrite houme, houmme, homme, selon la fantaisie des scribes et la prononciation locale. C’est pourquoi les noms de famille Lhomme, Delhom, Delom ou Delon ne sont que des variétés de Lorme ou Delorme, dernière évolution d'ulmus dans notre pays. Les noms de lieu donnent la préférence à Ormesson, mais il y a une infinité de lieux-dits, de fermes, qui survivent dans des patronymes comme Dormoy, Desormiçres ou Désormeaux, Dormeuil ou Dormeau.
- Fraxinus a évolué de deux façons, le français fresne, l’espagnol fresno et l’italien frassino d’une part, le provençal fraisse et le portugais freixo de l’autre. Les noms propres issus de fraxinus offrent pour cette raison une extrême variété, aux Dufresne s’ajoutent les Dufranne, Defrasse, Dufraisse, Del-fraisse, Dufrèche, aux Fréneau les Fresnel, Fragnaud, Frai-gneau, Freissinaud ou Fraysseix, aux Fresnay les Fresnoy, Frais-sinet, Freycenet ou Freychet, sans oublier Franier*, Fragnier, Freyssinier, Fressard, Freysselinard, pour n’en citer que quelques-uns.
- Le bas latin tilius, en italien tiglio, en espagnol tilo, a donné
- Fig. 5. — Le frêne en onomastique française.
- Les noms de famille sont en capitales.
- ieil en provençal et til en français, dont tilleul est le diminutif. Là aussi la moisson est abondante de Dutii à Deltheil, de Dutil-leux à Dutilleul, avec les Teillet, Thillay, Tilloy, Tillard et Teilhard. Par contre l’érable offre une contribution plus modeste. Le latin acer, prolongé dans l’italien acero et l’espagnol arce, avait été remplacé en Gaule par un dérivé, acerarbor ou acerabulus, dont le français érable et le provençal azérable sont les seuls descendants. La rareté des peuplements d’érable explique le peu d’importance que l’onomastique lui accorde. Herblay, près de Paris, est peut-être un ancien bois d’érables, si l’on en juge d’après son nom, Arebrelidum, à l’époque franque.
- Le châtaignier d’Asie Mineure
- Toutes les langues d’Europe ont emprunté au grec le nom du châtaignier, kastanion, le plus souvent par l’intermédiaire du latin castaneus. Les tlellènes n’avaient d’ailieurs pas tiré ce terme de leur propre lexique, mais d’un dialecte inconnu d’Anatolie, pays dont cet arbre semble originaire. Les Arméniens ont conservé une forme plus simple, kask, mais dont le sens n’est pas plus explicite. Le châtaignier dispute au chêne la fréquence des noms de famille et des noms de lieux. Tout d’abord la forme archaïque Châtain, masculin de châtaigne et dont châtaignier est un dérivé avec Castaing, Castan, Castin, Chastain, Chastaing, Châtaing, puis les diminutifs et les collectifs comme Châtaigneau, Chastagnol ou Castagnol, Castanier, Chastagnier, Chatenier ou Châtaignier, Castanet, Chastanet, Chastenet, Châ-tenay ou Câtenoy.
- Les arbres de l’eau : peupliers, trembles, aunes et saules
- Toutes ces essences dont la prédilection pour les lieux humides constitue un caractère commun ont cependant été soigneusement distinguées, car leurs formes et surtout leur utilisation les opposent assez facilement.
- p.512 - vue 515/558
-
-
-
- 513
- En latin, l’homonymie entre populus, peuplier, et populus, peuple, semble fortuite. Populus, peuple, est issu d’un radical que l’on retrouve aussi bien dans l’anglais jolk, l’allemand volk, le polonais pulk et le russe polk, exprimant l’idée de réunion plénière, dérivée d’un adjectif que le français plein, le russe polno, l’anglais full et l’allemand voit permettent de restituer. On ne voit pas ce qu’un arbre comme le peuplier peut avoir de commun avec la plénitude, l’intégralité ou la totalité, mais il est probable que dans les deux cas la consonne initiale a été redoublée et que l’on peut retrouver dans populus le radical de noms comme palus, marais, ou pluvia, la pluie, le peuplier ayant été assimilé par les Romains aux notions d’inondation, de flot, propices à sa croissance. 11 est également •curieux de voir que populus, origine de l’espagnol cliopo et de l’italien pioppo, n’a pas de correspondant chez les Germains et les Slaves qui ont simplement emprunté le nom soit au français, d’où l’anglais poplar, soit au latin d’où l’allemand pappel et le russe fopol ; il est resté un terme assez peu employé, sans doute par confusion avec son homonyme, et chez nous notamment a été concurrencé par tremulus, tremble, nom d’une espèce qui pratiquement a été étendu à tout le genre. En onomastique l’abondance de Tremblay, Tremblade, Tremblot, Trémaux, Trémouille ou Trémoulet ne peut être expliquée que de cette façon.
- Le véritable nom du peuplier se retrouve dans le latin abies, qui désigne le sapin, le lituanien apuszis, le letton apse, désignant le tremble, de même que dans l’anglais aspen, l’allemand espe, le russe et le polonais ossina, primitivement opsina, appliqués à la même espèce,'tandis qu’à Moscou ossokor et à Varsovie >osika sont plutôt réservés au peuplier. Le radical est visiblement le vieux nom indoeuropéen de l’eau, apa, devenu aqua en latin, mais le sens en a été perdu de bonne heure, et poulies Latins abies exprimait surtout une idée de rigidité, de port rectiligne, permettant ainsi de confondre la pyramide du sapin et le fuseau du peuplier d’Italie.
- Le nom de l’aune, comme celu-' du peuplier, se présente sous plusieurs formes. Le latin alnus, dont un dérivé, alnetanus, se retrouve dans l’italien ontano, correspond au vieux germanique alira, devenu aider en anglais, erle en allemand, au polonais olsza, au russe olkha. Une parenté a été cherchée du côté d’albus, blanc, mais semble ne guère convenir à un arbre dont le feuillage et l’écorce ne sont pas précisément de cette couleur; il y a sans doute en allemand l’aune blanc, weisserle, mais l’adjectif même indique qu’il s’agit d’une espèce particulière.
- Il faudrait plutôt rapprocher alnus d’autres radicaux où la couleur blanche est celle de l’argile, et s’est appliquée peu à peu à tous les terrains marécageux. Il n’est pas certain que le nom français de l’aune dérive directement du latin alnus; les linguistes ont en effet remarqué que ce terme est cantonné dans les régions les plus nordiques de notre pays et pensent à une influence du germanique alira. Quoi qu’il en soit nos villages et nos fermes portent fréquemment des noms comme Launay, Launoy, Lannoy, et des noms de famille comme Daunay, Donnay ou Delaunay sont très répandus. En onomastique toutefois un tableau beaucoup plus complet nous est fourni par le nom celtique de l’aune, en gallois et en breton gwern, en irlandais fern, latinisé sous la forme vernus et devenu en français verne et vergne, la forme ver ayant disparu pour éviter la confusion avec le nom de la couleur, vert, et de la matière, le verre. Ce nom a été conservé par l’onomastique avec des noms comme Ver ou Vaires, anciennes aunaies, Duvert ou Del vert, et surtout avec les innombrables dérivés, désignant des peuplements d’aunes et parfois encore usités dia-lectalement comme Lavergne, Vernet, Vernay, Vernoy, Verneuil, Vergniaud, Verniolle, Vergnolle, pour n’en citer que les plus répandus. L’idée première serait aussi l’inondation, le marécage, et les Auvergnats, les Arvernes, seraient les gens au bord, are,
- du marécage, vern, c’est-à-dire de la Limagne, du canton limoneux, argileux, tour à tour marais ou terre nourricière selon le drainage et les travaux de ses riverains des collines.
- Si le saule hante aussi les lieux humides, la flexibilité de ses rameaux l’a rapidement individualisé. L’anglais ivillow, l’allemand iveide, le grec itea, le russe verba et le polonais ivierzba sont issus cl’un radical qui exprime l’idée d’entrelacer, comme Je latin verber, courroie, ou vilis, la vigne, et déjà utilisé pour qualifier l’orme, wiaz, en russe et en polonais.
- Le latin salix, devenu sauce en espagnol, salice en italien et saux en vieux français est à rapprocher du nom irlandais de l’arbre, sailech, connu du vieil allemand salaha, et même d’un dialecte grec, helike. L’idée est ici celle de l’hélice, de la spirale, les rameaux du saule se prêtant à toutes les manipulations. C’est lui que l’on retrouve dans tous ces noms propres, toponymes ou patronymes, comme Dussaux, Dussauze, Sauzay, Sausseau, Sausseron, Saussier, Saussaie, mais aujourd’hui saux est remplacé presque partout par saule qui est une adaptation du germanique salaha, due à l’influence franque sur notre vocabulaire. Quant à l’osier, en vieux français ausier, c’est également la francisation d’un terme francique, germanique, hais, en allemand halster, et simple variante de salaha.
- Les arbres à résine : pin et sapin
- La même incertitude dans la botanique préhistorique se manifeste à propos des résineux. Les Romains, nous l’avons déjà constaté, avaient attribué au sapin le nom du peuplier, abies, les Germains lui attribuèrent le nom de chêne, jir en anglais, auquel correspond l’allemand johre, désignant le pin. L’allemand tanne, sapin, est aussi, sous la forme voisine tann, la forêt toute entière, cependant que le tan est chez nous l’écorce du chêne réduite en poudre pour préparer les cuirs ! Il s’agit ici sans doute de l’un des noms de l’arbre il y a des millénaires, l’arbre qui fournit le meilleur bois de charpente, timber en anglais, pour élever la maison, dom en russe et domus en latin.
- A Rome, pinuSj devenu pin en français, à Athènes pitus, comme à Berlin fichte, sont dérivés du nom de la résine, de la poix, en latin pix, de la gomme des arbres, pituila, dont le nom a servi plus tard à désigner le mucus du nez. Sapin, en latin sappinus, est emprunté au langage des populations alpestres où il désignait aussi bien le pin ; on le retrouve dans le nom ancien de la Savoie, Sapaudia, le pays des résineux, et dans le russe sosna, pin, primitivement sapsna, dont le radical est le même que celui de sok, le suc, la résine. Il y a certainement une similitude d’utilisation à des fins industrielles dans le fait que le latin ebulus, hièble, sureau, se retrouve dans le nom polonais jodla., et russe, yel, du sapin. On voit par ce dernier exemple combien nos ancêtres s’embarrassaient peu de précision scientifique, car du sureau au sapin, il y a encore plus loin que du sapin au chêne, du frêne au bouleau ou de l’orme au saule, pour ne citer que les principales confusions entre les essences dont notre vocabulaire a fidèlement gardé la trace.
- *
- * #
- Comme les métaux, les arbres de la forêt ont ainsi apporté une importante contribution à la formation du vocabulaire des langues d’Europe. L’étude de leurs noms nous a permis de préciser comment l’homme de la pierre polie était lentement arrivé à maîtriser la nature qui l’oppressait, à créer une économie forestière, à distinguer les essences, à placer Sylvain, aux côtés de Cérès et de Bacchus, parmi les divinités favorables, protectrices des bois et des champs.
- Michel Roblin, Docteur ès lettres.
- p.513 - vue 516/558
-
-
-
- 514
- Origine unique ou
- multiple de la vie ?
- On s’étonne parfois que la série de phénomènes qui ont abouti à l’apparition de la vie sur la Terre soit l’objet d’explications et même de descriptions impossibles à authentifier. Et l’on serait même en droit de déclarer que l’effort scientifique accompli dans ce sens reste lettre morte tant que des expériences décisives, fruits de longues recherches, n’auront pas reproduit concrètement la série de phénomènes en question.
- A cela on peut répondre par un exemple trivial. Une personne qui a perdu mettons son trousseau de clefs peut bien entreprendre des recherches obstinées et nombreuses pour le retrouver; ses chances ne sont pas grandes si elle n’a pas établi au préalable un plan logique qui guidera efficacement ses recherches. Les faits démontrent d’ailleurs que ce sont effectivement les logiciens qui gagnent à ce jeu, sauf lorsque (exception qui confirme la règle) un hasard heureux favorise la recherche irrationnelle.
- La pléiade de savants qui étudient, théoriquement et expérimentalement, le problème de l’apparition de la vie ne compte pas trop sur un tel hasard heureux. Et c’est là ce qui justifie l’allure spéciale de ce champ d’investigations, où un « quadrillage » en grande partie conjectural, mais dans toute la mesure du possible logique, doit être tracé pour orienter l’immense travail de labourage auquel se consacrent les expérimentateurs.
- Le fondement logique du plan conjectural est lui-même difficile à mettre au point. C’est ce que nous allons tenter d’illustrer en présentant un problème partiel, bien que très important, qui divise les théoriciens de l’origine de la vie.
- Doit-on admettre que le processus s’étant déroulé jusqu’à sa conclusion, qui est la présence sur Terre des êtres vivants, il n’ait pu se répéter, sous quelque autre forme, dans une période ultérieure ?
- Peut-on penser au contraire que, les conditions étant devenues différentes, un ou plusieurs autres processus soient de nature à donner naissance à de la matière vivante ? Autrement dit, des êtres vivants ont-ils pu se créer à des époques plus récentes, voire dans la période actuelle ?
- Pour ne pas risquer de s’égarer en choisissant hâtivement l’une ou l’autre branche de ce dilemme, il convient de préciser un point essentiel : aucune naissance de la vie ne peut être « homologuée » comme telle que si le matériel de départ est une matière inorganique, abiotique. Tout processus ayant pour origine de la matière déjà vivante ou des constituants typiques de cette matière est nul et non avenu.
- Pareille mise en garde n’est nullement superflue, car il a été assez souvent constaté que des recherches menées à partir de matériaux contestables ont mis à jour des phénomènes purement et simplement biologiques, confondus avec de quelconques et illusoires générations spontanées.
- Les stades de l’apparition de la vie selon la théorie « orthodoxe »
- Ceci étant dit, nous devons rappeler dans ses grandes lignes la théorie qu’on peut considérer aujourd’hui comme « orthodoxe » de l’origine de la vie, telle qu’elle a été exposée par Oparine dans son livre The Origin of Life on ihe Earth (Oliver and Boyd, éditeurs), ou dans son article paru dans Impact (vol. IX, n° 4).
- Plusieurs stades sont à considérer :
- , Le premier englobe les nombreux épisodes' qui se sont déroulés à partir du moment où la Terre a pris place dans le système ,solaire, en tant que planète, pour parvenir à un état analogue à celui, actuel, de Jfupiter et de Saturne. Nous ne pouvons nous attarder sur la, reconstitution de tous les épisodes qui ont jalonné cette lpngue période et auxquels des auteurs tels que Kuiper et Urey ont consacré d’importantes études. Tout ce que nous devons retenir est que les conditions qui régnaient alors à la surfaçe de la Terre s’opposaient à toute apparition de la vie. Mais il est essentiel, néanmoins, de se référer à la description que les géochimistes ont donnée du milieu (hydrosphère et atmosphère) qui s’était longuement constitué autour de l’écorce solidifiée de la planète. Ce milieu en effet est celui où se trouvaient nécessairement les futurs matériaux dont se sont construits plus tard les êtres vivants.
- L’hydrogène, l’oxygène, l’azote, le carbone, pour ne citer que les principaux, se présentaient sous des formes sans doute assez variées qui s’équilibraient tout autrement qu’aujourd’hui. Si la similitude avec l’atmosphère présente de Jupiter est admise, on est en droit de concevoir un vaste réservoir, partiellement gazeux, partiellement liquide, où voisinaient l’eau (ou la vapeur d’eau), l’hydrogène, l’ammoniac, le gaz carbonique, le méthane et d’autres hydrocarbures. Il se peut que, sous l’action des radiations ultraviolettes émises par le Soleil, un certain volume d’oxygène libre ait pu se former par photolyse de la vapeur d’eau, volume très insuffisant toutefois pour que ce gaz ait joué le rôle qui devait lui être ultérieurement dévolu.
- Le deuxième stade s’amorce donc avec les corps organiques
- dont nous venons de donner une énumération incomplète. Ce sont des corps simples où l’on ne retrouve en aucune façon les structures complexes de la future matière vivante. Comment s’est accomplie la transformation, le passage de l’un à l’autre état ? Ici intervient une série d’hypothèses qui, notons-le, ne sont nullement aventurées. Plusieurs expériences leur ont même apporté un début de vérification.
- Il était rationnel de penser que d’importantes réactions chimiques pouvaient s’être produites sous l’action des différentes sources d’énergie auxquelles la surface de la Terre était exposée. La chaleur, les décharges électriques, la radioactivité, les radiations ultraviolettes ont été tour à tour mises en oeuvre par les expérimentateurs. Des résultats incontestables ont été obtenus en de nombreux cas.
- L’expérience la plus marquante date de ig55 : le savant américain Miller, soumettant à des décharges électriques un milieu composé de méthane, d’hydrogène, d’ammoniaque et de vapeiir d’eau a pu réaliser la synthèse de plusieurs acides aminés : glycine, alanine, sarcosine et acide aminobutyrique. Succès moins évidents mais cependant significatifs obtenus avec des irradiations aux rayons gamma : Paschka, Chang et Young ont réussi la synthèse de la glycine et de l’alanine à partir de carbonate d’ammonium. C’est enfin en utilisant la lumière solaire que Bahadura a obtenu également des acides aminés.
- On a donc constaté expérimentalement que le passage des molécules simples à des molécules plus complexes, comme celles des acides aminés, représente très vraisemblablement un processus naturel, prenant place dans l’atmosphère-hydrosphère pauvre en oxygène qui s’était établie à la fin du premier stade.
- Il n’y a aucune raison pour repousser l’hypothèse que cette première transformation a été suivie, selon un processus analogue, par la formation de molécules de structure encore plus différenciée, celles en particulier des protéines.
- Troisième stade (et troisième hypothèse) : des molécules qui préfigurent la structure actuelle des macromolécules de la matière vivante ont pu se grouper entre elles pour constituer
- p.514 - vue 517/558
-
-
-
- 515
- des systèmes multimoléculaires, présentant un rudiment de métabolisme. La théorie d’Oparine est principalement centrée sur ces groupements. Ils se seraient formés par une agglutination de matières albuminoïdes, pour parvenir à un état colloïdal où de très fines particules solides se trouvent en suspension dans un liquide. De tels groupements ont été étudiés par Bungenberg de Jong qui leur a donné le nom de coacervats : ils se présentent en gouttelettes baignant dans un liquide d'équilibre avec lequel ils pratiquent des échanges, absorbant notamment les substances aptes à les « nourrir ». C’est là un rudiment de métabolisme et l’on observe d’ailleurs que les coacervats grossissent aux dépens du liquide d’équilibre. Rien ne s’oppose à ce qu’un tel phénomène se produise dans le milieu décrit plus haut et déjà riche en substances organiques. Dès lors, certains considèrent que les coacervats auraient été la première et la plus élémentaire forme de la vie, offrant déjà deux de ses caractéristiques essentielles : le métabolisme et la croissance.
- Mais il apparaît que ces proto-organismes, ces éobionts, étaient autant d’ébauches plus ou moins stables et dont, en toute probabilité, la plupart n’étaient pas en mesure de survivre. On estime aujourd’hui que les lois de la sélection naturelle ont pu déjà jouer en faveur des plus viables, de môme qu’elles ont plus tard favorisé des organismes beaucoup plus différenciés.
- A cette période hésitante, l’aptitude à survivre se traduisait par les « procédés » plus ou moins efficaces qui s’élaboraient spontanément parmi ces gouttes de matière vivante. Et le qua-
- trième stade de la naissance de la vie s’est ouvert lorsqu’une catégorie de ces organismes primitifs, située à la pointe de l’évolution, a acquis la propriété d’utiliser les rayons solaires en vue de former de nouvelles substances organiques à partir du gaz carbonique. Cette apparition de la photosynthèse, métabolisme perfectionné, reléguait à l’arrière-plan les éobionts, attardés dans leurs échanges singulièrement moins productifs. La photosynthèse allait d’ailleurs modifier le milieu de fond en comble, créant l’abondante atmosphère actuelle à 27 pour 100 d’oxygène libre. Ce nouveau milieu, exceptionnellement favorable à la vie, n’en est pourtant pas la cause déterminante : il est la résultante de la vie primitive, préalablement installée.
- Là se termine ce qu’on a appelé la pré-évolution, prologue jusqu’ici inconnu de l’évolution proprement dite par laquelle se sont développées et ramifiées les espèces végétales et animales, dont le métabolisme procède directement ou indirectement du phénomène de la photosynthèse.
- Une chronologie très approximative vient compléter l’énumération des stades successifs que nous venons d’évoquer :
- L’âge de la Terre est estimé à environ 4,5 milliards d’années. Les deux premiers stades, de beaucoup les plus longs, se poursuivent pendant 3 milliards d’années. C’est en effet il y a environ i,5 milliard d’années que la vie, sous sa forme la plus primitive (systèmes multimoléculaires, coacervats), a débuté. Et le troisième stade ne s’arrête guère qu’aux environs d’une période, vieille seulement de 5oo millions d’années, où la vie commence à se développer dans les océans avec les algues et quelques animaux invertébrés.
- La vie installée barre-t-elle la route à toute vie vraiment nouvelle ?
- Revenons à présent à la question posée au début de cet article : peut-il y avoir de nouvelles biogenèses, c’est-à-dire des apparitions d’êtres vivants qui ne sont pas issus de la souche primitive, vieille de i,5 milliard d’années?
- La réponse fournie par Oparine et les autres savants contemporains qui, avec quelques nuances, ont adhéré à la même thèse est incontestablement négative. Cette négation s’appuie sur un argument déjà développé par Darwin. Le voici, exposé par l’auteur de l'Origine des Espèces lui-même :
- « Si, écrivait Darwin, nous pouvions concevoir, dans un petit étang avec toutes sortes de sels d’ammoniaque et de phosphate, de la lumière, de la chaleur, de l’électricité, etc., qu’un composé protéinique se soit formé chimiquement, prêt à subir des transformations plus complexes, une telle matière serait immédiatement dévorée ou absorbée, ce qui n’aurait pas été le cas avant la formation de créatures vivantes. »
- En d’autres termes (plus généraux), la vie installée barre nécessairement la route à la vie naissante.
- Cependant, un article paru dans la revue Science (19 février i960) reprenait l’idée, radicalement rejetée par Darwin, de la néobiogenèse. Son auteur, John Keosian, analyse successivement les arguments que l’on oppose habituellement à la répétition du processus de l’origine de la vie :
- Le facteur temps. — Le processus total implique une bien trop longue durée pour qu’il ait pu se poursuivre depuis la date (relativement récente) où les organismes vivants ont proliféré à la surface de la Terre. Des substances organiques nouvellement créées n’auraient pu maintenir leur intégrité que pendant de courtes périodes.
- Réponse : le facteur temps n’est pas une objection définitive. S’il est vrai que la matière vivante n’a pu se constituer qu'après une très lente élaboration chimique, cela provient de l’immense chemin à parcourir depuis la formation du milieu originel. Les conditions sont totalement différentes, alors qu’il existe déjà des molécules complexes dépourvues de vie, mais aptes
- à servir de support à une nouvelle naissance de la vie. Le temps nécessaire à la formation de systèmes multimoléculaires, possédant un rudiment de métabolisme, se trouve considérablement réduit.
- Cette réponse, en admettant qu’elle soit pertinente, fait état d’une matière presque certainement élaborée par des êtres vivants. Il n’y a pas, en ce cas, de nouveau départ véritable, mais une sorte de « boucle » de l’évolutidn qui se présente dès lors sous un aspect moins linéaire. Il ne semble pas que la théorie orthodoxe en soit d’aucune manière infirmée.
- La compétition avec les organismes déjà vivants. — Ici est discuté 1’ « argument massue » développé par Darwin. J. Keosian nie énergiquement que la compétition soit une règle universelle. Bien au contraire, il existe des affinités et des symbioses qui peuvent surgir entre une matière vivante de fraîche date et les êtres vivants installés. Sans doute les nouvelles ébauches sont-elles trop primitives pour pouvoir posséder un métabolisme indépendant. Mais pour peu qu’elles rencontrent des organismes qui leur apportent un support métabolique, elles se développent normalement en symbiose avec eux, ou plus précisément en les parasitant.
- Cette thèse vise ostensiblement les virus, auxquels on prêterait une série de souches néobiogénétiques. La « pierre de touche » est de savoir si le matériau de base dépourvu de vie n’a pas néanmoins pour origine une décomposition de certains organismes vivants. Autrement dit, le processus consiste-t-il à nouveau en une boucle de l’évolution ou en un authentique « apport frais » ?
- L'homogénéité de la matière vivante. — Origine commune, évolution linéaire sont données comme évidentes, en raison de la similitude des organismes, dans leurs constituants et leurs réactions biochimiques. Cette homogénéité a pu être constatée à travers toute l’échelle des êtres vivants, englobant aussi bien les organismes unicellulaires ou n’ayant même pas la structure cellulaire que les végétaux et animaux supérieurs. Comment
- p.515 - vue 518/558
-
-
-
- •admettre, dès lors, que des êtres néobiogénétiques aient pu apparaître en se modelant étroitement sur la constitution et les processus biologiques communs à toutes les autres espèces ? Leur origine « extérieure » devrait être marquée par des caractères nettement différents.
- La réponse de J. Keosian à cette objection n’est pas d’une clarté parfaite. Nous pensons pouvoir la résumer ainsi : les processus biologiques, que ce soit pour la souche primitive ou pour des souches nouvelles, sont imposés par une série de causes chimiques et - énergétiques. Les possibilités de naissance, de conservation et de propagation de la vie ne seraient pas infinies : la vie sur la Terre serait contrainte d’emprunter une étroite bande, d’où la similitude entre les êtres issus de souches différentes.
- * *
- Cette discussion ne s’égare pas au point de reprendre les thèses les plus naïves de la génération spontanée. Elle s’en rapproche cependant par certains points. Mettant surtout l’accent sur les virus, J. Keosian déclare peu vraisemblable qu’ils se soient maintenus relativement inchangés à travers
- près de deux milliards d’années. Il juge plus conforme à la logique d’envisager une création perpétuellement échelonnée qu’une suite de transformations à partir de la matière vivante originelle. Ce point de vue ne saurait être écarté d’emblée, car il « élargit le débat ». Il est même intéressant, en ce sens qu’il démontre les détours possibles d’une science, largement fondée jusqu’à nouvel ordre sur la conjecture.
- Sans doute des recherches de ce genre, in abstracio, pourront-elles aider à rectifier quelque peu la ligne présentement orthodoxe. Mais, dans ce cas précis, il semble que la théorie de la néobiogenèse apporte une certaine confusion entre deux termes différents : création et nutrition. Il est normal que la vie, en élargissant son emprise sur la matière, en arrive à puiser dans des sources primitivement « négligées » et que des espèces nouvelles, adaptées à cette prospection, puissent enrichir le patrimoine commun. Ce faisant, elles ne dérogeraient pas, tant s’en faut, aux lois de l’évolution. Considérant enfin qu’elles sont dès l’abord vouées à la symbiose et au parasitisme, on peut conclure que leur présence et leurs développements ne démontrent en aucune façon que ces lois sont caduques.
- Gaston Cohen.
- La puce du lapin ne pondrait que nourrie sur une lapine gravide
- Le rôle important joué par la puce du lapin (Spilopsyllus cuniculi) dans la transmission de la myxomatose a amené les entomologistes anglais à étudier dans tous les détails les phases du développement de ce parasite. Cette étude .a abouti à d’assez curieuses constatations que MM. A. R. Mead-Briggs et A. G. B. Rudge ont résumées dans la revue britannique Nature (2/1 septembre i960). On avait observé l’irrégularité de la reproduction chez les puces élevées sur des lapins domestiques ou sauvages en clapiers; par contre, sur des lapins en semi-liberté, la reproduction du parasite est normale. Par la suite, il a été reconnu que les puces placées sur des lapines gravides amènent dans leurs ovaires des œufs à maturité, qu’elles pondent peu après la naissance des petits lapins; au contraire, les puces placées sur des lapines non fécondées restent stériles.
- Cette constatation donna l’idée de suivre le développement des ovaires jusqu’à l’ovulation sur des parasites placés dans différentes conditions d’expérience. Un certain nombre de puces furent déposées sur des lapines élevées dans des clapiers à deux compartiments, dont l’un, obscur, réservé à la confection du nid. Les lapines servant à l’expérience, au nombre de quatre, étaient adultes, l’une non fécondée, les trois autres en cours de gestation depuis 1 ou 2 jours, 11 jours et 20 jours. Les puces femelles furent capturées périodiquement, par groupes de trois, après un séjour de dix jours au moins sur les lapines, et l’état de leurs ovaires fut observé.
- Chez la puce, l’ovaire est constitué d’un petit nombre d’ova-rioles, sortes de tubes qui s’élargissent progressivement vers leur ouverture dans l’oviducte. Les ovules se forment dans la partie antérieure étroite, s’entourent de cellules épithéliales nourricières, formapt avec celles-ci ce qu’on appelle un follicule, et grossissent en progressant vers l’oviducte. Le degré de développement de l’ovaire peut être estimé en mesurant les dimensions du follicule le plus avancé, ou premier follicule; ces dimensions ne varient chez un même individu que peu avant le stade final de maturation et l’ovulation subséquente; celle-ci se produit dans la moitié des ovarioles en même temps.
- Le résultat de ces examens est très intéressant. Il n’y a aucun changement dans la taille du premier follicule chez ‘les puces placées sur la lapine non fécondée, et ceci même
- pour des puces ayant séjourné 28 jours sur leur hôte. En ce qui concerne les puces des trois autres lapines, le résultat est tout différent; les ovaires se développent très normalement et le maximum de développement est atteint au moment de la parturition de la lapine; les puces quittent alors leur hôte et on les trouve dans le nid ou sur les lapins nouveau-nés. Le développement des ovaires semble débuter dix jours avant la mise bas de la lapine, mais la taille des œufs peut être influencée par le nombre de jours pendant lesquels la puce a pu se nourrir; ainsi sur le lapin n° 4, où il ne restait que dix jours avant la ponte, les œufs comparés aux autres sont relativement petits, cependant fertiles.
- On doit se demander quel est le facteur qui influence le développement des ovaires de la puce. On a pensé qu’il pouvait y avoir une relation avec l’activité de la lapine occupée à préparer son nid; mais il semble plus vraisemblable qu’il existe un facteur de nutrition présent dans le sang de la lapine gravide et que ce facteur ne se trouve au niveau voulu que vers la fin de la gestation. A ce sujet, on rappelle que Wig-glesworth a montré que beaucoup d'Arthropodes suceurs de sang absorbent une petite quantité d’hémoglobine dont une partie est transférée, peu modifiée, au vitellus de leurs œufs en voie de développement. On en a conclu que certaines protéines normales du vitellus des œufs d’insectes peuvent être formées dans le corps de la mère et transmises par les cellules du follicule, non synthétisées par elles. Ce pourrait être le cas de la puce qui a des ovarioles de type panoïstique, c’est-à-dire sans tissu nourricier autre que l’épithélium folliculaire. Un rôle important doit être joué par les variations de protéines provenant de la nourriture, le sérum de l’hôte. On trouve en effet des différences marquées entre le sérum de deux lapines, dont l’une est fécondée depuis 25 jours, tant en ce qui concerne la concentration en protéines que la proportion des composants. La conséquence de ce mécanisme, qui produit une synchronisation parfaite entre la maturation des œufs du parasite et la; parturition de l’hôte, est que ces œufs sont prêts à être pondus dans un microclimat idéal pour le développement des larves qui en sortiront; ce microclimat est fourni par le nid de la lapine. L. C.
- p.516 - vue 519/558
-
-
-
- 517
- En lui soutirant 500 km3 d’eau par jour réchaufferait-on l’Océan Arcti^uë ?
- Avec les gigantesques moyens techniques dont on dispose maintenant, on peut envisager de faire subir à la surface du globe des transformations considérables. On a imaginé en particulier de réchauffer les régions polaires, ce qui d’ailleurs n’irait pas sans des conséquences dont quelques-unes pourraient être redoutables (la fonte des glaciers polaires ferait monter dangereusement le niveau général des océans). Sans aller jusque-là, les Russes ont songé depuis longtemps à modifier quelque peu le climat des régions arctiques, où les glaces entravent la navigation pendant la plus grande partie de l’année. Un léger réchauffement suffirait aussi, probablement, à rendre plus habitable et fertile une large portion des terres nordiques.
- Un projet de ce genre, exposé récemment par l’ingénieur P. M. Borissov dans la Literatournaia Gazeta, de Moscou, a donné lieu à une intéressante polémique, qui fait bien ressortir la complexité de ces problèmes et la difficulté de prévoir avec certitude les conséquences de toute intervention humaine en cette matière.
- Le projet de M. Borissov prévoit l’installation, dans le détroit de Behring, d’un barrage gigantesque (long d’environ 90 km) pourvu d’un système de pompes très puissantes qui permettrait de pomper jusqu’à 5oo km3 d’eau froide par jour dans le sens nord-sud, c’est-à-dire de l’Océan Arctique vers l’Océan Pacifique. L’eau froide ainsi évacuée serait automatiquement remplacée dans l’Océan Arctique par un apport accru d’eau moins froide provenant de l’Océan Atlantique. L’auteur du projet affirme que cet apport accru serait suffisant pour faire fondre la couche de glace qui recouvre l’Océan Arctique et pour provoquer un réchauffement sensible des continents adjacents.
- Dans un récent article de Priroda, M: D. Drogaitzev critiquait ce projet et montrait qu’il n’aboutirait pas sans doute au résultat escompté par son auteur. A l’heure actuelle, l’Océan Arctique reçoit en moyenne i45 000 km3 d’eaux atlantiques et 43 000 km3 d’eaux pacifiques par an. Après la construction du barrage dans le détroit de Behring, l’apport d’eaux pacifiques devrait cesser, tandis que celui des eaux atlantiques atteindrait 328 000 km3. Quelles en seraient les conséquences ? On sait que la température et la salinité de l’eau dans l’Océan Arctique varient avec la profondeur. L’eau y est froide et relativement peu salée jusqu’à une profondeur de 100 à 25o m; ensuite, jusqu’à environ 600 à 900 m, elle est moins froide, mais sa salinité est plus grande; et, aux grandes profondeurs, elle est froide et salée. Le renouvellement annuel de l’eau de l’Océan Arctique est actuellement de 1,8 pour 100 du volume total; le barrage du détroit de Behring devrait le porter à 3,2 pour xoo. Dans ces conditions, même si les pompes du barrage n’évacuaient, ce qui n’est aucunement certain, que de l’eau froide provenant de faibles profondeurs, dont la température avoisine i° C, la température annuelle moyenne de la partie de l’Océan Arctique où se produirait le mélange n’augmenterait que de o,o5° G, la température de l’eau fournie par l’Océan Atlantique étant de 2,5° C. Le calcul montre que l’épais-
- seur de la couche de glace, qui est d'environ 3,5 m en moyenne vers la fin de l’hiver arctique, se réduirait de 5.2 cm grâce à cette élévation de température, à condition, bien entendu, que l’eau la plus froide des couches profondes ne s’élève pas vers la surface, refroidissant alors de nouveau les couches supérieures. Or, l’auteur du projet affirme également que les pompes de son barrage auront pour effet d’arrêter la circulation naturelle de l’eau entre l’Océan Arctique et les océans voisins, donc surtout avec l’Océan Atlantique. Mais il oublie que, sans cet échange, l’épaisseur de la couche de glace de l’Océan Arctique serait, aujourd’hui, plus épaisse d’environ 86 cm.
- Ainsi son barrage, s’il parvient effectivement à arrêter cet échange naturel, provoquerait, non point une diminution de 62 cm, mais une augmentation de 86 — 5a, soit de 34 cm de la couche de glace de l’Océan Arctique! D’autre part, il ne faut pas perdre de vue que les eaux moins froides, au centre du bassin arctique, se trouvent, quelle que soit leur provenance, au-dessous des couches plus froides à salinité relativement faible. Aussi les eaux atlantiques, si grand que soit leur apport, ne peuvent exercer d’effet direct sur la vitesse de la fonte des glaces à la surface de l’Océan Arctique. Comme l’ont montré les calculs, le réchauffement et la fonte des glaces de cet océan en été sont dus entièrement à la chaleur apportée par les masses d’air relativement chaud venant du sud (04 pour 100) et au rayonnement du Soleil (3i pour 100). En admettant une légère augmentation de la température de l’eau aux faibles profondeurs, ayant pour conséquence une certaine diminution de l’épaisseur de la couche de glace, ce facteur nouveau serait d’une importance infiniment moindre que les facteurs atmosphériques et ne pourrait en aucun cas provoquer la disparition totale de cette couche.
- Au surplus, la réalisation du projet de P. M. Borissov aurait des conséquences plutôt fâcheuses en ce qui concerne le climat de la planète. L’accroissement de la quantité d’eau fournie par l’Atlantique à l’Arctique dériverait, en effet, l’itinéraire des cyclones atlantiques septentrionaux vers le nord de .la Mer de Barents. Les anticyclones seraient alors beaucoup plus fréquents sur le continent eurasien, dont le climat deviendrait encore plus continental, avec des hivers plus froids et des étés plus chauds et plus secs, particulièrement en Europe et en Sibérie occidentale. La zone des déserts subtropicaux de l’Afrique du Nord et de l’Asie moyenne se déplacerait vers le nord, Quant à la région située au nord-ouest du Pacifique, non seulement la température moyenne y baisserait, mais le courant froid Oya-Chivo deviendrait plus intense, ce qui décalerait vers l’est le courant chaud Kouro-Chivo. La vitesse des vents au-dessus de la Mer de Tchoukotsk s’accroîtrait, ce qui en rendrait lé climat encore plus rude. Les hivers devenant plus froids sur toute la côte orientale de l’Asie, les mers d’Extrême-Orient risqueraient de rester couvertes de glace encore plus longtemps chaque année.
- Accélération de la fonte des glaces par poussière de charbon
- Si le réchauffement général de l’Arctique est peut-être du domaine de l’utopie, des ambitions plus modestes, dans le même ordre d’idées, donnent lieu déjà à des réalisations pratiques, récemment exposées dans la même, revue Priroda. Dans certains ports septentrionaux, situés dans des golfes ou à l’embouchure de fleuves, la glace ne disparaît, parfois, qu’un mois après le dégagement de la mer. Afin d’accélérer la fonte de la
- glace dans ces ports, les spécialistes soviétiques commencent à utiliser avec succès le rayonnement solaire.
- L’accélération de la fonte par la réduction du pouvoir réflecteur de la surface de glace ou de neige est une méthode connue depuis très longtemps. Cette méthode fait absorber par la glace une plus grande partie du rayonnement solaire incident. Son application à de grandes étendues de glace a été freinée
- p.517 - vue 520/558
-
-
-
- 518
- jusqu’ici par le coût élevé des produits (fuchsine, suie) employés pour recouvrir la surface dont on veut accélérer la fonte. D’autre part, ces produits sont rapidement dissipés par le vent et par l’eau. A leur place on a donc utilisé avec succès en U. R. S. S. des produits comme la poussière de charbon, les scories, ou encore un mélange de poussière de charbon et de sable ordinaire. L’expérience a montré que tous ces produits sont équivalents : dans les conditions optimales d’utilisation, la fonte de la neige se produit à raison de 8 cm par jour. Une trop grande concentration du produit utilisé ne s’est pas révélée avantageuse : la fonte, accélérée au début, se ralentit ensuite, et peut même être freinée par une concentration exagérée. En effet, la couche supérieure de glace, imprégnée de particules de charbon ou de sable qui y pénètrent aisément, devient alors une véritable couche isolante, protégeant les couches inférieures contre la fonte. Le résultat le plus efficace est atteint en employant 3oo à 35o g de poussière de charbon ou 4oo g de mélange de poussière de charbon et de sable par mètre carré de surface.
- Très important est aussi le choix du moment où l’on doit commencer à déposer la poussière de charbon ou le mélange sur la glace. Ce choix dépend évidemment de la position géographique de la région et des conditions hygrométriques, calorifiques et météorologiques qui y prévalent. En général, le meilleur résultat est obtenu si l’on commence le traitement six semaines à deux mois avant la fonte naturelle de la glace, c’est-à-dire à l’époque où la température ne s’élève qu’occa-sionnellement au-dessus de o° C. Dans les zones occidentales de l’Océan Arctique (entre Arkhangelsk et Tiksi), le traitement commence au début de mai, et dans les zones orientales (entre Tiksi et la baie de la Prévoyance), au milieu d’avril. Dans la zone voisine du cap Tchéliouskine et dans le détroit de Wil-kitzki, le traitement est le plus efficace s’il commence vers la mi-mai. En procédant au traitement trop tôt, on risque de voir la poussière de charbon ou le mélange se recouvrir d’une nouvelle chute de neige. Pour prévenir cet inconvénient, on procède au traitement progressivement, une nouvelle couche de poussière ou de mélange étant déposée après chaque chute importante de neige. Dans les régions éloignées de tout centre
- d’habitation, la poussière de charbon ou le mélange est déversé sur la glace à partir d’avions. Trois heures de vol suffisent pour traiter une surface ou une bande de glace large de i5 à 17 m et longue de 1 km.
- La fonte artificielle de la glace, qui commence aussitôt après le traitement, est de trois à quatre fois plus rapide que la fonte naturelle. Cinq à quinze jours plus tard, la neige est complètement fondue sur toute la surface traitée, et la fonte de la glace commence. Encore une dizaine de jours, et la bande de glace se transforme en véritable canal, la glace étant, par endroits, fondue sur toute son épaisseur. La profondeur utilisable de ce canal atteint jusqu’à 1,2 m. Le fond du canal peut d’ailleurs être brisé sans difficulté par un brise-glace. Les 7 à 12 premiers jours de l’existence de ce canal artificiel sont les plus favorables pour son exploitation, car ses bords ne risquent pas encore d’être disloqués par la fonte naturelle de la glace. Le canal convient parfaitement aux bateaux en bois de faible tonnage.
- Les années où la fonte naturelle de la glace est tardive, ces canaux peuvent être exploités pendant i5 à 20 jours. De tous les canaux artificiels percés dans la glace, les plus utiles sont sans doute ceux de la baie de Tchaunsk. En effet, entre le détroit de Behring et la baie de Tchaunsk, la navigation peut parfois commencer dès le mois de mai. Or, dans la baie de Tchaunsk elle-même, la fonte naturelle de la glace ne survient qu’en juillet, sinon en août. Les navires qui se rendent dans la baie se trouvaient donc souvent immobilisés à l’entrée de la baie, pendant de longues semaines, dans l’attente de la fonte. Un canal fut ici percé pour la première fois en xg5i. Le traitement par le mélange de poussière de charbon et de sable fut terminé le 22 mai. Et, le 2 juin, le canal, long de 20 km, était déjà entièrement dégagé et prêt à recevoir les navires. L’année suivante, malgré les conditions particulièrement difficiles, le canal fut même prêt plus tôt et, pour la première fois dans l’histoire de la navigation arctique, des navires purent entrer dans le port de Pevek, dans la baie de Tchaunsk, le 23 juin. Le canal artificiel était, cette fois, long de 60 km et, sur une longueur de 4o km, il était même navigable sans l’aide de brise-glace.
- C. Mamontoff.
- L’épaisseur de la graisse des porcs mesurée par la radioactivité
- Une application assez inattendue de la radioactivité consiste à mesurer l’épaisseur de la couche graisseuse des porcs au cours de leur élevage. En effet, les consommateurs réclamant de plus en plus de la viande de porc maigre, il devient utile de connaître l’épaisseur de cette couche afin de modifier en conséquence le régime alimentaire de ces animaux. Il faut naturellement utiliser une méthode ce non destructive » et les « sondages » ultrasoniques n’avaient donné jusqu’à présent que des résultats incertains.
- Une société anglaise vient d’annoncer la mise au point d’un appareil, dont le fonctionnement est fondé sur la mesure de l’absorption des faibles rayons gamma émis par le potassium 4o qui existe toujours en faible concentration dans le potassium naturel (0,119 pour 100), lequel se trouve normalement dans la couche de chair maigre du porc et jamais dans les tissus graisseux.
- Cet appareil permettrait également de déceler la présence de césium 137 au cas où cet isotope, qui est l’un des produits libérés lors des explosions nucléaires, aurait contaminé l’alimentation des sujets examinés. Mais l’appareil pesant 6 t et étant d’un prix élevé, son emploi ne peut être envisagé que pour les élevages importants. R. R.
- Le coton dans la steppe de la Faim
- La récolte de coton en U.R.'S.S. atteint actuellement jusqu’à 4 700 000 t par an (coton brut), mais elle pourra être accrue très considérablement dans un avenir assez proche grâce à l’exploitation de terres encore vierges et surtout à l’irrigation des steppes de l’Asie centrale. Il s’agit principalement de la steppe de la Faim (environ 1 000 000 ,ha), de celle de Karchinsk en Ouzbékistan (400 000 ha), de l’oàsis de Tedgen en Turkménie (400 000 ha également) et de diverses steppes de moindre superficie.
- La steppe de la Faim se trouve au sud-est de la Mer d’Aral, 6ur la rive gauche du Syr-Daria, entre les villes de Tachkent et de Samarkand. Dans un passé récent, nous dit la revue Priroda, cette région n’était qu’une immense et morne surface couverte d’herbe roussie par le soleil et portant de nombreuses traces d’incendie, la température y atteignant parfois jusqu’à 70° C. Mais son aspect change rapidement depuis, quelques années. Sur les 800 000 ha qui peuvent être irrigués, plus de 200 000 ha l’étaient déjà en 1957-1058. Cette partie de la steppe de la Faim fournit, à l’heure actuelle, de 240 000 à 250 000 t de coton brut par an. Le rendement moyen du cotonnier y est déjà supérieur à celui qui a été atteint dans le delta du Nil. Des centrales hydroélectriques et des barrages importants ont été construits sur le Syr-Daria. La capacité totale du réservoir d’eau le plus grand du Syr-Daria est d’environ 3 000 000 000 ms, et sa capacité utile de 2 700 000 000 m3. Ce barrage équivaut donc à celui d’Assouan. Lorsque les 800 000 ha de la steppe de la Faim auront été entièrement irrigués, la récolte annuelle de coton brut pourra y atteindre et même dépasser 1 000 000 t. Selon les prévisions, de Priroda, cette récolte dépassera, dans un avenir très proche, la récolte égyptienne.
- C. M.
- p.518 - vue 521/558
-
-
-
- 519
- L’archipel de Santorin
- Une île volcanique qui explosa il y a 4000 ans
- L’archipel de Santorin, situé dans la mer Égée, à 245 km d’Athènes, fait partie d’un arc volcanique qui, allant de la côte d’Asie Mineure à la Grèce, comprend les îles de Nisy-ros, Santorin, Pholégandros, Polynos, Kimolos et Milo et se termine dans le Péloponnèse par la presqu’île de Méthana.
- L’archipel de Santorin est le reste d’une île volcanique qui explosa vers l’an 2000 avant J.-C. Cette catastrophe fut semblable à celle qui détruisit, en i883, la moitié de l’île volcanique de Krakatau, située entre Sumatra et Java.
- Aujourd’hui, l’archipel comprend cinq îles : à l’Est, la plus grande : Théra; en face, à l’Ouest : Thérasia; au Sud, entre ces deux îles, le petit îlot d’Aspronisi; à l’intérieur de la baie, au Sud : Palæa-Kaméni, et au Nord de celle-ci : les Kaménis, où se trouve le volcan actuel.
- Aussitôt après sa naissance, à la fin du Pliocène, l’île de Santorin devint rapidement un cône formé de cendres, de scories et de laves et présentant plusieurs centres éruptifs; aujourd’hui encore, nous en voyons les restes le long des falaises de Théra et de Thérasia, et l’on est frappé par la concordance des couches entre ces deux îles.
- Le volcan a eu de longues périodes de calme et l’île était habitée par une population très civilisée de pêcheurs et d’agriculteurs qui connaissaient l’usage de l’or et du cuivre, mais pas encore celui du fer. Leurs poteries étaient faites au tour, peintes et ornées de dessins. Ils habitaient des maisons dont les murs étaient faits de blocs de lave posés sans ordre et réunis par une matière terreuse. Les toits étaient soutenus par des traverses de bois d’oliviers sauvages et de lentisques, arbres très communs alors dans l’île. Et c’est cette population qui fut
- Fig. 1. — Carte de Varchipel de Santorin.
- Fig. 2. — Partie nord de Théra montrant la couche blanche de ponce gui recouvre les laves et les scories.
- anéantie vers l’an 2000 avant J.-C. par la terrible explosion qui, fit sauter tout le centre de l’île. Un raz de marée suivit et c’est lui sans doute qui détruisit le palais de Minos à Cnossos, en Crète.
- A la place du centre de l’île se forma une immense caldeira d’explosion (x), avec des falaises de plusieurs centaines de mètres de hauteur; mais il est fort possible que la mer ne se soit pas engouffrée tout de suite à l’intérieur de la caldeira et qu’elle attendit qu’un tremblement de terre fît sauter la mince langue de terre qui séparait, au Nord et au Sud, le centre de l’île de la mer. L’intérieur de l’archipel continua à s’enfoncer et à la caldeira d’explosion s’ajouta une caldeira de subsidence.
- De cette catastrophe, il nous reste une épaisse couche de ponce qui a recouvert tout l’archipel et qui atteint à certains endroits 35 m d’épaisseur (fig. 2). Elle est formée de blocs de la grosseur du poing et de fines poussières. Il n’y a pas de ciment et sa cohésion est due à la pression des couches supérieures. A l’œil nu, on ne distingue aucun cristal, mais au microscope on voit facilement des feldspaths monocliniques et tricliniques, de l’augite, de l’oxyde de fer et de l’hypersthène. Les blocs de lave qui se trouvent pris dans la ponce ont fa même composition que les laves anciennes de Santorin et ne sont que les restes du centre de l’île.
- *
- * *
- On divise les laves de Santorin en laves anciennes provenant des éruptions antérieures à la formation de la caldeira, et en laves récentes formant les îles du centre de la baie.
- Les laves anciennes se trouvent dans les îles de Théra, de
- 1. Rappelons qu’on appelle caldeira (chaudron) une dépression volcanique do vastes dimensions, beaucoup plus large que profonde
- p.519 - vue 522/558
-
-
-
- Thérasia et d’Aspronisi et sont constituées par des andésites augitiques à phénocristaux de labrador et d’anorthite. La tri-dymite est également fréquente dans ces laves.
- Quant aux laves récentes, elles forment les îles Kaménis et l’île de Palæa-Kaméni, et sont constituées par des andésites à hypersthène, à phénocristaux de labrador; elles sont moins acides que les andésites de la Montagne Pelée.
- Ile de Théra. — Théra est formée de deux régions bien distinctes au point de vue géologique : l’une est constituée par des terrains métamorphiques (schistes, quartzites) représentés surtout par le Grand Saint-Ëlie (altitude 56o m) (fig. 3) ;
- l’autre au contraire est formée par des produits volcaniques d’origine sub-aérienne : coulée de lave, scories, lapillis et ponces (fig. 5).
- La côte intérieure de Théra ressemble à un fer à chevaî dont la régularité n’est modifiée que par quelques caps. La falaise tombe à pic dans la mer et atteint à certains endroits 4oo m de haut. On aperçoit çà et là quelques petites plages assez étroites et formées par des éboulis. Ces plages correspondent aux crêtes.
- La Skala, port du bourg de Phira, est situé dans une concavité de la côte. Le quai n’est pas très large et le terrain n’est
- p.520 - vue 523/558
-
-
-
- Fig. 5. — Falaise de T hé r a montrant l’alternance des bancs de laves et de scories.
- Au sommet, le bourg de Phira. Au pied de la falaise, le port de la Skala, relié au bourg par un escalier en zigzag.
- pas stable; aussi les éboulements sont-ils très fréquents. Les maisons de la Skala sont le plus souvent creusées dans le tuf. La côte est moins haute dans la partie Sud-Ouest de l’île qui se termine par le cap Acrotiri.
- Ile de Thérasia. — Thérasia ferme à l’Ouest la baie de San-torin. Sa largeur moyenne est de i km; sa côte est et sud est échancrée par de nombreux golfes, assez profonds. Sur la côte orientale se trouve le golfe de Manola, avec son petit havre; un sentier en zigzag, ressemblant à celui de la Skala à Phira, permet d’accéder au village de Manola. La falaise est souvent très haute et atteint à certains endroits 290 m. Les coulées de
- lave provenant de l’ancien cratère sont dirigées de l’Est vers l’Ouest, et ont généralement une inclinaison de 5°; elles alternent avec des scories rougeâtres et plusieurs dykes, comme à Phira, sont visibles le long de la falaise. Les vents soufflent très fort dans cette région; aussi certains villages, comme Potamos et Agrilio, sont bâtis au fond des ravins pour éviter leurs terribles effets.
- Ilot d’Aspronisi. — Aspronisi, situé entre Théra et Thérasia, a une longueur de 680 m et une largeur de 25o m. Sa hauteur atteint 70 m ; il est relié à Théra par une crête sous-marine située à 12 m de profondeur. Sa côte nord a des falaises assez
- p.521 - vue 524/558
-
-
-
- 522
- abruptes et, comme à Théra et à Thérasia, les bancs de scories et de laves sont surmontés par le tuf ponceux.
- Ilot de Palæa-Kaméni. — Palæa-Kaméni apparut sans éruption en 197 avant J.-C. et n’est qu’un simple dôme peléen.
- Iles Kaménis. — Les îles Kaménis (fig. 4), actuellement soudées ensemble, sont situées au centre de la baie et sont, depuis la formation de l’archipel, le centre des principales manifestations volcaniques.
- Mikra-Kaméni apparut sans éruption violente en i573 après Jésus-Christ.
- Le dôme de Néa-Kaméni surgit sans bruit du fond de la baie en 1707 et rapidement il atteignit 80 mètres de haut; ce n’est que plus tard qu’apparut, sur le dôme, un cratère lançant des cendres et émettant une fumée très dense.
- En 1866, apparut l’îlot de Géorgios qui ne tarda pas à se souder à Néa-Kaméni. Il ne présenta jamais de cratère mais il se forma une fente de direction Nord-Sud qui fut le siège de violentes explosions, de coulées de lave et d’émissions de vapeurs rousses, couleur due à du chlorure ferrique volatilisé.
- Les Kaménis ont été le siège de nouvelles éruptions en 1925, 1928, 1939, 1941, i9Ôo et 1956, et chacune de ces éruptions est généralement caractérisée par la formation d’une extrusion visqueuse, véritable dôme peléen, dont le sommet et les flancs
- présentent quelquefois un cratère qui émet des cendres et jette des bombes en forme de croûte de pain. Un tel appareil volcanique doit être appelé un « conodôme ».
- Les éruptions de Santorin sont souvent accompagnées de tremblements de terre et de raz de marée, et celui qui se produisit lors de la dernière éruption du 9 juillet 1956 fut ressenti dans toute la mer Égée, avec des vagues de plus de 4 mètres de haut.
- Actuellement le volcan est calme et il est revenu dans sa phase solfatarienne, émettant seulement des fumées composées de vapeur d’eau, de gaz carbonique, de gaz sulfureux, d’hydrogène sulfuré et de chlorures ferriques et cuivriques.
- •
- * *
- Ces quelques lignes suffisent peut-être à montrer l’intérêt que présente l’étude de ce volcan à extrusions visqueuses, unique en Europe, et dont il fallut attendre, pour en connaître l’énigme, l’étude méthodique faite par A. Lacroix en 1902, lors de l’éruption de la Montagne Pelée.
- Antoine Sallèles.
- Les grandes villes dans le monde
- D’après une étude publiée par The Geographical Review (New York), il existerait dans le inonde 1 046 villes ou aires urbanisées dépassant 100 000 habitants, dont 341 en Asie, 278 en Europe, 238 en Amérique, 130 en U.R.S.S., 48 en Afrique et 11 en Océanie. Les Etats-Unis seuls en possèdent 147 (chiffres de 1955). Les dix premières aires urbaines du monde sont : New York (14,3 millions), Tokyo (11,3), Londres (10,5), Moscou (7,3), Paris (6,7), Osaka-Kobé (6,4), Shanghaï (6,2), Chicago (6,1), Buenos Aires (5,8), Calcutta (5,7).
- Autoroutes urbaines surélevées
- Le système d’autoroutes urbaines surélevées, inauguré à Bruxelles lors des travaux préliminaires à l’Exposition de 1958, fait école. La ville de Düsseldorf a engagé 50 000 000 DM (soit environ 60 000 000 NE) dans la construction d’une autoroute bâtie sur piliers et qui traversera la cité du nord au sud. L’étage inférieur sera réservé à la circulation dans le sens sud-nord, l’étage supérieur à la circulation nord-sud. Il avait été envisagé d’abord d’aménager plutôt une route souterraine, mais la dépense, nettement supérieure, a fait abandonner le projet.
- p.522 - vue 525/558
-
-
-
- Une branche nouvelle de la psychologie sociale
- Le développement des petits groupes
- 2. Les facteurs de cohésion 0>
- Il est d’observation commune que des petits groupes, identiques quant à leur taille, leurs objectifs, les activités des membres, peuvent différer considérablement en ce qui concerne le désir et la volonté d’être "ensemble, le sentiment de la solidarité, 1’ « esprit de corps ». Dans certains groupes, les absences sont rares, chacun aime collaborer avec les autres, les interactions sont nombreuses. Dans des groupes similaires, l’absentéisme est chronique, la coordination des efforts est insuffisante, comme si le groupe était malade et se trouvait à chaque moment proche de sa désintégration. Pour rendre compte de ces phénomènes, la psychologie sociale utilise le concept de cohésion : elle parle donc de groupes dont la cohésion est élevée, de groupes dont la cohésion est faible, de groupes enfin qui sont en état de « non-cohésion », c’est-à-dire de désintégration ou de rupture.
- Nous connaissons déjà ce concept (Q et nous savons que la variable à laquelle il correspond est à la fois cause et effet : elle conditionne d’autres variables, comme la progression vers les buts, la densité des communications; elle est elle-même conditionnée et dépend aussi bien des motifs qui ont déterminé la formation du groupe que des événements qui ont marqué son évolution, sa « dynamique ». Quels sont donc les facteurs qui conditionnent la « cohésion groupale » ? C’est à cette question qu’un grand nombre de recherches expérimentales ont tenté de répondre ces dernières années. L’objet du présent article est de synthétiser quelques résultats de ces recherches.
- Le concept de cohésion
- Tout d’abord, il vaut la peine de noter que la psychologie sociale évite d’employer des termes vagues, tels ceux de « moral », d’ « esprit de corps » qui, certes, recouvrent des phénomènes réels, mais sont chargés de préjugés et surtout peuvent difficilement donner lieu à des définitions opérationnelles. Il est évident qu’il ne sert à rien d’expliquer la cohésion par 1’ « esprit de corps » ou par le « bon moral » ; ce serait expliquer obscurum per obscurius. La définition même du concept doit tenir compte de la conceptualisation générale utilisée en psychologie des groupes, laquelle détermine, nous l’avons vu, des variables structurales et dynamiques. Nous verrons donc Festinger, Schachter et Back définir dans un article classique (i95o) la cohésion par les notions de champ et de forces; elle se présentera alors comme un état d’équilibre tel que les membres désirent rester dans le groupe et participer à ses activités : plus exactement comme le champ total, ou résultant, des forces qui agissent sur les membres pour les induire à demeurer dans le groupe. Une telle définition, a l’avantage, au surplus, de réunir les aspects individuels et collectifs de la cohésion, qui est bien une réalité à double face : les individus qui ont une valence positive pour le groupe, le groupe lui-même qui induit cette valence.
- Une fois cette définition opérationnelle posée, le problème est de déterminer expérimentalement quelles sont les sources des forces dont la résultante induit l’individu à rester dans le groupe. Mais la détermination des sources de cohésion demande d’abord une analyse de la nature du phénomène d’intégration
- lui-même.
- \ '
- 1. Voir : Le ' développement des petits groupes : 1. Variables fondamentales, La Nature, novembre 1960, p. 465.
- Nature de la cohésion : motivations individuelles et propriétés du groupe
- Il ne saurait exister de cohésion si l’individu ne se trouvait en groupe et n’avait quelque notion des propriétés du groupe vis-à-vis duquel il réagit plus ou moins favorablement. C’est pourquoi l’analyse du phénomène de cohésion doit tenir compte, d’une part des motivations (besoins, désirs, etc.) de l’individu, et d’autre part des propriétés du groupe. Une conformité des motivations et des propriétés est nécessaire. Il est bien évident que l’organisation, les activités d’un club doivent nous satisfaire pour que nous y restions : s’il arrive que nous nous sommes leurrés, ou qu’il n’y a plus concordance entre nos désirs et la vie du club, nous sommes tentés de le quitter.
- On trouve chez Festinger (1951) la classification suivante des diverses motivations initiales qui poussent un individu à appartenir à un groupe :
- — Motivations vers le groupe comme moyen d’atteindre des buts individuels importants;
- — Motivations vers les activités mêmes du groupe, qui est alors une /in;
- — Motivations visant les autres membres comme tels.
- Parmi les motifs de la première catégorie peuvent figurer le
- besoin de sécurité, la nécessité d’acquérir, par l’intermédiaire du travail en groupe, une formation professionnelle ou sociale, ou encore le désir de s’affirmer socialement, dans le cas où le groupe bénéficie d’un certain statut dans la société (être membre de tel club « chic », parce que cela « vous pose »). N’oublions pas aussi qu’il existe une participation forcée à de nombreux groupes institutionnels (équipes, comités) qui font partie de notre univers professionnel et, partant, vital. Le groupe devient une fin lorsque les activités mêmes qu’on y pratique sont désirées en soi : jeux, discussion par « plaisir de discuter », action politique. Enfin, il arrive que l’on participe à la vie d’un groupe parce qu’on y rencontre des individus avec lesquels on a des liens d’amitié, qui nous sont « sympathiques » : il s’agit bien là de motivations interpersonnelles, visant les « autres » comme tels. Bien entendu, ces trois types de motivations ne sont pas nettements distincts, et Festinger admet en particulier (ce qui, d’ailleurs, a été vérifié expérimentalement) que l’attrait de relations interpersonnelles satisfaisantes est nécessaire dans tous les cas : sans un minimum d’attirance vers les « autres membres », aucun groupe ne pourrait avoir de l’influence sur ses participants.
- Il est évident qu’il est difficile de parler des propriétés du groupe d’une façon absolue : ces propriétés sont partiellement dépendantes de la signification qu’elles revêtent pour l’individu. Toutefois, il est possible de classer les divers aspects structuraux d’un groupe qui, soit au départ, soit à un moment donné de son « existence », peuvent être conformes à des motivations individuelles : ce sont essentiellement son mode d’organisation (régions), les normes, le système d’autorité, sa position dans la communauté. Les auteurs insistent particulièrement sur l’importance des normes et du type de leadership (autorité).
- Les « normes » constituent, on le sait, des règles de conduite, des « standards » de comportement consistant en modèles, valeurs, etc. L’action de groupe demande une complémentarité
- p.523 - vue 526/558
-
-
-
- 524
- des attitudes et en particulier des rôles. Il nous est difficile de nous comprendre, de donner la même signification à nos paroles et à nos gestes respectifs, si nous ne connaissons pas les uns et les autres les systèmes de référence qui régularisent ces paroles et ces gestes.
- C’est pourquoi, lorsqu’un groupe se forme, les membres qui ont déjà « quelque chose » en commun et qui, en particulier, partagent des normes ou des valeurs communes sont déjà plus cohésifs que s’ils différaient grandement sur ce point. Toutes choses égales par ailleurs, les travaux de Thrasher et de Whyte sur les gangs ont établi que plus il y a de normes et de standards partagés, plus est grande la cohésion résultante du groupe, et inversement. L’émergence de normes propres au groupe, quelle qu’en soit la cause, favorise toujours l’intégration groupale, si tant est que l’individu les perçoit favorablement.
- En ce qui concerne le rapport entre le style de leadership et la plus ou moins grande cohésion du groupe, il faut se référer à d’intéressants travaux de Cattell (iq5i), de Preston et Heinlz (1949) et de Hare (1953). Selon Cattell, un groupe est d’autant plus cohésif que le leader augmente ce qu’il appelle la « syn-lalité » du groupe, c’est-à-dire une sorte d’identité des perceptions des membres vers un but commun. Quand un leader satisfait les membres, il induit par là même chez eux des forces positives d’appartenance. Nous aurons l’occasion, dans un article consacré plus spécialement aux fonctions de conduite dans les groupes, de préciser quels styles de leadership sont, selon les cas, perçus comme satisfaisants par les membres. Disons seulement que les expériences de Preston et Ileintz, qui utilisaient des troupes de boy-scouts, de même que celles de Ilare, avec des groupes de discussion, établissent que les leaders-participants, « centrés sur le groupe », induisent plus de satisfactions que les leaders autoritaires.
- Bien entendu, les propriétés du groupe et les motivations individuelles sont en interaction tout au long du développement groupal. L’existence préalable de normes partagées,, la perception d’un climat favorable provoque au départ un élément de cohésion, dès lors que le groupe peut satisfaii'e des motivations essentielles. Plus le groupe se structure en créant des normes et des systèmes satisfaisants, plus l’individu est motivé, attiré par le groupe. C’est alors que le groupe pourra modifier des attitudes individuelles, créer aussi de nouveaux motifs d’appartenance. La cohésion appelle la cohésion. Mais ce processus n’est pas irréversible : si l'attraction qui émane du groupe peut augmenter, elle peut aussi diminuer, jusqu’à la désintégration.
- Attraction interpersonnelle et attraction groupale
- Nous sommes ainsi amenés -à considérer ce phénomène d’attraction, qui semble bien fondamental : l’analyse de la nature du fait « intégration » conduit en effet à chercher au sein de ce phénomène les sources dynamiques de cohésion. Les facteurs de cohésion se ramènent alors objectivement aux facteurs d’attraction. Plus les forces d’attraction seront grandes, plus l’individu sera « accroché » par le groupe, plus la « valence » du groupe pour l’individu sera élevée. Cartwright (i953) établit nettement que la mesure expérimentale de la cohésion ne fait qu’un avec la mesure de l’intensité des forces d’attraction. Mais, d’après ce qui a été dit plus haut relativement à l’importance des motivations interpersonnelles dans la formation des groupes, il semble qu’il faille considérer deux types essentiels d’attraction : le premier concerne l’attrait qui émane des « autres membres » comme tels ; le second concerne l’attrait du groupe perçu en tant que totalité relativement impersonnelle. C’est pourquoi l’investigation expérimentale a étudié différentiellement l’attraction interpersonnelle et l’attraction groupale, tout en les considérant comme deux aspects
- d’un même phénomène, l’attirance émanant du groupe. Dans un cas le groupe attire par les individus qui le composent, dans le second par son existence même et par ses buts.
- Lorsque se crée un groupe informel et spontané d’amis, il est clair que les sources d’attraction pour le groupe dérivent des attraits interindividuels. Mais que se passe-t-il lorsque le groupe est constitué plus ou moins institutionnellement, et rassemble des gens qui ne se connaissent pas et sont plus ou moins condamnés à vivre ensemble, quelle que soit l’identité de leurs buts ? Dans son ouvrage intitulé The Human Group (1960), G. Homans émet l’hypothèse que les interactions qui s’établissent alors nécessairement entre les membres du groupe tendent normalement à faire naître et croître l’attraction interpersonnelle. Cette hypothèse, dérivée de l’étude effectuée antérieurement par l’équipe de Mayo à la Western Electric Company (expérience de la « salle d’observation du câblage des centraux téléphoniques »), est formulée de la façon suivante : toutes choses égales par ailleurs, si la fréquence des interactions entre deux ou plusieurs personnes augmente, le degré de leur attachement les uns aux autres s'accroît dans une même proportion. Elle a été vérifiée systématiquement par Bovard (ig5i), qui compara deux groupes formés d’étudiants. Dans l’un, le maximum d’interactions était suscité par l’utilisation d’un leadership démocratique; dans l’autre, un leadership très autoritaire réduisait au minimum les interactions entre membres. Des tests sociométriques montrèrent que les étudiants du premier groupe avaient beaucoup plus de relations amicales que ceux du second. Cependant, d’autres expériences sembleraient indiquer que des interactions déplaisantes mènent plus à l’inimitié qu’à l’amitié. C’est que, comme Homans lui-même le souligne, la loi selon laquelle l’interaction provoque l’attraction interpersonnelle n’est valable, comme toute loi, que « toutes choses égales par ailleurs ». Ainsi, les rapports hiérarchiques de soumission-dépendance peuvent induire, chez le subordonné au moins, une inhibition à la sympathie : un supérieur et un subordonné risquent moins d’entrer en amitié que deux personnes de même statut. Un autre élément de perturbation est inhérent à la dynamique du groupe lui-même : si le groupe ne parvient pas à réaliser ses desseins, des relations d’hostilité tendent à se substituer aux relations amicales.
- L'attraction groupale au sens strict trouve ses sources dans les caractéristiques que revêt le groupe en tant que tel aux yeux de l’individu : organisation, structure, buts, etc. Cette attraction existe d’emblée lorsque l’individu est primordiale-ment motivé par le groupe lui-même, en raison de la sécurité qu’il y trouve, du prestige du groupe, voire même du statut personnel qu’il peut obtenir dans le groupe. Il est plus intéressant de noter qu’un groupe qu’on a rejoint pour des raisons d’attraction interpersonnelle, ou simplement parce qu’il y a coïncidence entre les buts du groupe et les buts individuels, finit en général par devenir attractif en lui-même. Dans un groupe de travail ou de loisir qui « fonctionne » bien, on doit observer un accroissement régulier, jusqu’à un état d’équilibre, de la valence du groupe : et on l’observe effectivement si certaines conditions sont réalisées.
- Une première condition réside dans la perception d’une relative uniformité des normes. Comme dit Festinger, le fait de percevoir que les normes auxquelles on adhère sont partagées « crée une uniformité et des rapports agréables ». Une autre condition, établie par Deutsch (Effets de la coopération et de la compétition sur les processus de groupe, 1949)1 est l’établissement de rapports de coopération. Son expérience portait sur des groupes d’étudiants, dont les uns étaient rendus compétitifs par une information selon laquelle chaque participant serait sanctionné en fonction de ses efforts pour parvenir au but, et dont les autres étaient rendus coopératifs par une information selon laquelle chacun serait noté en fonction du résultat global du groupe : les groupes « coopératifs » se révélèrent nette-
- p.524 - vue 527/558
-
-
-
- ment plus attractifs pour les membres, montrèrent davantage •de cohésion, et suscitèrent davantage de relations amicales. Un facteur important est évidemment le sentiment d’une progression vers les buts : le simple fait que le groupe « travaille » contribue à le valoriser, à lui donner une sorte de statut aux yeux du participant.
- Attraction « interpersonnelle » et attraction « groupale » contribuent à se renforcer l’une l’autre. D’une part, en effet, des amitiés préalables, de même que des amitiés nées des processus d’interaction tendent à renforcer la valence du groupe, son attrait, ne serait-ce qu’en raison de la tendance qu’ont des gens qui s’entendent bien à mieux travailler ensemble (autre hypothèse de Homans). Back constata expérimentalement qu’un groupe composé d’individus « adirés les uns par les autres » est plus tenace, progresse mieux, donne lieu à plus de discussions fécondes, qu’un groupe composé d’individus indifférents ou peu enclins à la cordialité. D’autre part, lorsque le groupe est suffisamment attractif, les interactions deviennent plus grandes entre les membres, ce qui crée, nous le savons, des occasions plus nombreuses d’attraits interindividuels.
- En somme, les deux types d’attraction sont bien des aspects complémentaires d’un même phénomène dont les sources se trouvent dans les facteurs d’interaction, de progression, de coopération, de pression vers la conformité. Ajoutons-leur cet autre, parfois très important : les attaques qui émanent de l’extérieur ont souvent pour résultat d’augmenter l’attraction du groupe et, partant, d’en renforcer la cohésion. Quitter un groupe, lorsque précisément celui-ci paraît être injustement attaqué, ressemblerait à une trahison.
- Cohésion et conflits : les expériences de J. R. French
- Il a été dit précédemment que l’existence de rapports de « coopération » rend le groupe plus attractif que l’existence de rapports de « compétition ». S’ensuit-il que la compétition ne puisse, dans certains cas, être un facteur de cohésion ? La coopération elle-même est-elle exclusive de conflits? C’est à ces questions que permettent de répondre, au moins partiellement, des expériences de J. R. French devenues à présent classiques. Elles paraissent établir, en particulier, que la compétition et le conflit ne sont pas toujours négatifs et destructeurs, mais peuvent être stimulants et positifs; ils ne sont un facteur de « rupture » ou d’ « éclatement » du groupe que si d’autres éléments interviennent, s’il y a par exemple de graves désaccords sur les buts collectifs.
- Les expériences de French ont porté sur 16 groupes de 6 personnes : 8 groupes étaient constitués d’étudiants qui ne se connaissaient pas auparavant et ne s’étaient même pas rencontrés avant le début des expériences; chacun des autres groupes était formé d’une équipe d’étudiants qui se connaissaient depuis longtemps, avaient déjà leur « chef » et avaient vécu ensemble quelques jours avant l’étude expérimentale (groupes appartenant à des clubs sportifs de basket ou d’athlétisme). On peut considérer que ces 8 derniers groupes étaient organisés, les 8 premiers étant inorganisés. Le but de French était de mettre ces groupes deArant une situation identique de « frustration » arrangée de la façon suivante : on leur disait d’abord que le propos de l’expérience était de savoir avec quelle rapidité le groupe était capable de résoudre un problème; on leur présentait alors trois problèmes (dont l’un était d’ordre intellectuel, l’autre d’ordre moteur, le troisième à la fois intellectuel et moteur), en leur expliquant qu’il fallait résoudre l’un des trois le plus vite possible; il était ajouté qu’il était permis de passer d’un problème à l’autre, si des difficultés se présentaient, mais que tous les membres du groupe devaient être attelés à la solution d’un même problème. Or, les problèmes avaient été choisis
- de manière à être insolubles et, partant, d’être à l’origine d’une frustration. Ajoutons que 45 minutes étaient allouées pour la recherche de la « solution ».
- French voulait étudier les répercussions de la situation de frustration en fonction du caractère « organisé » ou « non organisé » du groupe. Des observateurs codaient les catégories de comportement observé, les paroles échangées et en particulier les étals de motivation, frustration, solidarité, interdépendance des membres toutes les 3 minutes, etc. Une fois les séances terminées, des questionnaires furent remplis par les participants, et les résultats obtenus furent confrontés avec les épreuves statistiques habituelles pour que soit validée leur signification (2).
- Quels furent ces résultats? Ils indiquèrent des, différences de comportement considérables dans chacune des catégories. Dans les 8 groupes organisés (Go), on observa des sentiments de frustration croissants, l’apparition de fréquentes conduites agressives des individus les uns contre les autres, des tentatives du leader, souvent vouées à l’échec, pour remettre le groupe sur la voie de la solution ; mais jamais la désorganisation ne durait longtemps et les membres étaient toujours lucides sur leur propre comportement (« Allons, cessons de nous disputer », ou « J’ai tort de vous critiquer », disaient-ils). Une sorte d’autorégulation permettait à la désorganisation de n’être que temporaire, et surtout tout le monde continuait à être très intéressé à la réussite finale. Dans les 8 groupes non organisés (Gno), les sentiments de frustration furent moindres, et moindre l’agressivité interpersonnelle; en général, il n’y eut pas de changement d’un problème à un autre ; ce qui fut surtout observé, ce fut la constitution de factions, soit que deux « cliques » s’opposent d’une façon non coopérative, soit que quelques individus travaillent pendant que les autres regardent et critiquent; enfin, peu d’attitudes de solidarité, impliquant un sentiment du « nous », furent observées.
- Les membres de chacune des catégories de groupes présentèrent de grandes similitudes de conduite réactionnelle à la situation de frustration. Le fait d’appartenir à un Go tendait à susciter des attitudes de frustration, agression, motivation, lucidité; le fait d’appartenir à un Gno tendait à susciter des attitudes d’indifférence, et surtout l’acceptation de l’apparition de factions. D’une façon générale, les difficultés dues au caractère insoluble des problèmes étaient plus péniblement ressenties par les Go que par les Gno.
- French a expliqué cette différence, ainsi que la similitude des réactions dans chaque catégorie de groupes, en disant : a) que l’organisation tend à susciter une convergence initiale des désirs d’appartenance, d’interdépendance, de participation égale et de liberté sociale; b) que l’accroissement de cette liberté accroît les possibilités d’agression; c) que si la motivation dépend de l’acceptation des instructions, de l’intérêt intrinsèque du problème et de l’existence de buts, elle s’accroît avec l’accroissement des interactions et du sentiment de solidarité; d) qu’enfin, plus est grande la motivation, plus est grande la frustration, et par conséquent, en vertu d’une loi bien connue, plus grande l’agression. Dans les Go s’institue une dialectique telle que les conflits et, paradoxalement, la cohésion augmentent, en même temps que la frustration est plus grande; dans les Gno, une dialectique inverse s’institue : les gens sont de moins en moins motivés, de moins en moins fnistrés, se sentent de moins en moins égaux et libres, et sont de moins en moins agressifs malgré la présence de factions.
- Quoi qu’il en soit, on peut tirer de ces expériences une conclusion importante : deux types de « rupture » peuvent intervenir dans un groupe, l’un défavorable à la cohésion, l’autre favorable. Dans les Go, il n’apparaît que des désorga-
- 2. Sur les procédures expérimentales et leur validation, voir notre article : La psychologie des petits groupes ; 2. La méthode scientifique, La Nature, septembre 1960, p. 373.
- p.525 - vue 528/558
-
-
-
- 526
- nisations mineures, significatives de l’implication des membres, de leur identification au groupe : c’est pourquoi les agressions interpersonnelles, les fuites temporaires hors du champ (parler d’autre chose, etc.), les moments dé désorganisation générale n’empêchent pas le groupe de travailler solidairement pour essayer de parvenir au but. Dans les G,no on observe des phénomènes de « clivage groupal », voire d’éclatement proprement dit. Il convient donc, d’une façon générale, de bien différencier la rupture faible (souvent positive), et la rupture forte, ou éclatement (toujours négatif).
- Facteurs d’éclatement du groupe
- »
- De nombreuses études ont eu pour objet de déterminer quels sont les facteurs spécifiques de la baisse d’attraction et finalement de l’éclatement du groupe (rupture « forte »). Il est évident que l’absence de conditions propres à assurer la cohésion du groupe est une raison de rupture. Pourtant, les chercheurs ne se sont pas contentés de cette évidence logique : aux travaux ayant pour but de manipuler les variables directement inductrices d’attraction et de cohésion s’ajoutent ceux qui manipulent des variables supposées avoir une causalité directe sur la désintégration groupale.
- Pour qu’un individu se décide à quitter un groupe qu’il a rejoint volontairement, il faut que les forces qui l’attiraient vers le groupe soient devenues plus faibles que celles qui le poussent à le fuir. Et si ce phénomène se produit chez tous les membres, le groupe se volatilisera. Parmi les raisons qui peuvent pousser l’individu à fuir le groupe, voici celles qui ont donné lieu à une investigation systématique.
- D’abord, la divergence d'opinion relativement aux buts et aux moyens, lorsque l’évolution dynamique du groupe ne mène pas à une uniformisation suffisante (Gérard, 195/1). En soi, une divergence initiale peut être résorbée, soit par modification de l’opinion individuelle sous l’influence du groupe ou d’autres membres, soit par une modification des opinions primitivement partagées. Mais, si une évolution suffisante vers l’uniformité ne se produit pas, des germes de rupture apparaissent.
- Il faut invoquer ensuite ce que Cartwright appelle les expériences déplaisantes, telles que l’inaptitude à jouer le rôle nécessaire, le sentiment d’échec, la présence d’individus à tendances dominatrices, une trop vive compétition. On sait qu’une des résultantes naturelles de la vie de groupe est que ses membres sont appelés à assumer des responsabilités : quelques-unes d’entre elles (faire des exposés, écrire des lettres ou conduire une discussion) peuvent être considérées comme des devoirs pour lesquels ils ne sont pas convenablement préparés (travaux d’Horwitz, 1953). La tendance dominatrice d’autres membres a été décrite comme facteur de rupture par Scheidlinger (xg53) dans l’étude « sur le terrain » de comités de discussion. Quant à l’influence néfaste d’une compétition interne trop féroce, elle a été notamment mise en évidence par Pepitone et Kleiner (1957) dans leurs travaux sur les effets de la crainte sur la cohésion.
- Mais les récents travaux ont surtout mis l’accent sur les facteurs qui provoquent des troubles dans les processus de communication entre les membres. Nous retrouverons dans un prochain article le problème des « communications » dans les petits groupes. Disons seulement que tout ce qui entrave la transmission de « messages », leur bonne interprétation, a une influence négative sur la cohésion. Quand les individus communiquent peu, ou cessent de communiquer, des attitudes stéréotypées apparaissent; chacun développe sans tenir compte d’autrui ses propres systèmes de perception, et il naît ce que Newcomb appelle une « hostilité par isolement », véritable cercle vicieux d’attitudes défensives et agressives. Un cas particulier est le phénomène d’ « ignorance commune » étudié par
- Shank : personne n’a une opinion donnée, mais chacun croit que tout le monde l’a. Parmi les facteurs de distorsion des communications, on trouve aussi l’image erronée que peuvent se faire l’un de l’autre « émetteur » et « récepteur ».
- *
- * *
- Tels sont quelques-uns des résultats des expériences poursuivies notamment par les chercheurs qui se réclament de la « dynamique des groupes, relativement à la cohésion groupale, envisagée comme « conditionnée » ». Ces résultats ont une signification à la fois théorique (quant à la représentation qu’on peut se faire du fonctionnement des groupes) et pratique (quant à l’organisation de groupes de travail, etc.). On notera l’intérêt de l’abandon de notions aussi obscures que celles d’« esprit de corps », « volonté commune ». Mais bien des questions demeurent encore sans solution. Ainsi, les travaux publiés à ce jour ne disent pas très clairement si les attractions qui émanent de diverses sources s’ajoutent arithmétiquement pour accroître l’attraction totale; ils ne disent pas plus clairement comment elles se combinent pour former une seule valeur. Gross et Martin (1952) formulaient déjà des critiques à ce sujet, et il ne semble pas qu’elles aient perdu de leur valeur. Il est même possible de se demander si la notion de force, ou de résultante de forces a un caractère aussi scientifique qu’il paraît. Ainsi que le remarque G. de Montmollin (3), la notion de « force psychologique » se confond dans l’esprit de la plupart des chercheurs avec le désir qu’ont les membres de rester dans le groupe : aussi, « la relation entre la cohésion (attribut du groupe) et le désir d’être membre (attribut des individus) n’a pas été bien analysée ». Et, certes, il conviendrait d’envisager mieux comment se distribuent les motifs individuels, l’influence de leur nature, au lieu d’envisager seulement une moyenne quantitative. Mais ces difficultés n’enlèvent rien, selon nous, à l’intérêt des tentatives qui ont voulu donner une base expérimentale à des observations parfois communes. Une théorie satisfaisante de la cohésion groupale n’existe pas encore, pas plus qu’une théorie satisfaisante de la vie des groupes. Mais les questions qui se posent à la suite des études expérimentales peuvent contribuer à la construction d’une telle théorie.
- (à suivre). Jean-Claude Filloux,
- Agrégé de T Université.
- 3. Réflexions sur l’étude et l’utilisation des petits groupes, par G. de Mont-mollin, Bulletin du CERPE, 1959, n° 4 et 1960, n" 2. Signalons qu’il n’existe aucun ouvrage de langue française sur la psychologie des groupes dans son ensemble.
- L’industrie de l’aluminium en Chine
- Pendant les années qui ont immédiatement précédé la dernière guerre mondiale et après le début des hostilités, les Japonais avaient commencé à édifier et exploiter en Chine un certain nombre d’usines d’aluminium. A partir de 1945, cette industrie tomba en sommeil et la plupart des usines japonaises furent détruites ou abandonnées. Les seules installations qui subsistaient en 1954 étaient l’usine de Nanting pour l’alumine et Fushun, en Mandchourie, pour l’électrolyse. Leur capacité a été augmentée depuis lors et les chiffres de production se sont établis en 1958 à 60 000 t d’alumine et 27 000 t de métal. Entre temps une petite usine d’une capacité de 1 500 t par an a été construite près de Pékin. Elle serait le prototype d’une série de a micro-usines » de type familial, destinées à assurer un démarrage rapide de l’industrie de l’aluminium, en attendant des installations à plus grande échelle. Les objectifs inscrits au Plan, pour une date qui n’a pas été précisée, seraient 280 000 à 300 000 t de métal par an.
- Y. M.
- p.526 - vue 529/558
-
-
-
- L’ORGUE
- et ses multiples possibilités
- 3. La facture d’orgues des origines à nos jours
- La. perfection du corps sonore que nous avons décrit dans les deux précédents acticles constitue l’aboutissement d’une longue évolution (x). Tout en conservant une physionomie originale, tant par l’architecture du buffet que par la composition et les sonorités, les instruments des différents pays ont profité des découvertes effectuées çà et là, et leurs progrès sont parallèles.
- Dans l’histoire de l’orgue, il est possible de délimiter trois périodes essentielles. La première, la plus longue, est une suite de recherches et d’expériences qui aboutiront au xvn® et au xvme siècle, en Allemagne comme en France, à une réalisation admirable : l'orgue classique. Le xix® siècle a connu des principes différents qui nous paraissent maintenant discutables, mais des progrès considérables ont été accomplis dans le domaine de la facture de cet orgue romantique. Enfin, le xxe siècle voit naître une brillante synthèse de ces deux conceptions, qu’on nomme parfois l’orque néoclassique.
- Des origines à l’orgue classique
- Il est bien difficile d’assigner une origine précise à l’instrument : dérive-t-il de la flûte de Pan, de la « flûte » double à anche des Grecs ou de l’orgue à bouche des Chinois, simple
- |--tergwst-
- Fig. 1. — Principe de Z’hydraulis romain, selon Héron d’Alexandrie.
- Grâce à la pompe à bras P, l’air est emmagasiné dans une sorte d’entonnoir E, partiellement rempli d’eau et communiquant avec la cuve G grâce à des trous visibles à sa partie inférieure. Le vent, porté à une pression égale à la différence des niveaux de l’eau dans l’entonnoir et dans la cuve, peut alimenter les tuyaux grâce au sommier R. La pompe était pénible à manœuvrer, et d’autres auteurs en mentionnent deux. Selon Vitruve, l’orgue aurait comporté plusieurs registres alimentés chacun par l’intermédiaire d’un robinet (D’après Jean Perrot).
- réservoir où souffle l’exécutant et sur lequel sont disposés des tuyaux de bambou à anche libre P
- Un perfectionnement notable, un véritable sommier permettant de faire parler à volonté un tuyau ou un autre, est à l’origine de l’orgue romain (hydraulis) destiné à mener grand bruit lors des jeux du cirque ou à distraire quelque riche amateur :
- 1. L’Orgue et ses multiples possibilités ; 1. Le matériel sonore, La Nature, octobre 1960, p. 401 ; 2. L’alimentation et la mécanique, novembre 1960, p. 470.
- Fig. 2. — Un orgue portatif médiéval d’après une miniature du XVIe siècle.
- (Photo Larousse).
- des clefs tirées à la main permettaient à l’air emmagasiné sous la pression de l’eau de s’introduire dans les tuyaux de bronze (fig. i). Plus tard, on devait remplacer les corps de pompe de cette soufflerie hydraulique par des soufflets à bras. Une découverte archéologique fondamentale effectuée à Aquincum (Hongrie) montre un petit orgue du m° siècle après J.-G. présentant déjà des registres à glissière en bronze : le sommier comportait donc l’essentiel des organes du sommier mécanique actuel.
- Par la suite, l’orgue devait passer de son utilisation profane à un rôle sacré : à vrai dire, il s’agit d’instruments assez petits, ne comportant guère que 16 à 20 notes (Limoges, Fécamp ou Reims), mais une dizaine de tuyaux à bouche parlent ensemble pour chaque touche; loin de s’ètre attaché à diviser les sonorités, le Moyen Age semble avoir voulu renforcer l’effet total en multipliant le nombre de tuyaux relatifs à chaque note. L’instrument n’est alors qu’une vaste mixture, fort criarde sans-doute.
- A côté du grand orgue, des instruments plus restreints apparaissent au xine siècle, destinés à soutenir des ensembles profanes ou à égayer de nobles personnages. Le portatif, très peu encombrant, se jouait d’une seule main, l’autre actionnant le soufflet (fig. 2) : il prenait place dans un ensemble instrumental aussi bien au château que chez les ménestrels, et fîgu-
- p.527 - vue 530/558
-
-
-
- 528
- Fig. 3. — Les trompes de l’orgue de Saint-Bavon de Haarlem.
- Cette peinture de Pieter Jansz Saenredam (1636) est un des rares documents qui montrent l’aspect que pouvait avoir un orgue de la fin du moyen âge ; remarquer les énormes tuyaux de « trompes » bien séparés
- du buffet.
- rait par la musique indifféremment le Paradis ou l’Enfer dans les Mystères. Plus important, le positif se touchait des deux mains, un aide étant chargé de manœuvrer les soufflets : ses usages étaient à peu près semblables. Tout comme le grand orgue, portatif et positif possèdent un buffet rehaussé de peintures et de dorures précieuses qui enrichissent même les tuyaux; déjà les plus gros tuyaux trouvent parfois place dans des tourelles latérales.
- Au xve siècle, l’orgue se répand dans les églises, tandis qu’il est progressivement remplacé dans les demeures seigneuriales par le luth et l’épinette. Il s’agrandit de plus en plus, car c’est à cette époque que remonte l’invention de l’abrégé, et le facteur lui adjoint quelquefois le pédalier inventé au xive siècle et introduit en France en 1425 à la cathédrale d’Amiens. A vrai dire, ce clavier ne sert d’abord qu’à actionner par tirasses les basses notes du clavier manuel, puis de grandes « trompes » atteignant quelquefois 32 pieds (fig. 3). L’orgue s’enrichit aussi d’un second clavier, le positif, qui commande des jeux déjà placés dans le dos de l’organiste. La grande mixture médiévale subsiste toujours, divisée cette fois en quelques registres. A côté de ce plein-jeu, les organiers aiment à placer quelques jeux de détail, flûtes ou jeux d’anches. Cet ensemble déjà impo-
- sant, comptant quelquefois 2 ooo tuyaux répartis en 20 registres dont les plus graves atteignent 2.4 pieds (les claviers commençaient souvent au FaJ, prend place dans un vaste buffet de style gothique dont la cathédrale de Strasbourg offre un magnifique exemple datant de la fin du xve siècle (fig. 4). Pour le protéger de la poussière et de l’humidité, on referme sur lui quand il 11e fonctionne pas des volets ornés ou de splendides toiles peintes (voir fig. 3).
- Le xvie siècle voit se cristalliser toutes les recherches de cette période de transition en des modèles mieux définis. Sans connaître de changement vraiment essentiel depuis le siècle précédent, l’instrument s’enrichit et se perfectionne. On voit apparaître couramment des jeux d’anches (régale, trompette ou sacqueboute, cromorne et voix humaine), et des jeux « estoup-pés » (bouchés) en provenance de Hollande. Le nombre de claviers s’étend quelquefois jusqu'à trois sans compter la pédale, et il n’est pas exceptionnel de rencontrer des instruments de 4o jeux dont les claviers atteignent 4 octaves.
- Le clavier de grand orgue, basé souvent sur le 16 pieds, comprend une vaste mixture, tandis que le positif est sa réplique moins puissante, le clavier de récit étant composé de jeux de solo. QuanL à la pédale, son rôle est peu important et elle 11e possède que des jeux d’anche de 8 pieds destinés à la partie de ténor. C’est en Hollande que la facture d’orgues atteint son
- Fis. 4. — Le buffet du XV* siècle du grand orgue de la cathédrale de Strasbourg.
- Ce magnifique ensemble de 24 pieds en montre devait comporter autrefois des volets peints. Le matériel sonore et la transmission ne datent pas du xve siècle, l’orgue ayant dû être entièrement refait par plusieurs facteurs depuis le xvne siècle. Mais le buffet lui-même est intact. Remarquer sous la tribune les « Roraffen », automates mus primitivement par la soufflerie
- de l’orgue.
- p.528 - vue 531/558
-
-
-
- 529
- apogée au xvie siècle. En voici un exemple remarquable obéissant aux principes que nous venons d’énoncer : il s’agit de l’orgue majeur d’Amsterdam (vers 1570).
- Grand Orgue : Montre 16, Bourdon 16, Montre 8, Prestant 4, Mixture importante, Cymbale.
- Positif de dos : Montre 8, Prestant 4, Octave 2, Mixture, Cymbale, Quintaton 8, Flûte 2, Trompette 8, Douçaine (anche douce) 8.
- Brustwerk (sorte de récit) : Montre 8, Octave 4, Flûte 8, Flûte 4, Flûte 2, Sifflet 1, Cymbale, Trompette 8, Cromorne 8.
- Pédale : Trompette 8, Douçaine 8.
- On trouve des orgues aussi importantes en Allemagne, mais le pédalier est plus développé : comportant fonds et anches de 16 et de 8 pieds, il présente souvent une anche de 4 pieds utile pour jouer les chorals. C’est alors qu’apparaissent les premiers accouplements.
- En France et même en Espagne, l’influence de la facture hollandaise se fait sentir, tandis que les instruments montrent déjà leur physionomie locale qui sera plus marquée encore au xviie siècle. Déjà les écoles se séparent, après s’être longtemps communiqué leurs découvertes grâce aux échanges artistiques si fréquents à cette époque débordante de vie, où l’on pouvait voir le Flamand Oudin Hestre construire l’orgue de la cathédrale de Reims et le Castillan Dominique de Castelbon travailler à celui de Bayonne. A l’orgue synthétique du xve siècle, constitué d’une immense mixture, s’oppose au xvi® siècle un instrument analytique, plus fantaisiste mais plus riche aussi, d’où découleront aux siècles suivants des types tellement différenciés qu’il nous faut les étudier séparément.
- Les orgues classiques
- Voici d’abord l’orgue italien. Restés fidèles à la tradition du xve siècle, les facteurs n’y établissent qu’une seule famille de jeux : celle des principaux dont on construit tous les harmoniques usuels sous forme de mixtures uniquement décomposées, chaque rang de tuyaux étant commandé par un registre. L’ensemble est d’une rondeur et d’une douceur tout à fait inconnue
- Fig. 5. — Le petit orgue de Saint-Vincent d’Avila (Espagne).
- Ce joli instrument comporte, comme presque toutes les orgues anciennes en Espagne, des jeux d’anche en chamade, dont les tuyaux sont horizontaux.
- (Photo J. Lequeux).
- Fig. 6. — Un orgue d'Allemagne du Nord : l'instrument d’Arp Schnitger à Saint-Jacques de Hambourg (vers 1690).
- Ce bel instrument n’a malheureusement pas conservé son emplacement primitif, mais il est par ailleurs absolument intact.
- ailleurs mais peut à peine remplir une vaste nef : veut-on de l’éclat dans une cérémonie grandiose, on s’adresse à des cuivres orchestraux, trompettes et trombones. L’instrument est destiné à de sereines méditations et sa beauté vient de la finesse de l’harmonisation; il ne comporte qu’un seul clavier et un pédalier restreint, et quelques rares jeux de solo (flûte de 4)-
- L’orgue anglais est moins riche encore et beaucoup moins parfait : sur un seul clavier manuel se groupent seulement quelques fonds et mixtures, et le pédalier est une rareté. Ce n’est qu’à la fin du xvn° siècle que les facteurs, conscients de la pauvreté de leur instrument, multiplient les claviers. Peu de temps après ils inventent les gambes, puis la boîte expressive. Mais en Angleterre l’orgue n’a jamais joué un rôle exceptionnel comme en Allemagne et en France.
- L’orgue espagnol a bénéficié au xvi® siècle des acquisitions de l’école flamande. Bien que ses claviers soient moins bien individualisés qu’en Flollande ou en Allemagne du Nord et les jeux moins nombreux, l’instrument est riche en sonorités éclatantes et en anches incisives dont plusieurs sont postées en chamade (fig. 5). Le pédalier rudimentaire qui s’est développé asez tard comprend cependant plusieurs jeux. Comme en Italie, on trouve souvent deux orgues disposées de part et d’autre du choeur, ce qui permet des effets dont les compositeurs ne se sont pas privés. Au xviii6 siècle, les facteurs s’attacheront également aux sonorités de fines mixtures qui susciteront une musique toute de délicatesse et de mesure.
- Aux Pays-Bas et en Flandre, la façture continue à se développer mais subira au milieu du xvn° siècle, par un juste retour des choses, l’influence de l’art français : certains facteurs dont les Le Picard, originaires de Noyon, iront s’établir à Liège vers 1680 et y apporteront l’invention des claviers de récit et d’écho à la manière française
- p.529 - vue 532/558
-
-
-
- 530
- L'orgue allemand. — C’est cependant en Allemagne que seront construits au xvne siècle les instruments les plus complets, dont la facture s’est orientée très différemment de celle de la Hollande (le pédalier est ici d’une prodigieuse richesse) et surtout de la France.
- En Allemagne du Nord, les facteurs célèbres pullulent et installent dans toutes les villes des instruments gigantesques (fig. 6) : l’orgue ne sert pas seulement à accompagner la foule, mais l’organiste doit préluder au choral et jouer maintes fantaisies, toccatas, préludes et fugues devant un auditoire passionné. Il lui arrive même de donner des concerts spirituels ou de participer avec un confrère étranger à des joutes musicales demeurées célèbres.
- Fig. 7. — L’orgue de la Frauenkirche de Dresde ( Gottfried Silbermann, 1736).
- Les principaux progrès de la facture portent sur le pédalier, qui comprend, outre des fonds de 3a à i pied, une grosse mixture et des anches puissantes dont une de 2 pieds pouvant •chanter un choral à l’alto et même au soprano. Il permet les •effets les plus variés et est capable de soutenir le tutti des claviers accouplés; sa commodité est si grande que le pédalier « à l’allemande » qui permet l’exécution des traits les plus rapides est encore exclusivement employé aujourd’hui. Les claviers manuels fournissent maintenant des plans sonores bien différenciés, quoique l’équilibre des pleins-jeux presque trop riches en tuyaux soit souvent moins bon qu’en France. Au grand orgue basé sur les 16 pieds répond VOberwerk situé en haut du buffet, sa réplique à l’octave supérieure. Le Rückpositif, •ou positif de dos, joue un peu le même rôle que le positif français, tandis que le Brustwerk plus faible est une sorte de clavier d’écho.
- Particulièrement remarquable est la profusion des jeux de détail, fonds doux d’une grande beauté et mixtures fines de solo dont nous n’avons pas l’équivalent en France. Tous ces jeux parlent avec promptitude et sont traités avec une extrême habileté. Par contre, les anches nous semblent un peu acides
- et de sonorité trop particulière pour porter beaucoup. Mais l’ensemble des pleins-jeux sonne avec une clarté admirable, surtout quand il est soutenu par les anches de pédale. Tout était possible à l’organiste titulaire d’un tel instrument auquel un Buxtehude et un Boelim ont confié nombre de tumultueuses fantaisies. Il en subsiste encore d’admirables exemplaires en Hollande du Nord et en Allemagne, dont les plus beaux sont sans doute dus à Arp Schnitger (1648-1720).
- En même temps se développait en Bavière et en Autriche un orgue bien plus petit, dont la douceur des timbres et la luminosité font la réputation : l’influence italienne s’y est particulièrement fait sentir.
- En Thuringe comme en Saxe, un certain équilibre s’établit entre les deux tendances, recherchant à la fois l’abondance et la qualité des jeux : c’est cet orgue qu’a connu Jean-Sébastien Bach. Un de ses amis, qui dut bénéficier plus d’une fois de ses précieux conseils, le génial facteur Gottfried Silbermann, construisit en 1786 l’orgue de la Frauenkirche de Dresde (fig. 7), dont voici la composition :
- Grand Orgue : Principaux 16, S, 4, 2 pieds, Mixture et Cymbale, Violes de gambe 8 et 4, Flûte à cheminée 8, Nasard 2 2/3, Tierce 1 3/3, Sesquialtera, Trompettes. 16 et 8.
- Oberwerk : Principaux 8, 4, 2, Mixture, Quintaton 16, Bourdon 8, Flûte 4, Nasard 2 2/3, Tierce 1 3/3, Voix humaine 8.
- Positif de Poitrine (Brustwerk) : Principaux 4, 2, 1, 1/2 pied, Mixture, Bourdon S, Flûte à cheminée 4, Nasard 2 2/3, Cor de nuit 2, Larigot 1 1/3, Chalumeau 8.
- Pédale : Principaux 16, 8, 4, Mixture. Soubasse 16. Bombarde 16, Trompette 8, Clairon 4.
- Tous les claviers s’accouplent entre eux.
- Fig. 8. — L’orgue baroque du couvent des Prémontrés à Die Wiess (Bavière), construit vers 1750 par Dominique Zimmermann.
- Jamais le buffet d'orgue (ou plutôt les buffets) n’a fait autant partie intégrante de l’architecture. La splendeur de ses timbres n’est pas indigne de cette construction hallucinante, mais d’une parfaite unité.
- p.530 - vue 533/558
-
-
-
- Fig. 9. — La console d’un orgue du XVIIP siècle.
- Dans cette admirable planche extraite de L’art clu Facteur d’Orgues, Dom Bedos donne la coupe simplifiée d’un orgue à quatre claviers. Le positif est placé derrière le dos de l’organiste et le buffet principal au-dessus. Remarquer le grand porte-vent et les abrégés de la Pédale, du Grand-Orgue et du Positif, ainsi que le pédalier « à la française » qui a maintenant laissé la place au pédalier « à l’allemande » dont les touches sont beaucoup plus longues.
- Dans cet instrument magnifique, Silbermann a réalisé l’idéal, dans la logique et l’équilibre des jeux, auquel tendaient les efforts de ses prédécesseurs allemands.
- Chaque clavier comprend principaux et mixlures, le Grand Orgue étant basé sur les 16 pieds, l’Ober-werk sur les 8 pieds et le Brust-werk sur les 4 ; si ce dernier contient plus de rangs de principaux que l’Oberwerk, il n’y a rien là que de logique puisque sa tessiture est plus élevée. Les fonds et les anches sont choisis avec un discernement raffiné, et déjà on trouve au Grand Orgue a cornets (décomposé et sesquialtera), un à l’Oberwerk. Les orgues de Silbermann sont sans doute celles qui fournissent à l’œuvre de Bach ses sonorités idéales.
- Tandis que Silbermann construisait ses chefs-d’œuvre en Allemagne centrale et nordique, l’école de facture de la Souabe et de la Bavière était plus florissante que jamais, et maintes orgues du xvme siècle ornent encore les églises baroques de cette région.
- Jamais instrument n’avait autant participé à la décoration grandiose et théâtrale, mais parfaitement équilibrée, de ces nefs inondées de lumière (fig. 8) : orgue d’une somptuosité et d’une fantaisie inouïes, souvent divisé en plusieurs buffets qui sont situés à une grande distance les uns des autres. Le plus remarquable instrument de l’époque est peut-être celui de l’abbaye de Weingarten, en Souabe, qui est dû à Joseph Gabier; il ne comporte pas moins de 6 697 tuyaux dont la plupart sont des tuyaux de mixtures (le Grand Orgue possède 36 rangs de mutations, divisés en 4 registres!). Mais on y trouve aussi tous les représentants des jeux de fonds, même les jeux harmoniques. Ces fonds, qui sont d’une qualité et d’une diversité admirables, constituent à nos yeux la partie la plus intéressante de l’instrument.
- L'orgue français. — Si l’orgue a pris au xvne et au xviii® siècle une extension extraordinaire en Allemagne, il en est de même en France mais dans une voie fort différente : soucieux avant tout de clarté et d’équilibre autant qu’économe, l’orga-nier français construira des instruments bien plus modestes mais aussi parfaits, à une époque moins tardive.
- L’orgue français classique est né à la fois en Normandie, en Champagne et à Paris : autant de tendances diverses qui
- se fondront à partir de i65o en une harmonieuse synthèse. Aucune région de France n’est plus riche en orgues anciennes que la Normandie, et seuls les facteurs rouennais peuvent concurrencer à la fin du xvie siècle les Hollandais : ils essaimèrent par la suite jusqu’en Touraine et en Provence. Dès i58o, on trouve à Gisors un orgue où sont judicieusement répartis sur d'eux claviers manuels fonds, mixtures et anches, tandis qu’une pédale, fort incommode à vrai dire, n’actionne qu’une trompette de 8 pieds.
- Un demi-siècle plus tard, l’instrument s’enrichit, à Paris comme à Reims, d’un ou deux nouveaux claviers contenant certains jeux de détail destinés à contenter les amateurs de pittoresque (on commence à abandonner à l’église la polyphonie pour le récitatif ou l’air), mais qui ne changeront rien à l’équilibre de jour en jour plùs parfait des deux plans principaux. Ces deux claviers seront d’ailleurs dépourvus de basses, leurs jeux devant surtout chanter au soprano. Un des plus beaux exemples de la facture parisienne du' xvn® siècle est l’orgue de Saint-Gervais de Paris, que Couperin le Grand devait toucher de i685 à 1720 quand il avait la composition suivante :
- p.531 - vue 534/558
-
-
-
- 532
- Grand Orgue (49 notes) : Montres 16, 8, 4, 2, Fourniture 3 rangs, Cymbale 3 rangs, (Bourdons 16 et 8, Flûte 4, Grosse tierce 3 1/5, hasard 2 2/3, Tierce 1 3/5, Cornet 5 rangs, Trompette 8, Clairon 4, Voix humaine 8.
- Positif : Bourdon 8, Prestant 4, Doublette 2, Fourniture 3 rangs, Cymbale 3 rangs, Flûte 4, IVasard 2 2/3, Tierce 1 3/5, Larigot 1 1/3, Cromorne 8.
- Écho (3 octaves) : Cornet 5 rangs décomposé en 3 registres (bourdon S et flûte 4 ; Doublette 2 et Nasard 2 2/3 ; Tierce 1 3/5). Cymbale. Cromorne 8.
- Récit : Cornet séparé (3 octaves). Trompette 8.
- Pédale (29 notes) : Flûte 8, Flûte 4, Trompette 8.
- Accouplement Positif-Grand Orgue. Tirasse Grand Orgue. Le cornet séparé du Récit n’est autre que celui du Grand Orgue monté sur un sommier spécial, et qui peut être commandé à volonté par l’un ou l’autre de ces. claviers.
- Dans cette admirable composition, des anches puissantes et drues, très personnelles, viennent étoffer un tutti admirablement composé, où les pleins-jeux qui parlent avec verdeur et
- franchise n’ont besoin que de quelques rangs pour atteindre à la rondeur : quelle différence avec les très nombreux tuyaux des pleins-jeux allemands! Les cornets (ici l’on peut en composer un par clavier) peuvent renforcer le tutti ou jouer en solo : qu’on augmente l’intensité du 5e harmonique et l’on obtient le jeu de tierce que l’habileté de l’harmoniste permet d’utiliser dans les registres les plus graves. La grosse tierce de 3 pieds i/5 ajoute au grand jeu une note originale. Bref, cet instrument satisferait entièrement l’auditeur de nos jours aussi bien par la qualité de ses jeux de solo que par l’équilibre de ses pleins-jeux, si la pédale y était plus importante.
- C’est d’ailleurs sur ce dernier clavier que se portera surtout l’attention des facteurs du xvme siècle : il n’est pour le constater que d’étudier les adjonctions apportées à l’orgue de Saint-Gervais (Paris) par François-Henri Clicquot* membre d’une des plus célèbres lignées d’organiers :
- Pédale : + Bombarde 16, Clairon 4, Bourdon 16.
- Grand Orgue : + Bombarde 16 ; on transforme la grosse tierce en jeu de 2 pieds.
- Positif : + Trompette 8 et Clairon 4.
- Écho : + Flûte 8 ; on y transporte la Trompette du Récit.
- Récit : la Trompette est remplacée par un Hautbois 8.
- La formule du xvne siècle qui a fait ses preuves s’épanouit donc par l’adjonction d’anches au Positif et l’apparition de nouveaux jeux de détail (hautbois, clarinette ou basson), sans
- oublier l’importance nouvelle donnée à la pédale. Certains grands instruments s’ornent en plus d’un Clavier de Bombarde, qui contient les anches les plus éclatantes.
- Ces nouveaux principes ont été codifiés par le bénédictin Dom Bedos de Celles dans son Art da Facteur d’Orgues, monumental ouvrage que les facteurs de notre temps consultent toujours avec profit (fig. 9).
- L’influence de l’école française se faisait alors sentir jusqu’en Allemagne : c’est ainsi que l’Allemand Karl Riepp (17x0-1775) fut conquis par l’art français et réussit une synthèse de l’orgue allemand avec celui de notre pays. Travaillant aussi bien en Bourgogne et en Franche-Comté qu’en Bavière, il construisit un grand nombre d’instruments fort beaux dont plusieurs subsistent en France (Dole, Dijon). Si leur composition est résolument française, ils bénéficient des jeux de fonds allemands (gambe et salicional) et la pédale est très développée, comportant même une mixture. Mais il est impossible de décrire par des mots la beauté d’un orgue comme celui d’Ottobeuren, en Bavière, sans doute le chef-d’œuvre de Riepp.
- Un vain rival de l’orchestre : l’orgue romantique
- L’instrument classique, aboutissement des recherches continues des époques précédentes, est parvenu dès le milieu du xvm6 siècle au plus haut degré de perfection. Cependant, dès cette époque, une orientation nouvelle se dessine dans la musique : avec J.-S. Bach disparaît en 1750 le dernier des grands contrapuntistes, et ses successeurs s’attachent plutôt à une musique pittoresque, où la polyphonie n’a plus grande part. L’instrument à tuyaux était mal adapté à ce nouveau rôle, bien qu’il ait été augmenté de jeux « champêti’es » fort à l’honneur sous Louis XV et Louis XVI (hautbois, musette). A ce compte, l’orgue ne tarde pas à connaître une décadence qui s’accélère jusqu’à l’effondrement complet, vers i83o. De plus, il ne se relève pas de la tourmente révolutionnaire : d’innombrables instruments ont disparu, et ceux qui restent sont voués à l’abandon; leur restauration donne souvent au facteur l’occasion d’exercer ses ravages, en les adaptant au goût du jour et en remplaçant par des fonds sans intérêt les beaux pleins-jeux et les mixtures scintillantes dont il ne comprend plus la nécessité : exceptionnelles sont les orgues qui ont échappé à ces sévices et suffisamment robustes pour parvenir jusqu’à nous en dépit du manque d’entretien.
- En Allemagne, la situation n’est guère plus brillante et bien des instruments de Schnitger ou de Silbermann ne parlent plus ou sont défigurés : bref l’orgue se trouve, au début du siècle dernier, dans un état lamentable. Cependant l’on construit, et tout n’est pas mauvais dans les innovations, car sur le plan technique des progrès importants sont réalisés : invention de soufflets nouveaux, et du levier pneumatique en i835 (Barker). Le pédalier à l’allemande, si supérieur à l’incommode pédalier français, est enfin introduit en i84o à l’orgue de Saint-Genmain-l’Auxerrois, à Paris.
- C’est alors qu’apparaît Aristide Cavaillé-Coll (1811-1899) qui, tout en respectant les tendances de l’époque, devait insuffler à l’orgue une nouvelle vie et lui rendre son importance et sa grandeur. Fils et petit-fils d’organiers espagnols, il a analysé avec pénétration la facture classique à laquelle son esprit scientifique propose déjà des améliorations. Son premier instrument, construit à l’abbatiale de Saint-Denis en i84i et point de départ d’une série qui en comportera près de cinq cents, est une véritable révolution. Sur cet orgue de 69 jeux répartis sur quatre claviers et un pédalier est appliquée pour la première fois la machine Barker qui allège les transmissions mécaniques et autorise un nombre inusité d’accouplements. Une soufflerie rationnelle, dont s’inspireront toutes les réalisations postérieures, per-
- p.532 - vue 535/558
-
-
-
- 533
- met la distribution de pressions variées aux différents claviers et même aux dessus et aux basses d’un sommier. Les premières doubles layes permettent l’appel des anches et des mixtures. La composition de cet orgue est déjà révélatrice des tendances esthétiques auxquelles Cavaillé-Coll restera fidèle toute sa vie : on n’y trouve pas moins de 24 anches à côté des 27 jeux de fonds, tandis que le nombre des mixtures est réduit à 18, réparties sur 4a rangs de tuyaux. Comparons ces proportions à la composition de l’orgue classique de Saint-Gervais : i3 fonds, 7 anches et i3 mixtures formant une trentaine de rangs !
- La nature et le timbre des jeuN ont d’ailleurs bien évolué : on s’attache plus maintenant à l’effet que l’on peut tirer d’un jeu qu’à la finesse de son timbre; ce qu’on veut, c’est un instrument dont les possibilités soient comparables à celles de l’orchestre et qui en ait autant que possible la souplesse et les possibilités expressives. Pour préciser ces idées, examinons le plan original d’un orgue de Cavaillé-Coll, celui de Sainte-Clotilde de Paris (i85p) qui était, avant des adjonctions récentes d’une qualité discutable, un des plus beaux instruments du facteur :
- Grand Orgue : Montre et Bourdon 16, Montre, Flûte harmonique, Gambe et Bourdon S, Prestant et Flûte 4, Nasard 2 2/3, Doublette 2, Plein-Jeu. Bombarde 16, Trompette 8, Clairon 4.
- Positif : Bourdon 16, Montre, Flûte harmonique, Gambe et Bourdon 8, Unda Maris, Prestant et Flûte harmonique 4, Quinte 2 2/3, Doublette 2, Plein Jeu, Basson 16, Trompette 8, Clairon 4, Clarinette 8.
- Récit expressif : Bourdon, Flûte harmonique, Viole de Gambe 8, Voix céleste, Flûte octaviante 4, Octavin 2, Trompette 8, Clairon 4, Basson-Hautbois 8, Voix humaine 8.
- Pédale : Soubasse 32, Contrebasse 16, Basse 8, Octave 4, Bombarde 16, Basson 16, Trompette 8, Clairon 4.
- Des représentants de toutes les classes de jeux existent à chaque clavier, où prédominent les flûtes harmoniques, jeux de solo dont on faisait alors grand usage. Les mixtures simples sont rares, il n’y a pas de Cornet et les deux Pleins-Jeux ne sont pas décomposables en Fourniture et Cymbale. Cependant, les anches se sont multipliées et l’on trouve à chaque clavier (sauf au Récit) une batterie de 16, 8 et 4 pieds. La clarinette, d’ailleurs fort belle, est venue remplacer le pittoresque cromorne, tandis que la Voix Humaine a émigré au Récit où elle rejoint la Voix Céleste dans le domaine des effets un peu faciles. La caractéristique essentielle de cet orgue est l’importance du Récit, enfermé dans une boîte d’expression, qui contient la plupart des jeux de solo mais peut participer à de vastes fresques sonores auxquelles il apporte de grandes possibilités. Le Pédalier, lui aussi, s’enrichit considérablement.
- L’instrument de Cavaillé-Coll est bien plus facile à manier que l’instrument du xvme siècle, grâce aux nombreux accouplements, aux appels d’anches et au tirage pneumatique des jeux qui autorise la mise en œuvre instantanée de combinaisons préparées à l’avance (orgue de Saint-Sulpice à Paris, 1862). Mais il ne se prête bien, à cause de son esthétique particulière, qu’à l’exécution des oeuvres qui ont été spécialement écrites pour lui, telles que celles de Franck : les maîtres français du xvn® siècle ne peuvent y être interprétés, et Rach sonne avec une lourdeur dont on avait coutume à l’époque, mais qui ne lui convient nullement.
- De plus, toutes les réalisations sont loin d’avoir la qualité et l’équilibre de celles de Cavaillé-Coll; dans le domaine de la transmission, par exemple, celui-ci s’est toujours contenté du système mécanique allégé par les leviers Barker, tandis que l’emploi par d’autres facteurs de la transmission pneumatique aboutissait à des désastres. Que dire surtout des qualités esthétiques de l’instrument! Sur ce point, les Français, les Anglais et les Allemands se contentent de construire des orgues médiocres, où subsistent cependant quelques traditions nationales; mais aux États-Unis, les limites du mauvais goût sont largement franchies !
- Une synthèse harmonieuse : l’orgue néo-classique français
- Malgré son génie, Cavaillé-Coll avait entraîné l’orgue dans une impasse : on ne méconnaît pas impunément les jeux de mutation qui, seuls, permettent des sonorités lumineuses et claires. N’est-il pas vain aussi de vouloir faire de l’orgue un orchestre dont il ne peut présenter la souplesse expressive et
- Fig. 11. — Le grand orgue du Prytanée Militaire de La Flèche.
- Ce somptueux buffet polychrome, qui date de 1637 environ, renferme un des plus beaux ensembles sonores existants, dû en grande, partie à Victor Gonzalez, bous avons présenté quelques détails de cet instrument dans les précédents articles.
- (Photo Abbaye de Solesmes).
- ne peut être qu’un pâle reflet ? Mieux vaut lui garder son individualité et ses couleurs propres. Du vivant même du grand facteur, certains organiers s’en aperçoivent et ressuscitent des timbres oubliés. Dès 1888, Debierre enrichit l’orgue de Notre-Dame-de-Bon-Port, à Nantes, de nombreuses mixtures. D’autres facteurs français et allemands suivent bientôt ses traces. C’est aussi l’époque où l’on redécouvre Bach et Couperin, et l’on se prend parfois à regretter l’instrument d’autrefois. Néanmoins, les nouvelles tendances de la facture d’orgue ne se manifestent que peu à peu, et ce n’est que vers 1930 qu’un nouveau type d’orgue apparaît sous une forme stable : auparavant, il avait fallu relever les ruines laissées par la guerre de 1914-1918, et l’argent manquait pour construire des instruments neufs.
- C’est donc surtout aux relevages et aux réparations que les organiers français devaient s’attaquer. Mais leur travail fait souvent figure d’œuvre originale, tant étaient grands les dégâts du corps sonore. Ils en profitent pour éliminer les jeux sans vie dont les sommiers avaient été encombrés au siècle précédent
- p.533 - vue 536/558
-
-
-
- 534
- et les remplacer par des tuyaux dignes de la grande époque classique, mais ils n’hésitent pas non plus à remplacer les anciennes alimentations en air par des souffleries plus rationnelles et à refaire la transmission. D’autres.fois, ils s’efforcent de reconstituer exactement des instruments anciens particulièrement beaux, le plus souvent classés par l’administration des Beaux-Arts.
- Un nom domine l’école française contemporaine, comme celui de Cavaillé-Coll symbolisait la facture romantique : c’est celui
- Figr. 12. — Le grand orgue de la Basilique de Saint-Benoît-sur-Loire.
- Exemple typique de buffet moderne, dont l’équilibre repose essentiellement sur l’opposition des tuyaux d’étain à ceux de bois sombre. Le positif est situé au-dessus du buffet principal. Cet orgue a été construit en 1935 par Victor Gonzalez.
- (Photo J. J.equeux).
- de Victor Gonzalez (1877-1956), ancien disciple de Cavaillé-Coll, ouvrier et artiste exceptionnel qui égalait les plus grands maîtres d’autrefois (fig. xo). Sa. plus grande réussite est peut-être l’orgue du Prytanée Militaire de La Flèche; de l’instrument Louis XIII primitif subsistaient, outre le buffet (fig. 11), une quinzaine de jeux très beaux : Victor Gonzalez devait porter le nombre des registres à 45, réalisant dans un pur style classique l’ensemble le plus admirable peut-être qui soit au monde, tant par la variété que par la beauté propre des timbres (les anches en particulier). La composition, répartie en trois claviers manuels et un pédalier, fait une large place au récit qui est beaucoup plus étendu qu’au xvm6 siècle, quoique conçu dans l’esprit de l’époque. Des combinaisons, accouplements et appels d’anches facilitent le maniement de l’instrument, qui conserve sa transmission mécanique.
- D’autres fois, les facteurs contemporains laissent subsister ou même construisent spécialement les jeux qui faisaient l’orgueil de la facture romantique. C’est ainsi que l’orgue de Saint-Merri de Paris permet l’interprétation sur ses quatre claviers de
- toute la musique d’orgue écrite jusqu’à nos jours, y compris celle de Franck. Cet instrument a été reconstruit après ig43-par Gonzalez : c’était sa cinquième restauration importante depuis sa construction en 1647 !
- Quand il construit de toutes pièces un instrument, le facteur contemporain ne loge plus les tuyaux dans un buffet d’ébé-nisterie, mais les laisse nus, sacrifiant ainsi au besoin d’austérité de notre époque (fig. 12). L’harmonieuse disposition des tuyaux et des bouches se suffit à elle-même, et la sonorité ne peut qu’y gagner puisqu’aucune boiserie ne vient faire obstacle à la propagation du son jusqu’à l’auditeur.
- Après avoir parlé de l’œuvre de Victor Gonzalez, il serait injuste de ne pas mentionner que la plupart des facteurs comprennent également l’orgue moderne comme une synthèse harmonieuse entre les deux tendances : classique et romantique; les noms de Beuchet-Debierre, Rœthinger, Ruche ou Puget,. et bien d’autres encore, sont suffisamment représentatifs de la vitalité de la nouvelle école française. Tous œuvrent dans le respect des grandes traditions classiques, mais ne restent pas tous fidèles au système de transmission mécanique préconisé par Gonzalez (qui consent cependant à l’alléger par des machines Barker) : bien souvent, des orgues anciennes sont électrifiées à l’occasion de restaurations profondes, et des instruments neufs sont munis de consoles électriques que l’on peut disposer facilement à l’emplacement le plus favorable.
- En Allemagne, aux Pays-Bas, au Danemark, comme en Suisse ou en Espagne, les conceptions néoclassiques l’ont aussi emporté sur l’orgue romantique, à l’exemple de la France. Dans chacun de ces pays, on voit renaître les traditions nationales que nous avons mentionnées précédemment, et les instruments neufs sonneraient agréablement aux oreilles des hommes du xvne siècle. Des restaurations intelligentes s’efforcent de sauvegarder ce qui peut l’être dans les instruments anciens et d’en reconstituer toutes les caractéristiques dans l’atmosphère même de la facture locale. Restaurations quelquefois un peu abusives à notre goût, notamment aux Pays-Bas où l’on a un peu tendance à « pousser » les pleins-jeux anciens, ce qui les rend légèrement criards. Ici encore, la France peut être prise comme modèle de mesure et de goût.
- En Angleterre, où les instruments anciens qui auraient pu servir de modèle ont pratiquement tous disparu, les facteurs suivent plus difficilement, de même qu’au Canada. Aux États-Unis enfin, les possibilités techniques sont, comme dans bien d’autres domaines, si grandes qu’elles se manifestent parfois au détriment de l’esthétique; peu de facteurs encore se sont laissé convaincre par l’exemple de la France, et ont consenti à éliminer de leurs consoles quantité de commandes qui en rendaient le maniement peu pratique.
- Nous ne doutons pas cependant que dans quelques décennies l’exemple français ne soit universellement suivi. Sans doute, l’instrument entre de nos jours dans une phase d’épanouissement comparable à la magnifique envolée du grand siècle : déjà l’orgue néo-classique est le plus maniable, le plus coloré et le plus riche que nous connaissions. Mais il ne semble pas que les compositeurs modernes se soient encore parfaitement assimilé les possibilités de cet instrument. A l’exception des œuvres de Messiaen, de Jehan Alain et de quelques autres, la littérature musicale actuelle ne comporte guère de pages qui soient aussi bien adaptées à l’orgue de Gonzalez que celles de Bach l’étaient à l’orgue de Schnitger et de Silbermann.
- James Lequeux.
- Au terme de cette série d’articles, nous devons exprimer notre gratitude à M. Norbert Dufourcq, professeur au Conservatoire et organiste de Saint-Merri à Paris, qui a bien voulu nous faire bénéficier de ses conseils et nous a fourni grâce à ses publications et à sa collection personnelle la majeure partie de la substance et de l’illustration de ce texte.
- p.534 - vue 537/558
-
-
-
- 535
- L’Actualité instrumentale
- Appareils de contrôle de contamination
- Qu’il s’agisse d’usines atomiques ou de laboratoires « chauds » (on désigne ainsi les laboratoires où se manipulent des quantités notables de produits radioactifs), le problème de la contamination revêt une grande importance. Il est indispensable, à cet effet, de se livrer à de fréquents contrôles de l’air dans lequel évolue le personnel, ou des effluents (gazeux ou liquides) qui ont pu se trouver en contact avec des substances radioactives. Par ailleurs on peut, dans certains cas, être amené à contrôler directement le personnel lui-même ou les vêtements qu’il a portés. Les mêmes problèmes se posent lors d’explosions nucléaires expérimentales : c’est ainsi qu’à Reggane, dans les jours qui ont suivi les explosions, des techniciens ont dû se rendre au voisinage des points zéro pour se livrer à différentes observations et il était nécessaire de les contrôler à leur retour de mission. De même, la construction de nouvelles installations sur le polygone de tir, en imposant la présence d’équipes de travailleurs en des points relativement proches des lieux des précédentes explosions, implique des contrôles de l’air ambiant.
- Ces problèmes ont été résolus par différents constructeurs qui présentaient à la récente Exposition de la Société française de Physique un éventail assez large d’appareils répondant aux exigences des services de protection.
- Contrôle de la contamination de Vair. — Les poussières radioactives sont, le plus souvent, en suspension très fine dans l’air et forment ce que l’on appelle un aérosol; aussi tous les appareils de surveillance comportent-ils d’abord un dispositif qui permet d’aspirer, avec un débit déterminé, l’air ambiant.
- Dans l’installation présentée par la Société Paris-Labo, l’air à contrôler passe ensuite sur un filtre destiné à concentrer les poussières; puis ce ruban-filtre, entraîné par un moteur synchrone, passe par la fente de la tête de mesure d’un compteur à scintillations et le résultat de la mesure est enregistré. Cette première mesure représente surtout les produits de courte période de la poussière radioactive. Par l’intermédiaire d’un système de galets, le ruban est amené, après un intervalle de trois jours, à une seconde tête de mesure qui détermine alors la concentration en produits de longue période.
- Dans l’appareil « Babar » de l’A.O.I.P., les poussières sont prélevées sur un papier conducteur très fin par précipitation électrostatique. La détection se fait par des cristaux scintilla-teurs adaptés aux rayonnements a. et p, suivis de tubes photo-multiplicateurs. Une électronique entièrement transistorisée permet de séparer et de mesurer l’intensité de chacun des rayonnements. L’appareil délivre une alarme lorsque la concentration dépasse certaines valeurs préréglées. Un dispositif « horodateur » permet de repérer les moments où ont lieu les différentes activités (fig. i).
- Contrôle de la contamination de Veau. — Il n’est pas possible de mesurer avec une sensibilité suffisante le rayonnement radioactif dans l’eau par simple immersion d’un détecteur ou par écoulement de l’eau à éprouver au contact du compteur, ceci en raison de la faible portée des rayonnements en milieu aqueux. La sensibilité est nettement plus grande lorsque, après évaporation de l’eau, on mesure l’activité du résidu.
- La Société Paris-Labo présentait l’appareil de surveillance de l’eau FH 95 dans lequel l’évaporation de l’eau et la mesure de l’activité du résidu sont réalisées automatiquement et enregistrées en continu, en fonction du temps.
- L’eau à éprouver est dispersée dans un pulvérisateur, au moyen d’air comprimé, en fines gouttelettes. Celles-ci parviennent dans une enceinte où arrive de l’air à 3oo° C, ce qui
- Fig. 1. — Enregistreur d’aérosols radioactifs type Babar.
- (Photo A..O.I.P.).
- provoque leur évaporation en 0,1 s environ. L’air humide et encore chaud emporte le résidu de l’évaporation sous forme de petites particules en suspension et l’amène sur une bande filtrante où il se dépose. Cette bande est ensuite dirigée vers un compteur de radiations.
- Contrôle de contamination humaine. — Le Centre d’Ëtudes et de Réalisations électroniques a étudié, à la demande du Centre interministériel de Décontamination (Groupement atomique, Section technique de l’Armée), un appareil qui permet de déceler la contamination radioactive du personnel. Il se compose essentiellement d’une cabine de passage équipée de 12 tubes sensibles aux rayonnements et y- La cadence de passage est assez rapide puisqu’elle atteint deux à trois personnes par minute. L’alerte est donnée dès que la radioactivité du sujet dépasse de 10 à i5 pour 100 le fond cosmique normal. La cabine est complètement démontable et le poids total de l’ensemble ne dépasse pas 80 kg.
- Un autre appareil, de la même firme, permet l’examen des vêtements ou des produits alimentaires. Il utilise une sonde spéciale en forme de fer à repasser ayant une surface de mesure de l’ordre du décimètre carré, couplée à un ensemble électronique suivi d’un enregistreur. Le poids de l’ensemble est de 3o kg environ.
- R. R.
- p.535 - vue 538/558
-
-
-
- 536
- Régulateur thermique
- De plus en plus fréquemment, pour les besoins en particulier des études de matériaux irradiés, il est nécessaire de mettre hors de portée des radiations les organes de commande et de contrôle des appareils proprement dits. Un tel problème s’est posé, par exemple, pour la commande de la régulation de fours placés soit dans des boîtes à gants, soit dans des chambres étanches. Une solution vient de lui être apportée par le régulateur conçu par la Société A.D.A.M.E.L. qui permet, soit de maintenir constante une température donnée aussi longtemps qu’il est nécessaire pour la réalisation des études demandées, soit de réaliser le cycle thermique commandé par ces études.
- Cet appareil (fig. 2) utilise la dilatation d’un fil en alliage spécial, très dilatable et tenace à chaud. Il est schématisé sur
- Fig-. 2. — Régulateur thermique A.D.A.M.E.L. à fil dilatable.
- (Photo L. Borremans, Caclian).
- la figure 3. Le fil dilatable est fixé à deux tiges A et B reliées à des leviers. Le poids fixé au levier supérieur tend le fil et fait appliquer l’extrémité du levier inférieur contre la vis.
- Les tiges A et B, isolées électriquement du mécanisme, sont reliées à deux bornes, elles-mêmes reliées au secteur par l’intermédiaire du four, d’un interrupteur général et d’un relais.
- Normalement, l’interrupteur de régulation étant fermé, le relais alimenté par le transformateur fonctionne et, si l’on ferme l’interrupteur général, un même courant traverse le
- Interrupteur de Levier
- Contrepoids
- FU
- dilatable
- InterrupteurI
- Secteur
- 7777777,
- 77777777
- Vers A Vers B
- Schéma de principe du régulateur à fil dilatable.
- four et le fil dilatable. Celui-ci s’échauffe rapidement, s’allonge et quand sa dilatation, amplifiée par le levier supérieur, est suffisante pour que l’interrupteur de régulation s’ouvre, le courant est coupé et le fil se refroidit. Sa contraction fait remonter aussitôt l’aiguille fixée au contrepoids et, dès qu’elle a quitté l’interrupteur, celui-ci, de nouveau fermé, laisse passer le courant et le fil se réchauffe.
- Ceci a pour résultat d’imposer à ce fil ainsi qu’au four une cadence et une durée de chauffes et de refroidissements bien définis et permet d’entretenir dans le four une puissance intermittente constante qui le fait plafonner à une température correspondant à la position initiale de l’aiguille fixée au contrepoids, laquelle est réglée par la vis micrométrique. Après étalonnage, il suffit par conséquent d’amener le tambour de la vis à une position donnée pour que, automatiquement, le fil règle dans le four une puissance déterminée qui lui permettra d’atteindre et de maintenir la température visée. Le réglage fin est obtenu en tournant un peu le tambour de la vis.
- L’utilisation d’une résistance R, à coefficient de température négligeable, placée en dérivation du fil dilatable, permet d’utiliser ce même fil pour le réglage des fours de puissances différentes.
- Un dispositif spécial permet, par ailleurs, au régulateur d’imposer au four un cycle thermique déterminé. Sans entrer dans le détail, disons simplement qu’il est constitué essentiellement par un moteur synchrone qui actionne la vis de réglage selon certaines modalités. On parvient ainsi à réaliser soit un cycle thermique complet, soit un cycle thermique suivi d’un maintien de la température.
- D’un prix moins élevé que le système classique de commande par couple thermoélectrique et potentiomètre, ce régulateur présente l’avantage d’éviter les oscillations de température que l’on rencontre avec le dispositif classique en raison de la distance de la soudure du couple à l’élément chauffant et de l’inertie du potentiomètre. Avec le régulateur à fil dilatable, l’inertie thermique du four étant très grande par rapport à celle du fil, sa température est maintenue sans oscillations. Il est en outre insensible aux perturbations provoquées par un champ magnétique variable, alors que celui-ci risque de fausser les indications d’un potentiomètre.
- B. R.
- p.536 - vue 539/558
-
-
-
- Relais électromagnétiques miniatures
- La Compagnie des Machines Bull a réalisé pour les besoins spéciaux de la mécanographie un relais électromagnétique miniature diffusé par Chauvin Arnoux.
- Fabriqués en très grande série, ces relais B.C.A. se présentent sous la forme d’un boîtier rectangulaire de 42 x 22 x 16 mm, dont la base porte cinq broches de connexions. Ils peuvent être employés isolément, mais leur mode d’utilisation essentiel est de l’être en groupe afin de réaliser les opérations les plus diver-
- Fig. 4. -— Schéma de principe et connexions des relais B.C.A.
- ses : autorisation ou interdiction dépendant d’un ou plusieurs paramètres, comptage, commutation, etc. Pour cet usage, ils peuvent être montés sur support bakélite (fig. 5) : 20 relais occupent alors un espace de 10 x 10 x 7 cm et l’ensemble pèse moins de 700 g.
- Plusieurs types de tels relais existent, correspondant à des circuits d’excitation et de coupure différents. En gros, des relais à contact argent sont utilisés pour couper jusqu’à 2 A, et à contact tungstène entre 0,1 et 5 A. Ces valeurs dépendent évidemment de la nature du courant et du circuit (selfique ou non) à contrôler. Les circuits d’excitation sont prévus pour 48, 24 ou 3,5 V, et le temps d’établissement des contacts est dans les deux sens de quelques millisecondes (entre 3 et 8 selon le type). Le.rapport entre la puissance maximale contrôlée et la puissance minimale d’excitation est de l’ordre de 5oo pour un relais.
- Signalons que l’excitation des relais ou groupe de relais peut être réalisée par une alimentation très économique, à redresseurs, directement branchée sur le secteur.
- Fig. 5. — Ensemble de relais B.C.A. montés sur leur support bakélite.
- (Photo Chauvin Arnoux).
- A titre d’exemple d’utilisation, Chauvin Arnoux a mis au point un ensemble « présélecteur » qui peut effectuer des opérations très diverses, telles que comptage, commande, transmission d’ordres programmés..., à partir d’un tableau de relais libres connectables par fiches au gré de l’utilisateur.
- Bien que ces techniques n’aient été, faute d’élément de base, que peu utilisées jusqu’à présent dans les laboratoires, il nous semble que l’apparition des relais B.C.A. devrait suffire à suggérer des solutions à certains problèmes courants, tels que : mesure ou réglage de plusieurs températures avec un seul pyromètre, collection de fractions précommandée, etc.
- Contrôle non destructif par gammagraphie
- Le contrôle non destructif en atelier ou sur chantier des défauts dans les matériaux métalliques à l’aide de leur différence de transparence aux rayons y émis par les radioéléments artificiels à présent disponibles, se répand de plus en plus, entraînant la mise au point d’ensembles mobiles munis des sécurités d’emploi classiques en massif de protection.
- La Société Gamma Industrie a mis sur le marché une série d’appareils montés sur chariot, différents par le mécanisme qui permet de transférer la source de la position de stockage dans le massif de protection à la position de travail à proximité de la pièce à radiographier.
- Le Gammatron GTR-F 35 (fig. 6) est muni d’un porte-source flexible original dans lequel la source peut être éjectée dans des tuyaux de guidage souples; ainsi la seule fixation de l’extrémité du tube souple au point choisi pour la prise de clichés suffit au fonctionnement. Cet appareil peut travailler avec 25o microcuries de cobalt 60 ou 27 curies d’iridium 192.
- Parmi les autres appareils de cette série, nous noterons également le Gammatron CB-i dans lequel la source radioactive, logée dans un barillet, est stockée au centre d’un massif protecteur dont la coque extérieure est percée d’une fenêtre d’exposition. La rotation d’un demi-tour du barillet amène la source devant la fenêtre, presque au contact de la pièce à contrôler. L’angle au sommet du faisceau de rayons y est alors de 90°.
- Le massif de protection et le barillet en métal lourd autorisent le stockage de 3 curies d’iridium 192 dans une coque
- Fig. 6. — Gammatron GTR-F 35.
- Cet appareil comporte une source radioactive bon marché et permet de radiographier des plaques d'acier Jusqu’à 40 mm d’épaisseur.
- de 10 kg dont les dimensions sont seulement io5 x 120 mm, ce qui permet une grande maniabilité. R. B.
- p.537 - vue 540/558
-
-
-
- 538
- Nouveaux oscilloscopes
- An lares présente l’oscilloscope type WM 8 dont les caractéristiques principales sont les suivantes :
- — Système vertical : bande passante de o-i5 MHz ou i Hz-i5 MHz; sensibilité de 5o mV/cm à 25 V/cm; temps de montée : 25 mjxs; précision : ± 3 pour ioo avec voltmètre, ± 5 pour ioo avec réticule.
- — Système horizontal : bande passante de o à 1,2 MHz avec générateur de balayage interne, et de 4 Hz à 1,2 MHz avec générateur externe; sensibilité de 700 mV/cm; vitesse de balayage : 5o m|j.s/cm à i5 ms/cm continûment variable; fréquence de récurrence : 3oo KHz; précision : + 3 pour 100 avec cadran étalonné, + 5 pour 100 avec réticule; déclenchement par sélection interne, externe ou externe atténuée.
- Fig. 7. — Oscilloscope à tiroirs OC S67 de C.R.C.
- (Photo R. Paul, Saint-Rtienne).
- C.R.C. construit un nouvel oscilloscope H.F. à tiroirs OC 567 (lig. 7). Citons quelques caractéristiques : bande passante 0-10 MHz, balayage 2 s/cm à 0,02 jj.s/cm.
- Cet appareil est muni de tiroirs interchangeables et comporte les derniers perfectionnements : ligne à retard, calibrateur, circuit de synchronisation à seuil réglable, loupe électronique, étalonnages en amplitude et durée...
- .La Société Réalisations électroniqües propose un oscilloscope caractérisé par des dispositions nouvelles : il peut recevoir, en plus de tii’oirs préamplificateurs, des tiroirs spéciaux étendant le champ des possibilités; par exemple : tiroir traceur de caractéristiques à vide, tiroirs enregistreurs d’oscillogrammes, tiroirs traceurs de courbe de réponse...
- L’ensemble du circuit de balayage est également monté dans un tiroir facilement amovible.
- Quelques caractéristiques : l’appareil se fait en deux ver-
- sions : type Ai (bande passante de o à i5 MHz à 3 dB pour l’amplificateur vertical; sensibilité, 10 mV/cm pointe à pointe); type A2 (o à 3o MHz à 3 dB, 20 mV/cm) ; base de temps : vitesse de balayage, 0,1 MHz/cm à 10 MHz/cm en cinq gammes; amplificateur horizontal : bande passante de o à 5oo KHz; synchronisation sur front montant et descendant.
- Ribet-Desjardins présente également un ensemble d’oscilloscopes : synchroscope portatif type 255 B, oscilloscope à amplificateurs interchangeables type 254 A, synchroscope à tiroirs interchangeables type 251 A, synchroscope à hautes performances.
- Leurs champs d’application sont extrêmement variés : radar, calculatrices électroniques, télévision.
- Les deux derniers types de synchroscopes s’appliquent à toutes recherches de laboratoire, notamment dans le domaine de l’énergie nucléaire. G. G.
- Climatiseur
- à cycles hydrothermiques
- L’appareil, construit par la Société mécanique industrielle d’Enghien (fig. 8), permet l’étude du vieillissement d’éprouvettes plastiques à la lumière, à la chaleur, à l’humidité saturante et au froid, par cycles successifs. Les éprouvettes sont placées dans une enceinte thermostatée où elles subissent l’action des agents de vieillissement successifs avec passage rapide de l’un à l’autre. Pendant les essais à la lumière, à la chaleur et au froid, les éprouvettes sont animées d’un mouvement de rotation; l’essai à l’humidité saturante est obtenu par projection d’eau chaude sur un déflecteur. Une lampe à mercure de 1 000 W permet l’essai à la lumière. La température de l’enceinte est réglable jusqu’à ioo° C, une turbine activant la circulation d’air. Les essais au froid peuvent atteindre la température de — 70° C. G. G.
- Fig. 8. — Climatiseur à cycles hydrothermiques de la Société mécanique industrielle d’Enghien.
- p.538 - vue 541/558
-
-
-
- 539
- Nouvelle thermobalance
- 11 est fréquent d’avoir à étudier une réaction physico-chimique par la mesure des variations de masse qu’éprouve le système au cours de ses transformations. C’est là le domaine de la thermogravimétrie, méthode dont le champ d’applications couvre aussi bien les études de corrosion sèche (la corrosion, qui est une oxydation, s’accompagne d’une augmentation de masse) que le grillage des minerais ou la cokéfaction du charbon (qui s’accompagnent d’une diminution de masse).
- L’un des appareils les plus utilisés à cet effet, aussi bien en France qu’à l’étranger, était la thermobalance, conçue dès 1945 par le professeur Chevenard, et construite par les Établissements A.D.A.M.E.L.
- Or, A.D.A.M.E.L. vient de présenter une nouvelle version de la thermobalance de Chevenard qui se signale par d’importants perfectionnements. Tout d’abord, la portée maximale qui n’était que de 10 g a été portée à 25 g. L’amortissement a été rendu plus efficace grâce à un système de suspension magnétique s’opposant à toute oscillation parasite du fléau. Par ailleurs, alors que l’ancien modèle ne permettait que les essais à l’air ou sous faible courant gazeux, la nouvelle thermobalance permet l’exécution d’essais sous un vide qui, à froid, atteint 2.io~6 mm de mercure.
- Enfin, et c’est là la modification la plus importante, l’enregistrement des phénomènes est assuré non plus par un enregistreur mécanique ou photographique, mais par un enregistreur électronique à cellule photo-résistante permettant un déplacement de la plume à une vitesse de 260 mm/mn, suffisante, en général, pour suivre des réactions très rapides. A cet effet, le faisceau lumineux réfléchi par un miroir fixé au fléau de la balance tombe sur une cellule photo-électrique asservie dont le mouvement commande à son tour un style enregistreur.
- Quant au tambour sur lequel se déplace le style, son entraînement est assuré soit par un moteur à deux vitesses donnant une rotation d’un tour en trois heures ou en vingt-quatre heures, ce qui permet l’enregistrement du diagramme variation de masse-temps; soit par un pyromètre-potentiomètre MECI spécialement adapté, ce qui permet l’enregistrement du diagramme variation de masse-température. Ce potentiomètre est commandé par un thermocouple dont la soudure chaude est au contact du creuset contenant le produit étudié. Un dispositif spécial permet même d’enregistrer simultanément les courbes masse-temps et température-temps.
- La thermobalance peut être équipée soit d’un four 1 o5o° C, soit d’un four 1 5oo° C. La construction de ce four a d’ailleurs
- Fig. 9. — Thermobalance à enregistrement électronique A.D.A.M.E.L.
- posé de délicats problèmes et il a fallu utiliser des enroulements en platine rhodié capable de résister pendant un temps assez long à des températures aussi élevées.
- Disons pour terminer que l’enregistreur électronique précédent est également utilisé depuis peu sur le dilatomètre de la même firme. Il est donc possible, avec cet appareil, de tracer les courbes dilatation-température ou dilatation-temps, ou encore dilatation-temps et température-temps simultanément.
- Le dilatomètre peut être utilisé soit pour l’exécution'd’essais en atmosphère contrôlée, soit pour l’exécution d’essais sous vide. Il est possible également d’isoler l’échantillon dans une boîte à gants, ce qui rend possibles les études de produits radioactifs. R. R.
- Nouveau bolomètre à infrarouge
- On a beaucoup parlé ces derniers mois d’appareils sensibles au rayonnement infrarouge qui, placés à bord de satellites dits de surveillance, permettraient de détecter le départ d’un missile en un point quelconque du territoire ennemi.
- A la récente Exposition de la Société française de Physique, la firme Antarès présentait, quant à elle, un appareil de ce type mais destiné, semble-t-il, à recevoir des applications exclusivement pacifiques. Il s’agit du bolomètre infrarouge « Tinsley » type 535g constitué essentiellement par une feuille d’or dont la variation de résistance est proportionnelle au rayonnement infrarouge qu’elle reçoit. Elle est placée dans les deux branches d’un pont de Wheatstone alimenté par un oscillateur à transistors. La recherche de l’équilibre du pont, donc la mesure de la résistance de la feuille d’or, est effectuée au moyen d’un potentiomètre hélicoïdal et d’un casque. L’appareil est directement gradué en énergie reçue.
- Sa sensibilité est telle qu’il décèle aisément une personne à 6 m dans un local dont la température est de 25° C. La cheminée d’un bateau est décelée à plusieurs kilomètres.
- Les utilisations de cet appareil sont nombreuses : détection de points chauds à distance (éléments difficilement accessibles, etc.); surveillance de la température d’éléments en rotation ; détection de mauvais contacts dans les installations haute tension, etc.
- Rien qu’il ne s’agisse pas, à proprement parler, d’un bolomètre, nous citerons également le détecteur de surchauffe de la Société Chauvin Arnoux. Il s’agit d’un détecteur d’alarme à maximum de température, étudié spécialement pour les gaz chauds et fonctionnant aux températures élevées, supérieures à 5oo° C. Il utilise la propriété de certains alliages ferreux de perdre leur magnétisme à une température bien déterminée.
- R. R.
- p.539 - vue 542/558
-
-
-
- 540
- LE CIEL EN JANVIER 1961
- SOLEIL : du 1er janvier au 1er février (à Oh) sa déclinaison croît de — 23°2' à — 17°13' et la durée du jour de 8M7111 à 9h21m ; diamètre apparent le 1er = 32°35",2, le 31 = 32'3i",0. — LUNE : Phases : P. L. le 1er à 23^6“, D. Q. le 10 à 3h3m, N. L. le 16 à 21h30m, P. Q. le 23 à 16M4m, P. L. le'31 à ÎSWÎ111 ; apogée le 3 à 13*1, diamètre app. 29’24" ; périgée le 16 à 23h, diamètre app. 33'30" ; apogée le 30 à 13h, diamètre app. 29'24". Principales conjonctions : avec Mars le 1er à 17h, à 8°6' S. ; avec Uranus le 5 à 47h, à 1°53' S. ; avec Neptune le 11 à 16h, à 2°59' N. ; avec Jupiter le 16 à 8h, à 4°2' N. ; avec Saturne le 16 à I4h, à 3°36' N. ; avec Mercure le 17 à 12h, à 4°53' N. ; avec Vénus le 20 à 5h, à 0°34' S. ; avec Mars le 28 à 7h, à 8°27' S. Principales occultations : le 7, de 59 Lion (mag. 5,1), émersion à ; le 26, de 179 B. Taureau
- (mag. 6,0), immersion à 0h7m,3 ; le 26 de 318 B. Taureau (mag. 5,7), immersion à 23h59m,3. — PLANÈTES : Mercure, d’abord inobservable, devient étoile du soir dans la dernière décade du mois, se couche le 25 à 17h41m, soit lh6m après le Soleil ; Vénus, exceptionnelle étoile du berger, se couche le 25 à 20h54m, soit 4M9m après le Soleil ; Mars, dans les Gémeaux, splendide astre rouge brillant toute la nuit, le 16 : diamètre app. 14",2 ; Jupiter et Saturne sont invisibles ; Uranus, dans le Lion, se montre dès la soirée, le 16, position : 9h50m et + 13°56', diamètre app. 4",0 ;
- Neptune, dans la Balance de mieux en mieux visible le matin, le 16, position : 14h37m et — 13°30', diamètre app. 2",4. — ÉTOILES VARIABLES : minima observables d'Algol (2®,2-3m,5) le 3 à 19h,9, le 18 à 3^,9, le 21 à 0*8, le 23 à 21*,6, le 26 à 18**,4 ; minima de |3 Lyre (S1»^111^) le 11 à 4h,3, le 24 à 2h,6. — TEMPS SIDÉRAL : au méridien de Paris, à 0h (T. U.) : le 1er : 6h30m388, le 11 : 7h30m24s, le 21 : 8h9m49s, le 31 : SMO™!»8.
- Phénomènes intéressants : Le Soleil au périgée le 2 à 17h, la Terre au périhélie. — Surveiller la surface tachée du Soleil. — Lumière cendrée de la Lune, le soir, du 18 au 22. — On recherchera la planète Mercure le soir à l’œil nu dans le crépuscule, à la fin du mois. — On remarquera aussi les excellentes visibilités des planètes Vénus et Mars. — Étoiles filantes : du 1er au 3, Bootides (radiant (3 Bouvier), rapides à traînées longues. — On contemplera les belles constellations d’hiver : Taureau, Gémeaux, Cancer, Lion, Cocher, Orion, Grand et Petit Chiens.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Amateurs d’ASTRONOMIE, adhéras à (a
- SOCIËTË ASTRONOMIQUE DE FRANCE
- fondée en 1887 par G. Flammarion, reconnue d’utilité publique en 1897
- vous recevrez la revue mensuelle L’ASTRONOMIE vous aurez à votre disposition une importante Bibliothèque, un Observatoire, séances mensuelles, cours, conférences, etc
- Demandez les programmes au Siège Social Hôtel des Sociétés Savantes, 28, rue Serpente, Paris-6* Permanence, tous les jours non fériés de 14 à 17 h
- Cotisations : Région Parisienne, 25 NF ; France, 20 NF ; Étranger, 30 NF ; Étudiants, 3 NF ; Droit d’inscription pour tous, 2 NF.
- Spécimen gratuit de la revue sur demande.
- Demandez « Splendeur de l’Astronomie », les plus belles photographies astronomiques : 16 pages 13.5x20,5, tirage néogravure bleu nuit. 0,65 NF franco.
- Éclipse totale de Soleil en France le 15 février 1961
- Une éclipse totale de Soleil sera visible dans le Sud de la France le 15 février prochain aux premières heures de la matinée. A Paris, où l’éclipse ne sera que partielle, elle pourra être observée dès le lever- de l’astre à 8 h (heure légale), 6era maximale à S h 38 et se terminera à 9 h 45. Nous publierons en janvier un article sur ce rare phénomène qui est, pour les astronomes, professionnels et amateurs, une occasion d’observations exceptionnelles. Indiquons que M. G. Florsch a publié dans L’Astronomie (juillet-août 1960) des pronostics météorologiques pour la France et l’Italie d’où il ressort que les chances de beau temps dans la zone de l’éclipse totale sont les meilleures en Provence, surtout près d’Orange, les conditions astronomiques faisant toutefois préférer les Alpes-Maritimes pour l’observation.
- Société astronomique de la Côte d’Azur
- 0n nous prie d’annoncer la création, à Cannes (A.-M.), de^ la Société astronomique de la Côte d’Azur dont les buts sont voisins de ceux qui animaient Camille Flammarion lorsqu’il créa la Société astronomique de France : « réunir entre elles les personnes qui s’occupent pratiquement ou théoriquement d’Astronomie ou celles qui s’intéressent à son développement et à l’extension de son influence pour l’éclairement des esprits ».
- Loin de vouloir concurrencer la Société astronomique de France — la plupart de ses animateurs sont eux-mêmes membres de la S.A.F. — elle permettra à tous ceux qui habitent ou viennent en villégiature sur la Côte d’Azur de se livrer à leur passe-temps favori dans d’excellentes conditions.
- La Société dispose, d’ores et déjà, drune lunette astronomique de moyenne puissance permettant d’intéressantes observations. Par ailleurs, un don récent va permettre aux organisateurs de
- construire un petit observatoire sur le toit d’une- villa appartenant à la Société où seront également aménagés une bibliothèque, un atelier de construction de lunettes, etc. Des conférences et des projections de films ont marqué la création de la Société tandis que des réunions de travail permettaient l’observation de phénomènes astronomiques remarquables. Des visites d’observatoires sont également prévues.
- La Société est présidée par le docteur Scbmidl, bien connu sur la Côte d’Azur pour son activité culturelle, la présidente d’honneur étant Mme Benoist, qui est à l’origine des dons ayant permis sa fondation.
- Pour tous renseignements, s’adresser à M. Herczegh, secrétaire de la Société, Villa Liban, 2, rue de Jonquière, Cannes-Le Cannet (A.-M.) ; tél. : 39-29-40.
- E. R.
- LES LIVRES NOUVEAUX
- Mathematics dictionary, par Glenn James et Robert C. James. 1 vol. 15,5 x 23,5, 546 p., nombreuses figures. D. Van Nostrand Company, Princeton, 1959. Prix, relié : 15 dollars.
- Ce dictionnaire rassemble les définitions de plus de 7 000 termes mathématiques utilisés dans les branches les plus variées de cette science : statistiques, théorie des groupes, topologie, etc. Dans l’ensemble, les définitions proposées nous ont semblé correctes et, le plus souvent, très complètes. Faisant suite à ces définitions, des tables donnent les valeurs des logarithmes, des fonctions trigonométriques, les intégrales, le sens des principaux symboles utilisés par les mathématiciens, etc. On trouve enfin les équivalents én langue anglaise des termes mathématiques français, allemands, russes et espagnols et c’est sur cette partie que nous voudrions attirer l’attention du lecteur (et
- de l’éditeur). Pour nous limiter volontairement à la partie française, il semble, en effet, que le traducteur ait pris quelques libertés avec notre langue. Que penser par exemple des traductions suivantes prises au hasard : calculatoir pour calculating machine ; altitude (qui signifie hauteur) est traduit « littéralement » par altitude ; life insurance par assurance de vie ; contour Unes par lignes de contoures. Et que dire d’expressions telles que : centre de cercle circonscrit à triangle, côté terminale d’un angle ou discontinuité pas écartante ; et cette liste n’est pas limitative I — R. R.
- Moon Maps, par H. P. Wilkins. 1 vol. 24x28,
- 38 p., 27 cartes hors texte. Faber and Faber,
- Londres, 1960. Prix, reliure spirale : 30 sh.
- Conçu pour l’observateur, cet ouvrage comporte des cartes très détaillées et à grande
- échelle de la Lune, ainsi que la carte de la face inconnue révélée par la fusée Lunik III. La plupart des formations lunaires sont décrites en détail. Présentation et format commodes.
- Groupes finis de symétrie et Recherche de solutions de l’équation de Schrodinger, par L. Mariot. 1 vol. 11 x 16, 114 p., 8 fig. Monographies Dunod, Paris, 1959. Prix, relié toile souple : 9,60 NF.
- La théorie des groupes appliquée aux problèmes de symétrie cristalline a permis une connaissance plus approfondie de celle-ci. Les fonctions d’ondes cristallines ont naturellement la même symétrie que le cristal et l’application de la théorie des groupes permet de déterminer certaines de ces fonctions. La présente monographie traite donc de la théorie des groupes finis de symétrie. Les premiers chapitres
- p.540 - vue 543/558
-
-
-
- sont consacrés aux groupes de symétrie cristalline et 5. leur représentation. Quarante pages seulement pour exposer ces questions fondamentales I Cette extrême concision demande un gros effort au lecteur et nuit à la compréhension. La seconde partie consacrée aux solutions de l’équation de Schrodinger applique la théorie des groupes dans le cas de l'approximation variationnelle et plus précisément dans la méthode des ondes planes orthogonales. L’exemple du diamant est traité en détail. Ce livre, du niveau du troisième cycle, demande une connaissance sérieuse de la mécanique quantique ; il s’adresse donc aux étudiants avancés et aux chercheurs. — J. L.
- Phénomènes non linéaires et paramétriques en électronique, par A. A. KARiiEviTcn. Traduit du russe par W. Mercouroff. 1 vol. 11 x 16, 230 p., 151 fig. Monographies Dunod, Paris, 1960. Prix, relié toile souple :
- 16,50 WF.
- Pendant plusieurs décennies les physiciens et ingénieurs, pour des raisons de simplicité, se sont surtout intéressés aux phénomènes linéaires. Les mathématiciens avaient développé des instruments de travail particulièrement féconds et une foule de phénomènes physiques sont en effet régis, en première approximation du moins, par des lois linéaires. Ces dernières se traduisent essentiellement par le principe de superposition : la superposition des causes amène la superposition des effets. Or, dans les tubes à vide, dans les noyaux ferromagnétiques interviennent des phénomènes de saturation qui ne sont plus régis par des lois aussi simples. L'auteur expose très clairement toutes les utilisations possibles de ces comportements non linéaires en électronique : multiplication des fréquences, redressement d’un courant, détection d’un signal, changement de fréquence, oscillateur, etc. Très accessible ce livre intéressera les étudiants, les ingénieurs et les chercheurs qui y trouveront les théories mathématiques des applications les plus fécondes de l’électronique. — J. L.
- Programmation des calculatrices numériques, par D .D. McCracken. Traduit de l’américain par P. Pèpe. 1 vol. 16 x 25, 264 p., 23 fig. Collection Organisation et Gestion scientifiques. Dunod, Paris, 1960. Prix, relié : 36 WF.
- Exposé des principes fondamentaux de la programmation accompagné d’exemples, rédigés pour une calculatrice imaginaire, représentative des principales tendances de la construction actuelle. Ce livre peut donc se lire aussi bien comme complément d’un manuel de machine montrant les concepts généraux qui ont dicté les solutions particulières que comme synthèse des connaissances de base nécessaires à une exploitation efficace du calcul électronique.
- A single approach to electronic computers,
- par E. H. W. Hersee. 1 vol. 12,5 x 19, 104 p., 27 fig. Blackie and Son, Londres, 1959. Prix, relié : 12 sh. 6 d.
- Présentation, sous une forme très simple, des principes de base des calculatrices numériques et analogiques. Cet ouvrage s’adresse donc d'abord au grand public cultivé, mais il pourra également intéresser les mathématiciens et les ingénieurs dans la mesure où ils recherchent un exposé élémentaire de cette question. Ecrits dans un style vivant, les chapitres consacrés à l'analyse détaillée du fonctionnement des calculatrices sont les plus intéressants.
- Physique des circuits, par P. Grivet et R. Legros. 1 vol. 17 x 24, 554 p., 348 fig., 6 tabl. Masson, Paris, 1960. Prix, relié toile demi-souple : 90 WF.
- Cet ouvrage est le premier volume d’un important traité destiné à initier le lecteur aux méthodes et aux techniques de l’Électronique. On y trouvera un exposé des bases de l’Électronique limité au régime sinusoïdal et à la méthode de Fourier. L’auteur s’est attaché d’une part à dégager les lois physiques qui régissent le comportement des circuits, d’autre part à décrire les formes les plus récentes adoptées dans la technique moderne. C’est ainsi que sont passées en revue les propriétés des diélectriques ferroélectriques, des ferrites, des alliages ferromagnétiques modernes. Ce livre constitue une excellente introduction à la lecture des traités spécialisés et des revues tech-miques. — A. L.
- Technique des circuits à transistors, par Richard F. Shea. Traduit de l’américain par
- H. Aberdam. 1 vol, 16 x 25, 491 p., 379 fig. Dunod, Paris, 1960. Prix, relié toile sous jaquette ; 78 WF.
- L’importance croissante des semi-conducteurs est la source d’une littérature scientifique et technique de plus en plus abondante. Dans ce domaine en pleine évolution, de nouvelles acquisitions ont rendu rapidement désuets les ouvrages de base. On s’en rend compte en parcourant le livre de R. F. Shea et en consultant la bibliographie que l’auteur, par souci de brièveté, a limitée aux publications postérieures à 1951. Ce livre fait suite aux Principes des circuits à transistors, parus en 1956. Après un bref rappel de la théorie fondamentale des transistors et de l’application de la théorie des circuits à ces derniers, l’auteur aborde l'étude des applications : amplificateurs basse fréquence, amplificateurs à courant continu, etc. Il accorde une large importance aux utilisations en haute fréquence et aux applications du transistor à la technique du calcul électronique. Cet ouvrage, facile à assimiler, constitue un livre de référence qui, compte tenu de la maturité croissante de cette technique, est promis à une carrière plus longue que ses devanciers. — A. L.
- Théorie et pratique des circuits de l’électronique et des amplificateurs, par J. Quinet. Tome I : Théorie et applications du calcul des imaginaires à Vétude des circuits. 4e édition. 1 vol. 16 x 25, 272 p., 175 fig. Dunod, Paris, 1960. Prix, broché : 22 WF.
- M. Quinet nous avait déjà donné dans son Cours élémentaire de mathématiques supérieures un aperçu de ses qualités pédagogiques et, si cet ouvrage n’était pas à l’abri des critiques de mathématiciens pointilleux, le lecteur, lui, était certain d’y trouver des explications suffisantes pour comprendre sans difficultés les questions traitées. Cette fois, le lecteur trouvera expliquée la théorie du calcul des imaginaires et son application aux circuits fondamentaux des amplificateurs et, en général, aux circuits de l’électronique. Cet ouvrage est évidemment susceptible d’intéresser des électroniciens professionnels mais, parce qu'il ne suppose connues que des connaissances rudimentaires en algèbre et en électricité, les simples amateurs de radio seront à meme de le comprendre et d’en tirer profit. L’auteur donne systématiquement le détail des calculs qui sont suivis d’indications sur l’ordre de grandeur des capacités, des inductances ou des résistances des circuits généralement employés. Toute formule est, de plus, complétée par une appplication numérique. On trouve, dans ce premier tome, l’étude des circuits indépendamment des lampes. Cette quatrième édition comprend de notables additions utiles.
- COLLECTIO N ARMAND COLIN
- Nouveautés :
- ÉLÉMENTS
- D’HYDROLOGIE APPLIQUÉE
- G. REMENIERAS
- LA NORMANDIE
- R. MUSSET
- MÉTAUX NOUVEAUX ET MÉTAUX RARES
- R. GADEAU
- ÉLECTROACOUSTIQUE
- P. ROUARD
- 224 p. 4,50 N F
- A. COLIN
- Mécanique des fluides, par E. Brun et A. Martindt-Lagarde, avec la collaboration de J. Mathieu. Dunod, Paris, 1960. Tome I. Fascicule I : Généralités. Statique. 1 vol. 16x25, 286 p., 150 fig. Prix, broché : 25 WF. Fascicule II : Écoulements à une dimension. Conduites. 1 vol. 16 x 25, 340 p., 180 fig. Prix, broché : 29 NF. Les deux fascicules ensemble reliés toile sous jaquette : 58 WF,
- Le premier tome de ce Coure de mécanique des fluides, destiné aux élèves-ingénieurs et aux élèves des Facultés des Sciences puisqu'il contient en particulier les éléments des certificats de mécanique des fluides I et II institués par la nouvelle Licence, relève de la formation générale. Les principes de la mécanique, de la thermodynamique, de l’acoustique, de l’optique et de la similitude physique en ce qui concerne leurs applications à la mécanique des fluides sont d’abord rappelés dans la lre partie ; la 2e partie est consacrée à une étude approfondie de la statique des fluides ; la 3e traite des écoulements à une dimension auxquels se trouvent ramenés les écoulements dans les conduites et les canaux ; enfin, l’étude, limitée aux cas les plus simples, des pertes de charge dans les conduites fait l’objet de la 4e et dernière partie. Deux autres tomes doivent ultérieurement compléter cet ouvrage. Le second traitera essentiellement des écoulements classiques à deux dimensions, de l’aérodynamisme des grandes vitesses et des phénomènes intéressant la couche limite. Le troisième sera consacré aux méthodes de mesure et constituera une introduction aux principaux domaines où la mécanique des fluides est appliquée : machines hydrauliques, météorologie, rhéologie, etc. Le tome dont il est question ici est particulièrement bien à jour (il y figure meme des renseignements succincts sur les satellites artificiels) ; les démonstrations sont toujours très claires et on notera entre autres les soins pris par les auteurs pour souligner les hypothèses et les diverses approximations faites au cours des calculs. Chaque chapitre est suivi d’exercices variés. D’excellentes tables permettent la transformation des unités des différents systèmes utilisés dans la pratique. — R. R.
- Écoulement de F air à grande vitesse dans un tuyau de section circulaire, par Roger Dgpassel. 1 vol. 18 x 27, 98 p., 31 fig. et 2 tabl. Publications scientifiques et techniques du Ministère de VAir, Paris, mars 1960. Prix :
- 14.50 WF.
- Élude théorique de l'écoulement de l’air à vitesse subsonique dans des conditions adiabatiques, de la couche limite laminaire, de la couche limite turbulente, et de l’écoulement établi. La méthode approchée de Young et Winterboltom est améiiorée. Comparaison avec les résultats expérimentaux.
- Sur Fécoulement d’un jet entre parois, par
- Roger Curtet. 1 vol. 18 x 27, 114 p., 82 fig. Publications scientifiques et techniques du Ministère de VAir, Paris, mars 1960. Prix :
- 29.50 NF.
- Étude théorique et expérimentale du mélange d’un jet de fluide incompressible à un fluide de même nature dans un mélangeur. Comparaison des calculs à des résultats d’essais. Comportement de la couche limite contre la paroi. Circulation d’un jet de révolution dans une chambre cylindrique. Édition très soignée.
- Magnétohydrodynamique, par T. G. Cowling, Université de Leeds. Traduit de l’anglais par V. et S. Souffrin. 1 vol. 11 x 16, 132 p., 17 fig. Monographies Dunod, Paris, 1960. Prix, relié toile souple : 11 WF.
- La magnétohydrodynamique étudie le mouvement d’un fluide conducteur dans un champ magnétique, problème dont l’intérêt et la difficulté résident dans l’interaction entre le champ et le mouvement. La magnétohydrodynamique peut apparaître de deux manières : ou bien comme une conséquence de la classique physique macroscopique (démarche plus justifiée pour les liquides que pour les gaz) ; ou bien au terme d’une étude des gaz ionisés lorsque, certaines conditions étant satisfaites, le plasma peut être idéalisé sous forme d’un fluide continu. Dans cet ouvrage, l’auteur s’est limité presque entièrement au premier point de vue, historiquement antérieur ; après avoir posé les équations fondamentales de la magnétohydrodynamique, il traite de ses applications, spécialement géophysiques et astrophysiques : taches et filaments solaires, magnétisme terrestre et stellaire, magnétisme galactique, etc. Pour de nombreux chercheurs et étudiants, ce petit livre consti-
- p.541 - vue 544/558
-
-
-
- tuera une excellente introduction à l’élude plus récente et plus difficile des plasmas. Bibliographie et index. -— P. C.
- Lectures in theoretical Physics, édité par Wesley G. Brittin et Lita G. Dunham, Volume I. 1 vol. 15,5 x 23,5, vih-414 .p. Interscience Publishers Inc., New York et Londres, 1959. Prix, relié : 6 dollars.
- Conférences faites à l’école d’été de Physique théorique de Boulder (Colorado) en 1958. Consacré à des questions hautement spécialisées, il n’intéressera que les chercheurs qui y trouveront les derniers développements de ^ la physique des hautes énergies, de la théorie des noyaux, des particules élémentaires et de la mécanique statistique des processus irréversibles.
- Turning points in Physics. A sériés of lectures given at Oxford University. 1 vol. 13 x 20, 192 p. North-Holland ^ Publishing
- Company, Amsterdam, 1959. Prix, relié : 20 guilders.
- Une série de conférences, relatives aux influences des découvertes scientifiques modernes sur nos modes de pensée et notre représentation de l’Univers, ont eu lieu en 1958 à Oxford. Le présent volume en donne les textes dont les titres indiquent assez l’intérêt : Fin de la philosophie mécanistique et développement de la physique des champs ; Nature quantique de la matière et des radiations ; La probabilité fait son entrée en physique ; Du relatif à l’absolu; Déclin et disparition de la causalité ; Nouveaux concepts et particules élémentaires. Ce dernier exposé, dû au «professeur Wilkinson, caractérise bien l’effort mental qui est réquis de nous pour la compréhension des nouvelles hases de la physique. Les principes de conservation ont toujours joué un rôle fondamental : conservation de l’énergie, de la charge électrique totale d’un système isolé, etc. Certaines de ces lois sont restées vraies au niveau de la physique nucléaire, d’autres ont dû être amendées, et de nouvelles lois sont apparues. Le langage auquel nous sommes habitués n’est plus adapté à la description des phénomènes. Le symbolisme mathématique prend une importance croissante et il faut nous familiariser avec des notions qu’aucune analogie de type classique ne nous rend plus compréhensibles.
- Liquid scintillation Counting, édité par Carlos G. Bell Jr. et F. Newton Hayes. 1 vol. 15,5 x 24, 292 p., nombr. fig. Pergamon
- Press, Londres, Paris, 1959, Prix, relié : 70 sh.
- Recueil des communications exposées lors d’une conférence tenue à l’Université de Northwestern en août 1957. L’ouvrage a donc été conçu selon cette méthode fort à la mode actuellement, consistant à rassembler des études écrites, chacune, par un spécialiste. Si ce principe est souvent excellent pour les applications d’une méthode, il donne de moins bons résultats lorsqu’il s’agit d'exposer des théories. Il apparaît alors une disparité inévitable, qui peut gêner le néophyte pour se faire une idée d’ensemble. Ce recueil s’adresse donc essentiellement à des spécialistes avertis pour lesquels il constituera, évidemment, une source de renseignements de premier ordre. Les différents exposés sont rangés en plusieurs parties : principes fondamentaux, instrumentation, applica-
- tions générales et spécifiques, travaux étrangers (c’est-à-dire français, anglais, etc.) .
- Physique nucléaire, par Michel Bayet. 1 vol.
- 16,5 x 24,5, 404 p., 169 fig. Masson, Paris,
- 1960. Prix, relié toile demi-souple : 65 NF.
- Il est constant de dire de la physique nucléaire qu’elle connaît depuis quelques décennies un développement considérable, qu’elle est en pleine évolution, etc. Il n’est pas dans nos intentions de contester un tel état de fait ni, encore moins, de le regretter, mais on peut cependant se demander s’il est raisonnable de multiplier les ouvrages consacrés à cette branche de la physisque. Les éditeurs semblent, quant à eux, avoir répondu par l’affirmative à cette question et le nombre des cours ou traités de physique nucléaire s’accroît chaque année dans des proportions qui peuvent paraître inquiétantes car enfin ; ou bien il n'existe pas d’ouvrage suffisamment complet sur la question, ou bien il en existe et en multiplier le nombre ne peut que dérouter l’étudiant qui essaie de faire un choix. Or, il semble bien que ces ouvrages existent puisque la plupart des auteurs (dont M. Michel Bayet) font état de ces classiques de la Physique nucléaire que sont le Evans ou le Halliday. Certes, les nouveaux ouvrages ne sont pas, en général, la répétition pure et simple d’œuvres plus anciennes mais il est difficile pourtant de parler à leur propos de livres neufs, tant par leur contenu que par la manière dont il est présenté. Ne soyons pas injustes, cependant : M. Bayet a rédigé ce cours avec beaucoup de soins et il constitue sans aucun doute un excellent ouvrage d’enseignement écrit directement dans notre langue, ce dont on doit se féliciter bien qu’en ce domaine on ne soit pas toujours obligé de faire appel à des auteurs étrangers. Venons-en maintenant à l’ouvrage proprement dit. Ce cours de physique nucléaire a été écrit an niveau de la licence mais, pour l’aborder avec profit, le lecteur devra posséder l’essentiel de ce qu’il est convenu d’appeler la Physique générale ainsi qu'une bonne culture mathé-
- A NOS LECTEURS
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- matique. Par ailleurs, l’auteur s’est limité volontairement à la physique nucléaire des basses énergies (de 0,1 4 10 MeV environ), de sorte que l’étude du rayonnement cosmique n’a pas été abordée. Il a également laissé de côté la question des accélérateurs de particules et les problèmes technologiques liés aux détecteurs et aux réacteurs nucléaires. La lre partie traite des compléments de physique théorique indispensables : physique statistique, étude mathématique des interactions des particules, moment angulaire et spin, notions sur la relativité, et ces chapitres sont parmi les plus intéressants de l'ouvrage. La 2e et la 3e partie, consacrées respectivement à la constitution de la matière, à la radioactivité et aux interactions entre les particules nucléaires et la matière sont classiques. En appendice, un exposé de valeur sur le calcul des sections efficaces en mécanique quantique. Index. Présentation impeccable, conforme à la tradition de l’éditeur. — R. R.
- Travaux pratiques de physique nucléaire et
- de radiochimie, par M. Duquesne, R. Grégoire et M. Lefort, avec un appendice contre
- les radiations ionisantes par le docteur Dévo-
- ret. 1 vol. 16,5 x 24,5, 324 p., 231 fig. Masson, Paris, 1960. Prix : 39 NF.
- Rédigé à la demande de F. Joliot quelques mois avant sa mort, ce recueil décrit de façon détaillée quarante expériences, réalisées au cours de ces dernières années au certificat de physique nucléaire et radioactivité de la Faculté des Sciences de Paris. Il s’adresse donc d’abord aux étudiants des Facultés mais, par sa généralité, il est à même d’intéresser tous ceux qui veulent se familiariser avec les techniques de la physique et de la chimie nucléaires. Après une introduction où sont rappelées des notions indispensables, on traite de la détection des rayonnements et des principales méthodes d’étude des processus de désintégration des noyaux. En appendice, un exposé du docteur Dévoret sur les effets biologiques des rayonnements et les questions de protection. Tables de constantes et énoncés de problèmes (la plupart avec solutions). Cette publication est une heureuse initiative, car s’il existait de multiples ouvrages sur l’aspect théorique de la physique nucléaire, son aspect expérimental n’avait pratiquement pas fait, en France, l’objet d’un exposé complet. On appréciera la manière détaillée dont sont décrites les expériences. Nous formulerons cependant un reproche mineur. Pourquoi avoir conservé pour désigner les isotopes les anciennes dénominations du type radium E, radium F P Si elles se justifiaient autrefois lors de l’étude des familles radioactives, elles nous semblent maintenant sans intérêt car elles risquent de créer des confusions et imposent un effort de mémoire non négligeable. N’est-il pas plus simple, par exemple, de parler de polonium 210 que de radium F P — R. R.
- Physique nucléaire appliquée, par Robert
- GuiLLrEN. 1 vol. 16 x 25, 666 p., 204 fig.
- Eyrolles, Paris, 1960. Prix, cartonné : 83 NF.
- L’auteur expose d’abord les fondements de la structure discontinue de la matière, de l’électricité et du rayonnement ; puis, il étudie les divers procédés de détection des particules et les propriétés de celles-ci. La 3e partie, la plus étendue, traite des phénomènes radioactifs et des transformations nucléaires provoquées ; puis on aborde la théorie, la réalisation et l’usage
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 19551
- 84, rue de Grenelle, Paris-7e
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles.
- Préparation aux diplômes d’État Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- \
- LE CALCUL INTÉGRAL
- FACILE ET ATTRAYANT
- * PAR
- G. BESSIÈRE
- vin-216 pages 14 x 22, avec 52 figures. 26 édition. Nouveau tirage 1959. Broché ............................. 6,40 NF
- Ouvrage couronné par la Société d'encouragement pour l'Industrie nationale
- En vente dans toutes les bonnes librairies et chez
- DÏTIXTC^ID Éditeur, 92, rue Bonaparte, Parls-6\ DAN 99-15.
- p.542 - vue 545/558
-
-
-
- 5i3
- des réacteurs, La protection contre les radiations et les applications des isotopes radioactifs font l’objet de deux chapitres bien documentés. Cet ouvrage, d’une grande valeur didactique, est en outre très à jour ; il comporte par exemple une étude assez détaillée de plus d’une vingtaine de particules, des particules classiques à celles d’origine plus récente : mésons, hypé-rons, etc. ; on y trouve d’excellents chapitres sur les spectrographes de masse, les grands accélérateurs modernes. La propulsion nucléaire et meme les futures fusées nucléaires, l’avenir des phénomènes de fusion intéresseront de nombreux lecteurs. Un chapitre sur l’effort atomique français présente une synthèse utile. Belle illustration. — R. R.
- Progress in nuclear energy. Sériés ÎX. Ana-lytical chemistry. Vol. T, éditeur M. T. Kel-iæy. 1 vol. 16,5x23,5, 372 p., 155 fig. Per-gamon Press, 1-ondres, New York, Paris, 1959. Prix, relié : 115 sh. ou 15 dollars.
- Communications sur l’analyse, présentées à la IIe Conférence internationale sur les utilisations pacifiques de l’énergie atomique. T. Applications aux réacteurs : analyse des minerais, matières fissiles, produits de fission, matériaux de constitution (aluminium, zirconium) et effluents. — II. Analyse par activation, en des domaines variés : abondance isotopique; impuretés dans les matériaux très purs. — III. Techniques spectrographiques : analyse de l’uranium dans ses minerais ; des gaz dans les métaux ; des impuretés dans le zirconium par spectrographie d’émission ; des mélanges eau lourde-eau ordinaire par spectrographie infrarouge ; des combustibles d’un réacteur par
- spectrographie X. — IV. Applications industrielles. — V. Protection : détermination de Sr 89 et Sr 90, dans l’urine et l’eau de mer ; dosage du plutonium chez l’homme ; possibilités analytiques de la résonance nucléaire.
- La théorie des gaz neutres et ionisés, par
- E. W. Montroll, Institute for Fîuid Dynamics and Applied Mathematics, University of Maryland ; L. Van IIove, Instituut voor theore-tische Fysica, Utrecht ; J.-L. Delcroix, Laboratoire des Hautes Énergies, Orsay ; M. Krus-kal, Princeton University ; A. N. Kaufman, Lawrence Radiation Laboratory, Livermore ; J.-F. Dcnisse, Observatoire de Paris-Meudon ; E. Sckatzman, Institut d’Astrophysique, Paris. 1 vol. 18x25, 469 p., fig. Hermann, Paris, 1960. Prix, relié toile sous jaquette ; 68 N F.
- Cet ouvrage bilingue rassemble les cours professés à l'École d’été de Physique théorique des Houchès durant la session de 1959. Chacun des auteurs expose en français ou en anglais les résultats les plus récents, souvent inédits, concernant les bases ou les développements de la physique des plasmas. Nous notons ainsi au fil des chapitres des leçons sur la mécanique statistique des gaz en équilibre ou hors d’équilibre, sur la théorie microscopique des plasmas, sur la théorie hydrodynamique des plasmas, sur l’étude des ondes électromagnétiques dans les plasmas et enfin sur les applications de la physique des plasmas à l’astrophysique. Ouvrage de travail pour le spécialiste. Bibliographie.
- Tables de constantes et données numériques n° 11. Constantes sélectionnées. Pou-
- voir rotatoire naturel. IV. Alcaloïdes, par
- J.-P. Mathieu et M. M. Janot. Préface de Sir Robert Robinson. 1 vol. 21,5 x 27,5, 212 p. Pergamon Press, Paris, Londres, 1959. Prix, relié ; 110,40 NF.
- On trouve dans ces tables les pouvoirs rotatoires publiées de tous les alcaloïdes de structure connue ou non. Les principaux sels d’un meme alcaloïde, de môme que ses dérivés naturels, sont inclus. Les points de fusion sont indiqués, ainsi que le solvant, la concentration, la température, la longueur d’onde, le pouvoir rotatoire spécifique correspondant à ces conditions expérimentales et, évidemment, les références. La bibliographie va de 1873 au 1er juillet 1959. Les alcaloïdes dont le pouvoir rotatoiie n’a pas été déterminé, ou ceux dont on ne connaît jusqu’ici que le racémate, ont été inclus de sorte que cet ouvrage est aussi un répertoire d’alcaloïdes que le lecteur pourra compléter peu à peu, lorsque de nouvelles précisions seront publiées.
- Sciences et jeux, par William Rivier. 1 vol. 12,5 x 19, 94 p. Dunod, Paris, 1960. Prix, broché : 6 NF.
- Dans certaines catégories de jeux, l’activité de noire esprit procède de règles admises par convention, c’est-à-dire de limitations librement consenties par les joueurs. Pour l’auteur, ces limitations ne sont pas sans analogie avec les principes et les axiomes que la science pose à la base de ses théories et cet ouvrage essaie d’analyser l’influence de cette liberté du choix sur la pensée scientifique. Sans entrer dans la discussion de cette théorie, plusieurs points appellent des réserves et d’abord, ce que l’auteur reconnaît d’ailleurs, la manière dont est présenté le phénomène ondulatoire, fondamentalement différente des conceptions actuelles. Par ailleurs, les calculs sur les ondes rétrogrades gagneraient à être explicitées si l’on veut que le lecteur moyen ait une chance d’y comprendre quelque chose. Quel est, en effet, le sens de ces phases dont la plus évidente des caractéristiques est qu’elles sont nulles en tous les peunts de l’espace et à tous les instants, à moins que les expressions entre crochets n’aient des vertus particulières, mais que nous ignorons ? — R. R.
- McGRAW-HILL BOOK COMPANY INC.
- has pleasure in an nou ncing the appointment of one of its Senior Editors
- Mr. HUGH W. HANDSFIELD
- as résident
- PUBLISHING REPRESENTATIVE
- in London
- Mr. Handsfield now represents the firm's publishing interests in the United Kingdom, Eire, and on the Continent for books in the natural and applied sciences, in social and behavioural sciences, in business and industrial management, etc. — books that may be published simultaneously in New York, Toronto and London
- for sale throughout the world.
- Ail publishing proposais and ail manuscripts submitted by invitation wîll be
- considered promptly by Mr. Handsfield.
- Please address him at :
- McGRAW-HILL HOUSE 95, Farringdon Street LONDON, E.C.4 - England
- p.543 - vue 546/558
-
-
-
- 544
- Dynamics of climate, édité par Richard
- L. Pfeffer. 1 vol. 16 x 23, xvi-137 p., 23 fig.
- Pergamon Press, Londres, 1960. Prix, relié :
- 35 sh.
- Cet ouvrage rassemble les communications faites à la conférence sur l’Application des techniques numériques au problème de la circulation générale de l’atmosphère. On y aborde les problèmes soulevés par l’utilisation de modèles mathématiques auxquels on applique des méthodes numériques. Il semble que ces techniques numériques doivent conduire, dans un proche avenir, à une meilleure compré-
- hension du comportement général de l’atmosphère, à une amélioration des prévisions météorologiques à longue échéance et à une connaissance plus approfondie des facteurs qui gouvernent les changements de climat.
- Le parasitisme chez les plantes, par Charles Christmann, agrégé de Sciences naturelles. 1 vol. 11 x 16,5, 212 p., 42 fig. Collection Armand Colin, Paris, 1960. Prix : 4,50 NF.
- Dans le monde végétal, le parasitisme est surtout répandu chez les champignons. Les plantes vertes, grâce à leur chlorophylle, assi-
- milent le carbone atmosphérique et elles savent d’autre part utiliser directement les substances minérales que leurs racines puisent dans le sol. Cependant, un petit nombre de plantes supérieures ont trouvé plus commode d’emprunter tout ou partie de leur alimentation à d’autres plantes, sur lesquelles elles se fixent. Ce sont, dans nos pays, les Rhinanthées, les Orobanches, les Santalacées et les Loranthacées, parasites à divers degrés. Quelques plantes des pays tropicaux ont poussé le parasitisme bien plus loin et présentent des particularités remarquables : Thonningia, dont l’appareil végétatif est réduit à la racine ; Rafflesia, aux fleurs monstrueuses et qui, pour le reste, ne présente plus rien d’un végétal phanérogame. Un court chapitre sur les plantes saprophytes termine ce livre très intéressant pour tous les botanistes.
- Pétrole français, par Bernard Pierre. 1 vol. 15 x 21, 272 p., 9 cartes et graphiques, 6 pl. hors texte. Hachette, Paris, 1960. Prix : 12 NF.
- Ce livre, condensé de nombreux documents puisés à bonne source, dresse le tableau actuel cle la recherche et l'exploitation pétrolières dans trois séries de territoires : la France métropolitaine, l’Afrique noire et le Sahara. Des renseignements sont également fournis sur les installations de raffinage. L’accent a été surtout porté sur l’historique des découvertes, sur les facteurs économiques et sur la structure et l'activité des Sociétés qui participent à l’essor pétrolier français.
- Toute l’imprimerie, par Fernand de Labor-derie et Jean Boisseau. Préface de F. Lefort-Lavauzelle, président du Bureau international des fédérations de maîtres-imprimeurs. 3° édition. 1 vol. 13,5 x 21,5, 430 p., nombr. fig. Dunod, Paris, 1960. Prix : 24 NF.
- Dans cette 3e édition augmentée en plusieurs de ses parties, tous ceux qui à quelque titre que ce soit ont affaire à l’imprimerie trouveront des renseignements utiles. Après les divers procédés de composition typographique, on étudie la photogravure, le tirage typographique, les procédés d'impression les plus divers, la reproduction des couleurs, les procédés de reproduction employés dans les bureaux, l’hélio-graphie et autres procédés de reproduction des documents, la préparation et la fabrication des livres, les impressions spéciales les plus variées et sur toutes sortes de supports, la reliure-brochure, les papiers et encres d’imprimerie. Un chapitre est consacré aux prix et devis, usages professionnels, liaisons techniques ; un autre à l’orientation nouvelle des industries graphiques. Un chapitre un peu succinct résume l’histoire de l’imprimerie.
- Les Robinsons des Galapagos, par Margret Wittmer, traduit de l’allemand par Henry Daussy. 1 vol. 14,5 x 21,5, 224 p., 42 photos hors texte. Albin Michel, Paris, 1960. Prix : 13,50 NF.
- Les Iles Galapagos sont célèbres, à cause de l’intérêt qu'elles ont suscité chez les naturalistes. Elles ont également été le théâtre de nombreuses aventures dramatiques. Avec le récit coloré et vivant de Margret Wittmer, elles apparaissent cette fois comme une terre d’asile pour une famille de pionniers qui désira y vivre près de la nature. La lecture de ce récit aidera à les connaître sous un aspect qui fut rarement décrit.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- BELLE OCC. : Encyclopédie Diderot d’Alem-bert, 3e éd., 1778, Genève. 39 vol: avec tables (manque 5 vol.). Plat des reliures défraîchi, dos cuir assez bon état. — 3 vol. magnif. planches très b. état. Prix : 150 NF, S’adresser Revue, n° 255.
- EXCELLENTS PORTRAITS au fusain d’après pet. photos. : 80 NF. Ëcr. Revue sous n° 256.
- CH. LEMONNIER 10.3
- A-9%-+*
- DES CRAIES ARTISTIQUES AUX MILLE RESSOURCES
- Par leurs Qualités exceptionnelles les CRAIES NEOCOLOR sont particulièrement appréciées de l'artiste, du maquettiste, du décorateur. Exemptes de toute matière nocive, elles sont précieuses pour l'enseignement du dessin aux enfants.
- D'UNE LUMINOSITÉ INCOMPARABLE
- elfes s'awU/quztitsuA TOUT
- Très fortement pigmentées et résistantes au soleil, les CRAIES ARTISTIQUES NEOCOLOR permettent de travailler, même en grande surface, sur papier, carton, bois, textile, métal, verre, plastiques, plâtre, etc.
- Gùfes sàTisf&htàt itots tes ferles
- Les CRAIES ARTISTIQUES NEOCOLOR employées à sec permettent la technique du grattage. Diluées dans le FOTOL (diluant CARAN D'ACHE) ou La térébenthine, elles s'appliquent au pinceau donnant les effets de lavis ou de peinture à l'huile.
- £ffe7 de
- chez votre papetier En boîtes : 10, 15 et 50 couleurs
- DISTRIBUÉ par CORECTOR-ADHÉSINE
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : 46 trimestre i960, n° 3528. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3lOÔ66), LAVAL, N° &Iq3. — 12-1960.
- p.544 - vue 547/558
-
-
-
- LA NATURE
- QUATRE-VINGT-HUITIÈME ANNÉE — I960
- PAGINATION DES NUMÉROS DE I960
- Janvier . . . 1 à 48 Mai . . . . 185 à 232 Septembre . . 361 à 400
- Février . . . 49 à 88 Juin . . . 233 à 272 Octobre . . . 401 à 448
- Mars . . . . . . 89 à 136 Juillet . . 273 à 320 Novembre . . 449 à 496
- Avril .... . . 137 à 184 Août . . . 321 à 360 Décembre . . 497 à 544
- Nota. — Les numéros de pages précédés de la lettre G renvoient aux pages de couverture en regard de ces'numéros. ________-
- Les chiffres en caractères gras indiquent les articles principaux.
- INDEX ALPHABÉTIQUE
- A
- Abeille : survie des spermatozoïdes, 468. —- : origine et rôle de l’aiguillon, 354.
- — : sécrétion d’une substance inhibitrice de la germination, 248.
- Accélérateur de protons de 30 GeV à Brookhaven, C401.
- Accélération de la fonte des glaces de l’Arctique par poussière de charbon, 517.
- Accroissement de la culture du coton en U. R. S. S., 518.
- Acide ascorbique et résistance aux radiations, 167.
- — sulfurique : nouvelles techniques de fabrication, 83.
- Acides nucléiques : travaux récents, 477. Acier à l’oxygène : préparation, 393. Activité des volcans du Kamtchatka, 205.
- — électrique du cerveau et interprétation psycho-physiologique, 241.
- Actualité instrumentale, 40, 125, 173, 222, 311, 434, 484, 535.
- Adaptation des animaux à une centrifugation prolongée, 413. Administration de la Recherche : colloque régional de langue française, 246. Aérodynamique phonatoire : fonctionnement du larynx, 300.
- Agadir : séisme de 1960, 378.
- Age du phoque déterminé par ses dents, 317.
- Aigles et cigognes en conflit meurtrier, 36.
- Aiguillon des abeilles : origine et rôle, 354. Alaska 1960, 249.
- Algues d’eau douce disséminées par les oiseaux, 194.
- Alimentation en air de l’orgue, 470. Aluminium : fabrication par emploi du gaz méthane, 154.
- — : industrie en Chine, 526. Analgésique nouveau, C 321.
- Analyse automatique, 129.
- — pollinique et variations passées du climat du Sahara, 389.
- Anesthésie médicale par le bruit, 444. Année géophysique internationale : étude de l’ozone atmosphérique, 101.
- --------: étude du Soleil, 282.
- Antandroy, population primitive de Madagascar, 361, 428.
- Antarctique : climat et glaces, 94.
- Antibiotique de synthèse, 132.
- Antilopes Addax dans le Ténéré, 460. Antiparticules des hypérons sigma, C 361. Anvers et Rotterdam : rivaux ou associés,
- 110.
- Appareils de contrôle de contamination, 535.
- — de mesures électrochimiques, 491. Applications thermiques du faisceau électronique, 437.
- Archipel de Santorin, 519.
- Arctique : mélange des eaux atlantiques et pacifiques empêché par la chaîne Lomonossov, 299.
- Aspects scientifiques et techniques de la bombe A française, 117.
- Assèchement des gaz par l’oxyde de baryum, C 89.
- Astate, 338.
- Astéroïde au Texas, 219.
- « Astrophysique générale », 221.
- Atomes et molécules mésiques, 8. Audition et phonation : relations neurologiques, 74.
- Augmentation de l’éclat du Soleil, 7. Autocar ultra-rapide sur l’autoroute Londres-Birmingham, 294.
- Autoroutes urbaines surélevées, 522. Autotransformateurs réglables, 179. Avenir des moteurs d’avion, 122.
- Avion à décollage vertical Bréguet 940 « Intégral », 82.
- — Bréguet « Atlantic », chasseur de sous-marins, C 137.
- —- Fouga « Magister », 82.
- —- intercepteur Mirage III, 261.
- — Morane 760 « Paris », 82.
- Avions de transport à Mach 3, 340.
- —• hypersoniques, 340.
- — et engins : progrès en matière de navigation et guidage, 262.
- B
- Bactérie destructrice de virus, 70. Bactéries : sexualité, 342.
- Barrage de Malpasset, 14, 220.
- Beurre : production mondiale, 260.
- Bilan des séismes de 1960, 378. Biogéographie et écologie en Australie, 99.
- « Biologie quantique », 37.
- Blindage des habitacles interplanétaires, 413.
- Bœuf musqué en Sibérie, 70.
- Bolomètre à infrarouge, 539.
- Bombe A française, 117, 204.
- C
- Café : consommation en France, G 1. Calculateur analogique et enregistreur XY, 436.
- —• électronique à grande mémoire, 67. Calculatrices nouvelles, 435.
- Cancer : expérimentation d’un vaccin, 339.
- Carbochimie aux Houillères de Lorraine, 19.
- Caspienne : variations de niveau, 247. Catalyse : 2e Congrès, C 233.
- Caucase : découverte d’un gisement acheuléen, C 497.
- Ceinture de Van Allen autour de Jupiter, 408.
- Centres de la douleur et du plaisir dans le cerveau des rats, 15.
- Centrifugation prolongée des animaux, 413.
- Centrifugeuses de table, 131.
- Cerveau : activité électrique et interprétation psycho-physiologique, 241. Chaîne Lomonossov, 299.
- Champignon contre Termite, 260. Charbon : présence de substances bacté-riostatiques, 392.
- —- -papier, 145.
- Chemins de fer : nouvelles lignes en Chine, 93.
- Chili : séismes de 1960, 378.
- Chimpanzé : nombre de chromosomes, 463.
- Chine : culture fruitière, 248.
- — : industrie de l’aluminium, 526. Chlorophylle : synthèse réalisée à Munich, C 321.
- Chromatographie en phase gazeuse, 222. Chromosomes du Chimpanzé : nombre, 463.
- — en excès chez un bébé, 444. Cigognes : instinct migrateur et hormones,
- 36.
- — et aigles en conflit meurtrier, 36. Climat du Tibet, 94.
- — et glaces de l’Antarctique, 94.
- p.545 - vue 548/558
-
-
-
- 546
- Climatiseur à cycles hydrothermiques, 538.
- Cobalt utile à la luzerne, 483.
- Coexistence de YHomo sapiens avec l’Homme de Néandertal, 408. .
- Coke sidérurgique et carbochimie aux Houillères de Lorraine, 19.
- Coléoptères du sol, 344.
- Collision de galaxies, 420.
- Colloque l’égional de langue française sur l’Administration de la Recherche, 246. Colonnes à distiller à élément tournant, 129.
- Comité international de la Recherche scientifique et technique, 13.
- Comment l’oiseau commence son nid, 258. Commutation électronique en téléphonie, 346.
- Composés organiques dans une météorite, 6.1.
- Comportement du hareng, 17.
- Compteur à œufs de poissons, 248.
- Congo : projets Inga, 85.
- Congrès de la catalyse (2e), C 233. Consolidation et granitisation des continents, 266.
- Consommation du café en France, C 1. Constitution des protéines, 414.
- Contrôle de la contamination de l’air, de l’eau, humaine : appareils, 535.
- — non destructif par gammagraphie, 537.
- Contrôleurs et doseurs de radiations, 173. Coques minéralisées au Sahara, 327. Coraux fluorescents au Zoo d’Anvers, 336.
- Cosmologie, 33.
- Coton : accroissement de culture en U. R. S. S., 518.
- Crabe chinois en Méditerranée, 392.
- Crâne de Mammifère jurassique, 392. Cratères de météorites connus en Europe, 503.
- — lunaires, meilleurs terrains d’alunissage pour véhicules spatiaux, C 497.
- Cri du Sphinx Tête de Mort, 62. Crustacés : rôle de la glande androgène,
- 30.
- Culture fruitière en Chine, 248.
- Cycle du C02 terrestre et variations du climat, 309.
- D
- Danger de l’abus des rayons X, 70. Décontamination de lait radioactif par poudre d’os, 408.
- Découverte de vapeur d’eau sur Vénus, 61.
- Dérivés acryliques et leurs applications,
- 349.
- Dessalage de l’eau de mer, 93. Destruction accélérée de la savane soudanaise, 155.
- Détection de signaux en provenance de l’espace, 343.
- — des étoiles variables par télévision,
- 5.
- — — rayons X par les souris, 492.
- — par infrarouges de réchauffement des essieux de wagons, C 185.
- Détergents : production de mousses nuisibles, 377.
- Développement des petits groupes, 465, 523.
- Développements du Rréguet 940 « Intégral » à décollage vertical, 82.
- Diamants industriels : fabrication, 38.
- Dispositif anti-pollution sur les moteurs, C 49.
- Dissémination par les oiseaux des algues d’eau douce, 194.
- Dosage des protéines par luminescence, C 449.
- Doseurs et contrôleurs de radiations, 173.
- Droit spatial, 289.
- E
- Eau de mer : dessalage, 93.
- Eau lourde : production dans l’usine pilote de Toulouse, 196.
- — —, milieu favorable aux virus, C 401.
- — utilisée comme rampe de lancement, 310.
- Échaufîement des essieux de wagons détecté par infrarouges, C 185.
- Éclat du Soleil en accroissement, 7. Éclipse totale de Soleil en France, 540. Écologie et biogéographie en Australie, 99.
- Économie de l’U. R. S. S., 268.
- Éléments chimiques rarissimes : technétium, francium, astate, 338.
- Élimination des résidus radioactifs, 28. Énergie géothermique en Sibérie, 426.
- — des marées en U. R. S. S., 260. Engin spatial habité : modes de propulsion, 166.
- -----Pionnier V, record de distance
- de liaison radio, 143.
- Enseignement : introduction de l’Histoire des Sciences, 123.
- Ensembles nouveaux de traitement numérique de l’information : récentes performances, 123.
- Envoi prochain d’un homme dans l’espace, 409.
- Essais aérodynamiques sur maquettes lancées par moteur-fusée, 492.
- Essieux de wagons : échaufîement détecté par infrarouges, C 185.
- Essor des Houillères du Bassin de Lorraine, 19.
- État actuel du problème cosmologique,
- 33.
- Étoiles variables détectées par télévision, 5.
- Étude scientifique du mouton en Australie, 424.
- — de l’ozone atmosphérique pendant
- l’A. G. I., 101.
- — des substances naturelles par chro-matoplaques, 229.
- ----variations de latitude en Asie,
- 180.
- — du Soleil pendant l’A. G. I., 278. Expansion de l’univers : ses causes, 35. Expériences spatiales d’août 1960, 409. Explosions atomiques souterraines et leur
- utilisation industrielle, 200.
- Exposition au Musée de l’Homme : la vie du Sahara, 456.
- — Musée Guimet : Masques animaliers, 106.
- — de champignons à Paris, C 401.
- — (57e) de la Société française de Physique, 434, 484.
- F
- Facture d’orgues des origines à nos jours> 527.
- Fer : gisement à Bielgorod, 247. Fermeture magnétique, 507.
- Fleurs de genêt contre venin de serpent, 427.
- Flore d’importation et cultures dans la presqu’île du Cap Vert (Sénégal), 206. Fonctionnement sensoriel : limites physiques, 332.
- Fondation Charles Darwin pour les îles Galapagos, 38.
- Fonte des glaces accélérée par poussière de charbon dans l’Arctique, 517. Forages ultra-profonds en Sibérie, 426. Forêts, histoire et linguistique, 508. Fourmilions attaqués par des Plyméno-ptères, 7.
- Fourmis contre insectes ravageurs en Italie, 390.
- Francium, 338.
- Fusée atomique soviétique, 377.
- — française atteint 8 000 km/h, 318.
- — pour liaison postale, 132.
- G
- Galapagos : création de la « Fondation Charles Darwin », 38.
- Galaxies en collision à 6 milliards d’années-lumière, 420.
- Galets éolisés, 299.
- Gastéropodes à coquille bivalve, 308. Générateur de noyaux d’iodure d’argent, 443.
- Genèse de la grêle, 211.
- Géologie régionale et pétrole du Bassin de Paris, 233.
- Gisement acheuléen au Caucase, C 497. Glaces de l’Arctique : fonte accélérée par poussière de charbon, 517.
- — et climat de l’Antarctique, 94. Glande androgène des Crustacés : rôle, 30.
- —- rectale des Requins : rôle dans l’élimination du sel du sang, 229.
- Gorilles du Parc national Albert : menace de disparition, 144.
- Graisse des porcs : épaisseur mesurée par la radioactivité, 518.
- Grandes villes dans le monde, 522. Granitisation et consolidation des continents, 266.
- Greffe des tissus chez les Vertébrés supérieurs, 137.
- Grêle : genèse, 211.
- Grippe en 1959, 45.
- — — 1960, 483.
- Guidage et navigation des avions et engins : progrès récents, 262.
- H
- Habitacles interplanétaires : blindage, 413.
- Hareng : comportement et évolution des bancs, 17.
- Histoire, forêts et linguistique, 508.
- Homme de Néandertal : coexistence avec YHomo sapiens, 408.
- « Homme des Neiges » : empreinte du pied, 277.
- p.546 - vue 549/558
-
-
-
- Hormones : rôle chez les insectes, 32.
- — : influence sur les migrations des cigognes, 36.
- Houillères du Bassin de Lorraine, 19. Hydrazine : fabrication et applications,
- 168.
- Hydrogène sulfuré dans le golfe de Kras-novodsk, 298.
- Hyménoptères ennemis des Fourmilions,
- 7.
- Hyperatomes, 8.
- Hypérons sigma plus et moins et leurs antiparticules, G 361.
- I
- Identification des spermatozoïdes X et Y au contraste de phase, 427.
- Iles Galapagos : création de la « Fondation Charles Danvin », 38. Immobilisation réflexe de deux animaux marins, 124.
- Impact d'astéroïde au Texas, 219. Incubation artificielle pratiquée par des Mégapodes, 158.
- Indes et système métrique, 162.
- Industrie de l’aluminium en Chine, 526.
- — nucléaire, 321.
- Inexistence de toundra à Sakhaline, 317. Influence de la composition du sol sur la santé, 18.
- Information : traitement numérique, 123. Insectes : résistance aux insecticides de synthèse, 497.
- — : rôle des hormones, 32.
- — : vision, 96.
- — ravageurs en Italie : destruction par des fourmis, 390.
- —• utiles, 39.
- Insecticides de synthèse et résistance des insectes, 497.
- Installations d’essais pour le vol spatial, 507.
- Irrigation par aspersion, 163.
- J
- Jardins botaniques en Chine, 336. Journal de bord automatique pour avion, 263.
- K
- Kamtchatka : activité des volcans, 205.
- L
- Lait : transport en montagne par « pipe-lait », 264.
- — radioactif : décontamination par poudre d’os, 408.
- Lampes fluorescentes et interférences radioélectriques, C 233.
- Lar : séisme de 1960, 378.
- Larynx : fonctionnement aérodynamique,
- 300.
- Latitude : variations en Asie, 180. Liaison postale par fusée, 132.
- Lignes de chemins de fer nouvelles en Chine, 93.
- Limites physiques du fonctionnement sensoriel, 332.
- Linguistique, forêts et histoire, 508.
- M
- Madagascar : les Antandroy, population primitive, 361, 428.
- — : origines du peuple malgache, 1.
- — : quelques végétaux de l’Androy, 368.
- Malpasset : rupture du barrage, 14, 220. Mammifère jurassique : découverte du premier crâne, 392.
- Marées : énergie (en U. R. S. S.), 260. Masques animaliers : exposition au Musée Guimet, 106.
- Matériel sonore de l’orgue, 401.
- « Matière extraordinaire » : atomes et molécules mésiques, hyperatomes, 8. Mégapodes, oiseaux qui pratiquent l’incubation artificielle, 158.
- Mélange des eaux atlantiques et pacifiques empêché dans l’Arctique par la chaîne Lomonossov, 299.
- Mélouza : séisme de 1960, 378.
- Mer Noire : salinité, 142.
- Mers intérieures soviétiques : salinité, 339. Métabolisme : étude des variations saisonnières, 68.
- Météorite : présence de composés organiques, 61.
- — sibérienne de 1908, 337, 443. Méthane et fabrication de l’aluminium,
- 154.
- Métro aérien suspendu, 469. Microgéomètre, 443.
- Microscopie : nouveautés, 489.
- — par rayons X, 438.
- Midas (satellite) et utilisation militaire de l’espace, 286.
- Migrations des cigognes et influence des hormones, 36.
- Mirage III, dernier intercepteur français, 261.
- Mobot Mark I, robot polyvalent, 423. Modes de propulsion d’un engin spatial habité, 166.
- Modifications du dessin des ailes d’un papillon sous influence chimique, 195. Moisissure mortelle pour le bétail, 269. Mollusques extraordinaires au Japon et en Australie, 308.
- Mortalité infantile aux États-Unis : stabilisation, C 361.
- Moteur-fusée à fluor liquide pour satellites, C 449.
- Moteurs à explosion : dispositif pour éliminer les impuretés, C 49.
- — d’avion : avenir, 122.
- Mousses nuisibles des détergents, 377. Moustiques décapités : respiration, 205.
- — piqueurs : rôle de la salive, 391. Mouton : étude scientifique en Australie, 424.
- N
- Navigation et guidage des avions et engins : progrès récents, 262.
- Nébuleuse du Crabe et son rayonnement synchrotron, 89.
- Nouveautés en microscopie, 489.
- Nouvel analgésique, C 321.
- Nouvelles techniques de fabrication de l’acide sulfurique, 83.
- O
- Océan Arctique : réchauffement par prélèvement d’eau, 517.
- Océanographie des grands fonds : progrès récents, 212.
- Oiseau : comment il commence son nid, 258.
- Oiseaux : refuge du parc Saint-James à Londres, 71.
- — et dissémination des algues d’eau douce, 194.
- — qui pratiquent l’incubation artificielle, 158.
- Optique à fibres, 58.
- Organismes marins fluorescents à l’ultraviolet, 142.
- Orgue et ses multiples possibilités, 401, 470, 527.
- Origine des Vertébrés et virus, 388.
- — et rôle de l’aiguillon des abeilles, 354.
- —• unique ou multiple de la vie, 514. Origines de la faune australienne, 99.
- — de l'Homme et découverte du Zin-janthrope, 369.
- — du peuple malgache, 1. Oscilloscopes nouveaux, 538.
- Oxyde de baryum pour l’assèchement des gaz, C 89.
- Ozone atmosphérique”: étude pendant l’A. G. I., 101.
- P
- Palais de la Découverte : présentations nouvelles, C 273.
- Panthère : protection, 66.
- Papillon : influence chimique sur le dessin des ailes, 195.
- — qui se nourrit~de sang, 100.
- Parc national de |Yello\vstone, 295.
- — Saint-James à Londres : refuge d’oiseaux, 71.
- Particules aurorales : enseignements des satellites artificiels, 146.
- Patagonie chilienne, 49.
- Pendule miniature à quartz, 105.
- Pétrole du Bassin de Paris, 233.
- — saharien : stockage à Bougie, 39. Phénomène astronomique le plus lointain, 420.
- Phonation et audition : relations neurologiques, 74.
- Phoque : âge déterminé par les dents, 317. Pied de 1’ « Homme des Neiges », 277. Pierre précieuse nouvelle : titanate de strontium, C 89.
- Pigments photosensibles : rôle dans la vision, 189.
- Pionnier V, record de distance de liaison radio, 143.
- « Pipelait » pour le transport du lait en montagne, 264.
- Poissons : compteur à œufs, 248.
- Pompes de laboratoire, 40.
- — — : pompes doseuses, 125. Population primitive à Madagascar : les
- Antandroy, 361, 428.
- Porcs : mesure de l’épaisseur de la graisse par radioactivité, 518.
- p.547 - vue 550/558
-
-
-
- 548
- Préparation de l’acier à l’oxygène, 393. Présentation d’un dispositif de télévision en couleurs, C 1.
- Présentations nouvelles au Palais de la Découverte, C 273.
- Presqu’île du Gap Vert : flore d’importation et cultures, 206.
- Prix Kalinga à M. Jean Rostand, C 185. Prix Nobel de Sciences 1960, 504. Problème cosmologique, 33.
- Production de l’eau lourde, 196.
- — mondiale de beurre, 260.
- Progrès récents de l’océanographie des
- grands fonds, 212.
- Projet de station astronautique aux Canaries, C 449.
- — Hydra : eau en guise de rampe de lancement, 310.
- Projets Inga au Congo, 85.
- Propulseur à 5 000 000 km/h pour véhicules spatiaux, 18.
- Propulsion d’un engin spatial habité, 166. Protection de la Panthère, 66.
- Protéines : constitution, 414.
- — : dosage par luminescence, C 449. Psychologie sociale, 328, 373, 465, 523. Puce du lapin : phases du développement,
- 516.
- Pullulation de parasites après traitements insecticides, 181.
- Purification des substances par la méthode de la zone fondue, 439.
- Pyrométrie, 311.
- R
- Radio : récepteurs miniatures, C321. Radioactivité utilisée pour la mesure de l’épaisseur de la graisse des porcs, 518. Radio-interférences des lampes fluorescentes, C 233.
- Rat musqué et ses méfaits, 357. Rayonnement synchrotron de la Nébuleuse du Crabe, 89.
- Rayons cosmiques : enseignements des satellites artificiels, 146.
- — X : danger de l’abus, 70.
- -----détectés par les souris, 492.
- Réacteur européen de Halden, 219. Récepteurs de radio miniatures, C 321. Réchauffement de l’Océan Arctique par prélèvement d’eau, 517.
- Recherche scientifique : nouveaux décrets, 13.
- Recherches nouvelles sur la météorite sibérienne de 1908, 337.
- Record de descente du bathyscaphe « Trieste », 219, C 273.
- — distance de liaison radio par Pionnier V, 143.
- — sondage dans l’Océan Indien, C 137. Refuge d’oiseaux du parc Saint-James à
- Londres, 71.
- Réflexe d’immobilisation de deux animaux marins, 124.
- Régulateur thermique, 536.
- Relais électromagnétiques miniatures,
- 537.
- Relations neurologiques entre l’audition et la phonation, 74.
- Relativité générale vérifiée au laboratoire, 449.
- Renne en U. R. S. S., 265.
- Requins : rôle de la glande rectale dans l’élimination du sel du sang, 229.
- Résidus radioactifs : élimination, 28. Résistance aux radiations et acide ascorbique, 167.
- — des insectes aux insecticides de synthèse, 497.
- ----végétaux aux très basses températures, 276.
- Respiration des moustiques décapités, 205.
- Révélations sur la fabrication des diamants industriels, 38.
- Richesses en fer à Bielgorod, 247.
- — du sous-sol sibérien, 180.
- Robot polyvalent : Mobot Mark I, 423. Rôle de l’aiguillon des abeilles, 354.
- — de la glande androgène des Crustacés, 30.
- ---------rectale des Requins, 229.
- — de la salive chez les moustiques piqueurs, 391.
- — des hormones chez les insectes, 32.
- ----pigments photosensibles dans la
- vision, 189.
- Rotation de Vénus, 16.
- Rotterdam et Anvers, ports rivaux ou associés, 110.
- Rupture du barrage de Malpasset, 14,
- 220.
- S
- « Sable chantant », 506.
- Sahara : coques minéralisées, 327.
- — : variations du climat révélées par l’analyse pollinique, 389.
- Salinité de la Mer Noire, 142.
- — des mers intérieures soviétiques, 339.
- Salive : rôle chez les moustiques piqueurs, 391.
- Santé et influence de la composition du sol, 18.
- Santorin, île volcanique, 519.
- Satellite Explorer VIII, 505.
- —- Midas et utilisation militaire de l’espace, 286.
- — météorologique Tiros I, 185.
- — stratégique Courrier, 505.
- Satellites américains lancés avec la même
- fusée, 288.
- — artificiels : enseignements sur les rayons cosmiques et les particules auro-rales, 146.
- Saturnisme chez les canards sauvages,
- 464.
- Saumon grand voyageur, 307.
- Savane soudanaise : destruction accélérée, 155.
- Savant centenaire en U. R. S. S., 348. Scandium pur à 99 pour 100, 444. Sécrétion attractive des reines d’abeilles et stérilisation des ouvrières, 219.
- — de venins p-benzoquinoniques chez certains Arthropodes, 388.
- Séismes de 1960 : Mélouza, Agadir, Lar, Chili, 378.
- Semaine (XVe) du Laboratoire, C 137. Sexualité des bactéries, 342.
- Signaux en provenance de l’espace :
- essai de détection, 343.
- Simulateurs de vol, 81.
- Singes, réservoirs de virus, 269.
- Smog contre grippe, 277.
- Société Astronomique de la Côte d’Azur, 540.
- Sol : influence de sa composition sur la santé, 18.
- Soleil : accroissement de l’éclat, 7.
- — : étude pendant l’A. G. I.,278.
- Sons transmis à 19 000 km dans l’Océan,
- 476.
- Souffleries à induction, 6.
- Sous-sol sibérien : richesses, 180. Spectrométrie de masse, 440. Spectrophotomètres nouveaux, 490. Spermatozoïdes de l’abeille : survie, 468. — X et Y : identification au contraste de phase, 427.
- Sphinx Tête de Mort : cri, 62. Stabilisation de la mortalité infantile aux États-Unis, C 361.
- Station astronautique en projet aux Canaries, C 449.
- Stations sismiques nouvelles en Sibérie, C 49.
- Stérilisation des abeilles ouvrières par sécrétion produite par les reines, 219. Stockage du pétrole saharien à Bougie, 39. Substance inhibitrice de la germination sécrétée par les abeilles, 248.
- — bactériostatique dans 1 le charbon, 392.
- Substances naturelles étudiées par chro-matoplaques, 229.
- Survie des spermatozoïdes de l’abeille, 468.
- Suspension magnétique d’une maquette en veine de soufflerie, 437.
- Synchrotron à protons du C. E. R. N., 38, 95.
- Synthèse de la chlorophylle, C 321. Système métrique aux Indes, 162.
- T
- Taux des naissances en France : modération, 455.
- Technétium, 338.
- Techniques du vide, 484.
- -— nouvelles de fabrication de l’acide sulfurique, 83.
- Téléphone dans le monde, 181. Téléphonie : adoption de la commutation électronique, 346.
- Télévision en couleurs : appareillage nouveau, C 1.
- — et détection des étoiles variables, 5. Température de la surface de Vénus, 16.
- — en Nouvelle-Zemble, 336. Températures hivernales à Moscou : variations, 294.
- Tempêtes de poussière saline, 265. Thermobalance à infrarouge, 491.
- — nouvelle, 539.
- Tibet : climat, 94.
- Tiros I, satellite météorologique, 185. Titanate de strontium, nouvelle pierre précieuse, C 89.
- Toundra : inexistence à Sakhaline, 317. Traitement numérique de l’information : récentes performances des nouveaux ensembles, 123.
- Traitements insecticides et pullulation de parasites, 181.
- Transmission de sons à 19 000 km dans l’Océan, 476.
- Transport du lait en montagne par « pipelait », 264.
- Turbine à gaz : application à l'automobile, 422.
- p.548 - vue 551/558
-
-
-
- 549
- U
- Ultraviolet : réaction d’organismes marins, 142.
- Unification du pouce et du millimètre, 44. Utilisation militaire de l’espace par les satellites, 286.
- V
- Vaccin contre le cancer, 339. Vaisseau-satellite et utilisation militaire de l’espace, 286.
- Valeur culturelle de l’Histoire des Sciences dans l’enseignement, 123.
- Vapeur d’eau sur Vénus : découverte, 61. Variations de latitude en Asie : étude, 180. -------niveau de la Caspienne, 247.
- — des températures hivernales à Moscou, 294.
- — du climat et cycle du C02 terrestre,
- 309.
- — passées du climat du Sahara révélées par l’analyse pollinique, 389.
- — saisonnières du métabolisme, 68. Végétaux : résistance aux très basses
- températures, 276.
- — de l’Androy (Madagascar), 368. Venin de serpent : effet atténué par
- mélange avec des fleurs de genêt, 427. Venins p-benzoquinoniques sécrétés chez certains Arthropodes, 388.
- Vénus : découverte de vapeur d’eau, 61.
- — : rotation, température de la surface, composition chimique de la basse atmosphère, 16.
- Verre à bas point de fusion, 13.
- Vertébrés : virus à l’origine, 388.
- — supérieurs : greffe des tissus, 137. Vie : origine unique ou multiple, 514.
- — du Sahara : exposition au Musée de l’Homme, 456.
- Villes de plus de 100 000 habitants, 522. Virus : développement plus intense dans l’eau lourde, C 401.
- •— attaqué par une bactérie, 70.
- •— et origine des Vertébrés, 388. Vision : rôle des pigments photosensibles, 189.
- — des insectes, 96.
- Vitesses de consolidation et de granitisa-tion des continents, 266.
- Vol spatial : installations d’essais, 507. Volcans du Kamtchatka : activité, 205.
- Y
- Yellowstone : parc national, 295.
- Z
- Zinjanthrope et données actuelles du problème des origines de l’Homme, 369. Zone aride : colloque de l’Unesco, 273.
- — fondue : méthode pour la purification des substances, 439.
- — glaciaire nouvelle en Sibérie orientale, 32.
- p.549 - vue 552/558
-
-
-
- LISTE ALPHABÉTIQUE DES AUTEURS
- Akar (Philippe). :— La production de l’eau lourde dans l’usine pilote de Toulouse, 196.
- Allais (Charles). — Le transport du lait en montagne par « pipe-lait », 264.
- Arambourg (Camille). — Le Zinjanthrope et les données actuelles du problème des origines de l’Homme, 369.
- Arend (S.). — Une optique révolutionnaire : l’optique à fibres. Une tige souple de verre qui conduit les images comme un tube conduit l’eau, 58.
- Aubert de la Rüe (E.). — La Patagonie chilienne, terre d’avenir déjà en partie détruite, 49.
- B. (R.). •— Analyse automatique, 129. — Colonnes à distiller à élément tournant, 129. —- Contrôle non destructif par gamma-graphie, 537.
- Barbier (Michel). — Étude des substances naturelles par chro-matoplaques, 229. — La sécrétion de venins p-benzoquinoni-ques chez certains Arthropodes, 388.
- Baumgardt (Ernest). — La vision des Insectes, 96. —- Le rôle des pigments photosensibles dans la vision, 189. — Les étonnantes limites physiques du fonctionnement sensoriel, 332.
- Buvet (R.). — Pompes de laboratoire, 40. — Pompes de laboratoire (suite) : Pompes doseuses, 125. — Autotransformateurs réglables, 179.
- C. (D.). — La production mondiale de beurre, 260.
- C. (G.). — La grippe en 1959, 45. — Le danger de l’abus des rayons X, 70. — Les algues d’eau douce sont bien disséminées par les oiseaux, 194. — Compteur à œufs de poissons, 248. —-Tempêtes de poussières salines, 265. — Un Colloque de l’Unesco : problèmes de la zone aride, 273. — Résistance des végétaux aux très basses températures, 276. — Galets éolisés, 299. —• Substances bactériostatiques dans le charbon, 392. — L’étude scientifique du mouton, clément de prospérité pour l’Australie, 424. — Fleurs de genêt contre venin de serpent, 427. — Anesthésie médicale par le bruit, 444. — Le taux des naissances en France reste modéré, 455. — La grippe en 1960, 483.
- C. (L.). — Hyménoptères ennemis des Fourmilions, 7. -— Le rôle des hormones chez les Insectes, 32. — Les insectes utiles, 39.
- — Un papillon qui se nourrit de sang, 100. —• L’immobilisation réflexe de deux animaux marins, 124. — Organismes marins fluorescents à l’ultraviolet, 142. •— Modifications du dessin des ailes d’un papillon sous l’influence d'un stimulant chimique, 195. — La respiration des moustiques décapités, 205. — La sécrétion attractive des reines d’abeilles stérilise les ouvrières, 219. — Une substance inhibitrice de la germination sécrétée par les abeilles, 248. —- Le Crabe chinois en Méditerranée, 392. — Le Chimpanzé a deux chromosomes de plus que l’Homme, 463. — Survie des spermatozoïdes de l’abeille, 438.
- — La puce du lapin ne pondrait que nourrie sur une lapine gravide, 516.
- C. (P.). — Les nouveaux ensembles de traitement numérique de l’information et leurs récentes performances, 123.
- Cayeux (André de). — Vitesses de consolidation et de~graniti-sation des continents, 266.
- Chamla (Marie-Claude). — Les origines du peuple malgache, 1.
- Charvin (Pierre). — L’état actuel du problème cosmologique, 33.
- — Un calculateur électronique à grande mémoire, 67. — Vers la commutation électronique en téléphonie, 346. — La relativité générale vérifiée pour la première fois au laboratoire grâce à 1’ « effet Môssbauer », 449.
- Chopard (L.). — La glande androgène des Crustacés. Greffée sur des femelles, elle leur fait acquérir des caractères mâles, 30.
- — Biogéographie et écologie en Australie. Les origines de la faune australienne, 99. — Pullulation de parasites consécutive à des traitements insecticides, 181. — Mollusques extraordinaires au Japon et en Australie : des Gastéropodes à coquille bivalve, 308. — L’aiguillon des abeilles. Son origine et son rôle, 354.
- Coi-ien (Gaston). — Les Mégapodes. Des oiseaux qui pratiquent l’incubation artificielle, 158. — Un Colloque régional de langue française sur l’Administration de la Recherche, 246. —• Cycle du COa terrestre et variations du climat, 309. — Origine unique ou multiple de la vie, 514.
- D. (R.). — La valeur culturelle de l’Histoire des Sciences justifierait son introduction dans renseignement secondaire, 123. —• Coraux fluorescents au zoo d’Anvers, 336. — Le Rat musqué et ses méfaits, 357. — Un virus est-il à l’origine des Vertébrés ?, 388. — Les variations passées du climat du Sahara révélées par l’analyse pollinique, 389.
- D. (R.). — Quelques végétaux de l’Androy, 368.
- Da.toz (Roger). — Progrès récents de l’Océanographie des grands fonds, 212. —- Une faune jusqu’ici méconnue : les Coléoptères du sol, 344. — Les fourmis, auxiliaires de la lutte contre les insectes ravageurs des forêts en Italie, 390. — Aux insecticides de synthèse, les insectes résistent de plus en plus, 497.
- Deschamps (Yvon). — L’Actualité instrumentale : Doseurs et contrôleurs de radiations, 173.
- Doignon (Pierre). — Le pétrole du Bassin de Paris et les progrès récents de la géologie régionale, 233.
- Dumortier (Bernard). — Le cri du Sphinx Tête de Mort, 62.
- F. (J.). —• Projet Flydra : l’eau en guise de rampe de lancement, 310. — L'adaptation des animaux à une centrifugation prolongée, 413. — Le blindage nécessaire des habitacles interplanétaires, 423.
- Filloux (Jean-Claude). — Une branche nouvelle de la psychologie sociale : la psychologie des petits groupes : 1. Quelques points d’histoire, 328 ; 2. La méthode scientifique,, 373. — Le développement des petits groupes : 1. Variables fondamentales, 465 ; 2. Les facteurs de cohésion, 523.
- Fouchet (Jacques). — Les causes de l’expansion d’après les théoriciens de la « création continue », 35. — Fine étude des variations saisonnières du métabolisme, 68. — Les explosions atomiques souterraines et leur utilisation industrielle, 200. — I/activité électrique du cerveau et son interprétation psychophysiologique, 241. — Le phénomène astronomique le plus lointain : Galaxies en collision à 6 milliards d’années-lumière, 420. — A la recherche des codes de l’hérédité. Travaux récents et prometteurs sur les acides nucléiques, 477.
- Frémont (Jean). — Le refuge d’oiseaux du parc Saint-James à Londres, 71.
- Frère (Suzanne). — Une population primitive à Madagascar : les Antandroy. 1. La vie au village. Les bœufs, 361. — 2. La vie économique. Les migrations, 428.
- G. (G.). — L’Actualité instrumentale : La 57e Exposition de la Société française de Physique : Calculateur analogique et enregistreur XY, 436; Suspension magnétique d’une maquette en veine de soufflerie, 437 ; Microgéomètre, 443 ; Nouveautés en microscopie, 489 ; Nouveaux spectrophotomètres, 490 ; Thermobalance à infrarouge, 491 ; Nouveaux oscilloscopes, 538 ; Climatiseur à cycles hydrothermiques, 538.
- G. (H.). — Révélations sur la fabrication des diamants industriels, 38.
- G. (J.). — L’influence de la composition du sol sur la santé, 18. — Champignon contre Termite, 260.—-Un Colloque de l’Unesco : Problèmes de la zone aride, 273. — Trois éléments chimiques rarissimes : technétium, francium, asiate, 338. •— L’espace nous donne-t-il signe de vie ?, 343. — Le saturnisme, devenu rare chez les hommes, décime maintenant les canards sauvages, 464.
- G. (P.). — Découverte de la vapeur d’eau sur Vénus, 61.
- Gauroy (Pierre). — La genèse de la grêle, 211." — Pour l’Alaska de 1960, le temps de l’aventure est clos, 249.
- Genevois (L.). — Migrations des cigognes et hormones, 36. — Cycle du C03 terrestre et variations du climat, 309.
- Grive (Jean). — La sexualité des bactéries, 342.
- p.550 - vue 553/558
-
-
-
- Guérin (Henri). — Nouvelles techniques de fabrication de l’acide sulfurique, 83. -— Une révolution dans la sidérurgie : la préparation de l’acier à l’oxygène, 393.
- Guérin (Pierre). •— Vénus serait en rotation semi-rapide et trop chaude pour des êtres vivants, 16.
- Guiroy (Gilbert). — L’Actualité instrumentale : La pyrométrie, 311. — La 57e Exposition de la Société française de Physique : Spectrométrie de masse, 440.
- Husson (Raoul). — Relations neurologiques entre l’audition et la phonation, 74. — Le difficile problème de l’aérodynamique phonatoire. Le larynx est une sirène, 300.
- Jaeger (Paul). — Faut-il protéger la Panthère ?, 66. — Vers une destruction accélérée de la savane soudanaise, 155.
- L. (J.). — Détection des étoiles variables par télévision, 5.
- Lequeux (James). — Ce que les satellites artificiels ont déjà
- appris sur les rayons cosmiques et les particules aurorales, 146. — « Astrophysique générale », 222. — L’orgue et ses multiples possibilités. L Le matériel sonore, 401 ; 2. L’alimentation et la mécanique, 470 ; 3. La facture d’orgues des origines à nos jours, 527.
- Lequeux (J.) et Steinberg (J.-L.). — La Nébuleuse du Crabe, résidu de l’explosion de la Supernova de 1054, et son rayonnement synchrotron, 89.
- Lot (Fernand). — Les prix Nobel de Sciences 1960, 504.
- M. (G.). — Le comportement du hareng, 17. — Le Bœuf musqué en Sibérie ?, 70. — Nouvelles lignes de chemins de fer en Chine, 93. — Le climat du Tibet, 94. — Le climat et les glaces de l’Antarctique, 94. — La salinité de la Mer Noire, 142. — L’étude des variations de latitude en Asie, 180. -— Richesses du sous-sol sibérien, 180. — L’activité des volcans du Kamtchatka, 205. — Richesses en fer à Bielgorod, 247. — Variations de la Caspienne, 247. — La culture fruitière en Chine, 248. — L’énergie des marées en U. R. S. S., 260. — Tempêtes de poussières salines, 265. — Le renne en U. R. S. S., 265. — Les variations des températures hivernales à Moscou, 294. — Hydrogène sulfuré dans le golfe de Krasnovodsk, 298. — La chaîne Lomo-nossov empêche le mélange des eaux atlantiques et pacifiques dans l’Arctique, 299. — Un saumon grand voyageur, 307. — Pas de toundra à Sakhaline, 317. —- La température en Nouvelle-Zemble, 336. — Nouvelles recherches sur la météorite tombée en 1908 en Sibérie, 337. — Forages ultra-profonds et énergie géothermique en Sibérie, 426. — La météorite de 1908 était-elle une comète ?, 443. — Le « sable chantant », 506. — Le coton dans la steppe de la Faim, 518.
- M. (H.). — Verre à bas point de fusion, 13.
- M. (Y.). — La rupture du barrage de Malpasset et la recherche de ses causes, 14. — Gaz méthane et fabrication de l’aluminium, 154. — Un Colloque de l’Unesco : Problèmes de la zone aride, 273. — Les détergents font des mousses nuisibles, 377.
- Mamontoff (C.). — En lui soutirant 500 km3 d’eau par jour, réchaufferait-on l’Océan Arctique ?, 517. — Accélération de la fonte des glaces par poussière de charbon, 517.
- Mériel (Yves). — Coke sidérurgique et carbochimie dans le nouvel essor des Plouillères de Lorraine, 19. — Un impératif de l’agriculture moderne : l’irrigation par aspersion, 163. — Le rapport de la Commission d’enquête sur la rupture du barrage de Malpasset, 220. — Pour un kilowattheure moins cher. L’industrie nucléaire en crise cherche encore la meilleure formule, 321.
- Michard (R.). —• L’étude du Soleil pendant l’Année géophysique internationale, 278.
- Mowbray (Lionel). — Vers un Droit spatial, 289.
- Naegelé (Antoine). —• Curieuses coques minéralisées au Sahara, 327. — Comment l’Addax trouve des pâturages dans les sables désolés du Ténéré, 460.
- Naegelé (E. et A.). —• Flore d’importation et cultures dans la presqu’île du Cap Vert (Sénégal), 206.
- O. (P.). — De la « Biologie quantique » au néo-finalisme. Après le libre arbitre de l’électron, la conscience de l’atome, 37. — Une moisissure mortelle pour le bétail peut envahir les cultures hydroponiques de fourra/ge, 269.
- P. (J.). — Le Parc national de Yellowstone, doyen d’âge des grandes réserves naturelles, 295.
- Pelmont (Jean). — La greffe des tissus chez les Vertébrés supérieurs, 137. — Les protéines livrent peu à peu les secrets de leur constitution, 414.
- R. A. — Le dessalage de l’eau de mer, 93. — Le pied de 1’ « Homme des Neiges », 277. — La dent du phoque dit son âge, 317. — Identification des spermatozoïdes X et Y au contraste de phase 427.
- R. (R.). — L’Actualité instrumentale : La 57e Exposition de la Société française de Physique, 434 ; Nouvelles calculatrices, 435 ; Applications thermiques du faisceau électronique, 437 ; Microscopie par rayons X, 438 ; Générateur de noyaux d’io-dure d’argent, 443 ; Appareils de mesures électrochimiques, 491 ; Appareils de contrôle de contamination, 535 ; Régulateur thermique, 536 ; Nouvelle thermobalance, 539 ; Nouveau bolo-mètre à infrarouge, 539. — L’épaisseur de la graisse des porcs mesurée par la radioactivité, 518.
- Reboussin (Roger). — Comment l’oiseau commence son nid, 258.
- Roblin (Michel). — Forêts, histoire et linguistique, 508.
- Rosset (R.). — L’hydrazine, produit stratégique comme agent propulseur de fusées et ses nombreuses applications, 168. —-Les prolongements de la carbochimie. Les dérivés acryliques et leurs applications, 349. —L’Actualité instrumentale : Les Techniques du vide, 484.
- Rothé (J.-P.). — Le tragique bilan des séismes de 1960 incombe en grande partie à la mauvaise qualité des constructions, 378.
- Rousseau (Michel). —- Masques animaliers. Une exposition au Musée Guimet, 106. — La vie du Sahara. Une exposition au Musée de l’Homme, 456.
- S. (J.). — Le Mirage III, dernier intercepteur français, 261. — Une fusée française atteint 8 000 km/h, 318. — Fusée atomique soviétique, 377. — Métro aérien suspendu, 469. — Installations d’essais pour le vol spatial, 507.
- Sallèles (Antoine). — L’archipel de Santorin. Une île volcanique qui explosa il y a 4 000 ans, 519.
- Spincourt (Jacques). — Les souffleries à induction, 6. — Les simulateurs de vol, 81. — Développements du Bréguet 940 « Intégral » à décollage vertical, 82. — Deux réussites : le Fouga « Magister » et le Morane 760 « Paris », 82. — L’avenir des moteurs d’avion, 122. — Comment un engin spatial habité sera-t-il propulsé ?, 166. —Progrès récents en matière de navigation et guidage des avions et engins, 262. — Toujours plus vite et plus haut : Des véhicules hypersoniques aux avions de transport à Mach 3, 340. — La turbine à gaz passe de l’avion à l’automobile^ 422. — Essais aérodynamiques en vol libre sur maquettes lancées par moteur-fusée, 492.
- Steinberg (J. L.) et Lequeux (J.). — Voyez Lequeux et Steinberg.
- T. (L.). — Le premier crâne de Mammifère jurassique, 392.
- Tarrago (Xavier). — L’Actualité instrumentale : La chromatographie en phase gazeuse, 222.
- Tartois (Lucien). — Le ciel en chacun des mois de février 1960 à janvier 1961, 45, 86, 132, 182, 230, 270, 318, 358, 397, 444, 493, 540.
- V. (N.). — Le synchrotron à protons du C. E. R. N., 95. — La deuxième bombe A française, 204. — Deux satellites américains lancés avec la même fusée, 288.
- Vassy (Arlette). — L’étude de l’ozone atmosphérique pendant l’Année géophysique internationale, 101.
- Vernier (Pierre). — La « matière extraordinaire ». Atomes et molécules mésiques. Hyperatomes, 8.
- Victiney (Nicolas). — Un problème non résolu : l’élimination des résidus radioactifs, 28. —- Quelques aspects scientifiques et techniques de la. bombe A française, 117. — Pionnier V, record de distance de liaison radio, 143. — Tiros I, prélude à un réseau de satellites météorologiques, 185. — Le Vaisseau-satellite et Midas préparent-ils l’utilisation militaire de l’espace ?, 286. — Les décisives expériences spatiales d’août 1960. L’envoi d’un homme dans l’espace paraît proche, 409. — Le satellite stratégique Courrier l’emporte sur Echo, même à des fins civiles, 505.
- W. (P.). — L’économie de l’U. R. S. S., 268.' — Autocar ultra-rapide sur l’autoroute Londres-Birmingham, 294.
- Wagret (Paul). — Anvers et Rotterdam : associés ou rivaux ?,
- 110.
- p.551 - vue 554/558
-
-
-
- TABLE DES MATIÈRES
- I. — MATHÉMATIQUES ET ASTRONOMIE
- Détection des étoiles variables par télévision (J. L.) . . 5
- Augmentation de l’éclat du Soleil ‘t ...... . 7
- Vénus serait en rotation semi-rapide et trop chaude pour
- des êtres vivants (Pierre Guérin)..................... 16
- L’état actuel du problème cosmologique (Pierre Charvin) . 33
- Les causes de l’expansion d’après les théoriciens de la « création continue » (Jacques Fouchet)........................ 35
- Découverte de la vapeur d’eau sur Vénus (P. G.) ... 61
- La Nébuleuse du Crabe, résidu de l’explosion de la Supernova de 1054, et son rayonnement synchrotron (J. Le-
- queux et J. L. Steinberg)............................. 89
- Les nouveaux ensembles de traitement numérique de l’information et leurs récentes performances (P. C.). . . 123
- « Astrophysique générale » (J. Lequeux)..................221
- L’étude du Soleil pendant l’Année géophysique internationale (R. Michard)........................................278
- L’espace nous donne-t-il signe de vie ? (J. G.) .... 343
- Ceinture de Van Allen autour de Jupiter..................408
- Le phénomène astronomique le plus lointain : Galaxies en en collision à 6 milliards d’années-lumière (Jacques Fouchet) ...................................................420
- Éclipse totale de Soleil en France le 15 février 1961. . . 540
- Société Astronomique de la Côte d’Azur..................540
- Le ciel en chacun des mois de février 1960 à janvier 1961, 45,
- 86, 132, 182, 230, 270, 318, 358, 397, 444, 493, 540
- II. - SCIENCES PHYSIQUES 1. Physique.
- L’Actualité instrumentale :
- Pompes de laboratoire (R. Buvet).................... 40
- Pompes de laboratoire (suite) : pompes doseuses (R. Buvet) ........................................... 125
- Colonnes à distiller à élément tournant (R. B.) . . . 129
- Centrifugeuses de table.............................131
- Autotransformateurs réglables (R. Buvet) .... 179
- La pyrométrie (Gilbert Guiroy)......................311
- La 57e Exposition de la Société française de Physique
- (R. R.)..............•............................434
- Spectrométrie de masse (G. Guiroy)..................440
- Les techniques du vide (R. Rosset).................. . 484
- Nouveautés en microscopie (G. G.) ................489
- Nouveaux spectrophotomètres (G. G.). . . . . . 490
- Thermobalance à infrarouge (G. G.)..................491
- Régulateur thermique (R. R.)........................536
- Relais électromagnétiques miniatures................537
- Contrôle non destructif par gammagraphie (R. B.). . 537
- Nouveaux oscilloscopes (G. G.)..................) . 538
- Climatiseur à cycles hydrothermiques (G. G.). . . . 538
- Nouvelle thermobalance (R. R.)......................539
- Nouveau bolomètre à infrarouge (R. R.)..............539
- Une optique révolutionnaire : L’optique à fibres. Une tige souple de verre qui conduit les images comme un tube conduit l’eau (S. Arend) ......... 58
- La Relativité générale vérifiée pour la première fois au laboratoire grâce à 1’ « effet Môssbauer » (Pierre Char-vin) .................................................. 449
- 2. Chimie.
- Le titanate de strontium, nouvelle pierre précieuse. . . C 89
- L’oxyde de baryum pour l’assèchement des gaz. . . . C 89
- Antibiotique de synthèse...............................132
- L’hydrazine, produit stratégique comme agent propulseur
- de fusées et ses nombreuses applications (R. Rosset) . 168
- 2e Congrès de la Catalyse en juillet à Paris...........C 233
- La synthèse de la chlorophylle réalisée à Munich . C 321
- Trois éléments chimiques rarissimes : technétium, francium,
- astate (J. G.)......................................338
- Les prolongements de la carbochimie. Les dérivés acryliques
- et leurs applications (Robert Rosset).................. 349
- Les protéines livrent peu à peu les secrets de leur constitution (Jean Pelmont)......................................414
- Dosage des protéines par luminescence..................C 449
- L’Actualité instrumentale :
- Analyse automatique (R. R.)......................... . 129
- La chromatographie en phase gazeuse (Xavier Tar-
- rago)...............................................222
- Étude des substances naturelles par chromatoplaques
- (Michel Barbier)..................................229
- Purification des substances par la méthode de la zone
- fondue............................................439
- Générateur de noyaux d’iodure d’argent (R. R.) . . . 443
- Appareils de mesures électrochimiques (R. R.) . . . 491
- 3. Sciences nucléaires.
- La « matière extraordinaire ». Atomes et molécules mési-
- ques. Hyperatomes (Pierre Vernier).......................... 8
- Un problème non résolu : l’élimination des résidus radioactifs (Nicolas Vichney).................................... 28
- Le synchrotron du C. E. R. N., accélérateur le plus puissant .............................................. 38, 95
- Quelques aspects scientifiques et techniques de la bombe A
- française (Nicolas Vichney)................................117
- La deuxième bombe A française (N. V.).....................204
- Le réacteur européen de Flalden...............................219
- Les hypérons sigma plus et moins ont leurs antiparticules. C 361 Accélérateur de protons de 30 GeV à Brookhaven . C 401
- L’Actualité instrumentale :
- Doseurs et contrôleurs de radiations (Yvon Deschamps) . 173
- Appareils de contrôle de contamination (R. R.) . . . 535
- III. — SCIENCES NATURELLES 1. Géologie. — Paléontologie. — Gîtes minéraux.
- Le charbon-papier..............................................145
- Richesses du sous-sol sibérien (C. M.).........................180
- L’activité des volcans du Kamtchatka (C. M.) .... 205
- Impact d’astéroïde au Texas....................................219
- Le pétrole du Bassin de Paris et les progrès de la Géologie
- régionale (Pierre Doignon)..................................233
- Richesses en fer à Bielgorod (C. M.)...........................247
- Vitesses de consolidation et de granitisation des continents. 266
- Galets éolisés (G. C.).........................................299
- p.552 - vue 555/558
-
-
-
- 553
- Nouvelles recherches sur la météorite tombée en 1908 en
- Sibérie (C. M.)............................... 337
- Le Zinjanthrope et les données actuelles du problème des
- origines de l’Homme (Camille Arambourg) .... 369
- Le premier crâne de Mammifère jurassique (L. T.) . . . 392 La coexistence de notre espèce avec l’Homme de Néan-
- dertal................................................408
- La météorite de 1908 était-elle une comète ? (C. M.) . . 443
- L’archipel de Santorin. Une île volcanique qui explosa il y a
- 4 000 ans (Antoine Sallèles) ........ 519
- 2. Physique du Globe. — Météorologie. — Océanographie physique.
- Nouvelles stations sismiques en Sibérie.................C 49
- Le climat du Tibet (C. M.).............................. 94
- Le climat et les glaces de l’Antarctique (C. M.) .... 94
- L’étude de l’ozone atmosphérique pendant l’Année géophysique internationale (Arlette Vassy)....................101
- Le record de sondage dans l’Océan Indien................C 137
- La salinité de la Mer Noire (C. M.).....................142
- Ce que les satellites artificiels ont déjà appris sur les rayons
- cosmiques et les particules aurorales (James Lequeux) . 146
- L’étude des variations de latitude en Asie (C. M.) . . . 180
- La genèse de la grêle (Pierre Gauroy)...................211
- Progrès récents de l’océanographie des grands fonds (Roger
- Dajoz)...................................................212
- Le « Trieste » est descendu à 11 521 m dans la fosse des
- Mariannes................................................219
- Les variations de la Caspienne (C. M.)..................247
- Tempêtes de poussière saline (C. M. et G. C.)...........265
- Le bathyscaphe « Trieste » n’est descendu qu’à 10 900 m. C 273 Les variations des températures hivernales à Moscou (C. M.) 294
- Hydrogène sulfuré dans le golfe de Krasnovodsk (C. M.) . 298
- La chaîne Lomonossov empêche le mélange des eaux atlantiques et pacifiques dans l’Arctique (C. M.) .... 299
- Cycle du C0.2 terrestre et variations du climat (L. Genevois et Gaston Cohen)......................................309
- La température en Nouvelle-Zemble (C. M.)...................336
- La salinité des mers intérieures soviétiques................339
- Le tragique bilan des séismes de 1960 incombe en grande partie à la mauvaise qualité des constructions (J.-P. Ro-
- thé).....................................................378
- Les variations passées du climat du Sahara révélées par
- l’analyse pollinique (R. D.).............................389
- Sons transmis à 19 000 km dans l’Océan..................476
- 3. Biologie générale. — Physiologie. — Zoologie.
- Hyménoptères ennemis des Fourmilions (L. G.). ... 7
- Centres de la douleur et du plaisir dans le cerveau des rats. 15
- Le comportement du hareng (C. M.)........................... 17
- La glande androgène des Crustacés. Greffée sur des femelles,
- elle leur fait acquérir des caractères mâles (L. Chopard) . 30
- Le rôle des hormones chez les insectes (L. C.) . 32
- Migrations des Cigognes et hormones (L. Genevois) . . 36
- Cigognes et Aigles en conflit meurtrier................. 36
- Les insectes utiles (L. C.) ................................ 39
- Le cri du Sphinx Tête de Mort (Bernard Dumortier) . . 62
- Bactérie destructrice de virus..............................'70
- Le Bœuf musqué en Sibérie ? (C. M.)......................... 70
- Relations neurologiques entre l’audition et la phonation
- (Raoul Husson)........................................... 74
- La vision des Insectes (Ernest Baumgardt)................... 96
- Biogéographie et écologie en Australie. Les origines de la
- faune australienne (L. Chopard).......................... 99
- Un papillon qui se nourrit de sang (L. C.)..............100
- L’immobilisation réflexe de deux animaux marins (L. C.) . 124
- La greffe des tissus chez les Vertébrés supérieurs (Jean
- Pelmont).................................................137
- Organismes marins fluorescents à l’ullraviolet (L. C.) . . 142
- Les Mégapodes. Des oiseaux qui pratiquent l’incubation
- artificielle (Gaston Cohen)...........................158
- Le rôle des pigments photosensibles dans la vision (Ernest
- Baumgardt)............................................189
- Modifications du dessin des ailes d’un papillon sous l’influence d’un stimulant chimique (L. C.)....................195
- La respiration des moustiques décapités (L. C.).... 205
- La sécrétion attractive des reines d’abeilles stérilise les
- ouvrières (L. C.).....................................219
- La glande rectale des Requins servirait à éliminer le sel du
- sang..................................................229
- L’activité électrique du cerveau et son interprétation psycho-physiologique (Jacques Fouchet)........................241
- Une substance inhibitrice de la germination est sécrétée par
- les abeilles (L. C.)......................................248
- Comment l’oiseau commence son nid (Roger Reboussin) . 258
- Le difficile problème de l’aérodynamique phonatoire. Le
- larynx est une sirène (Raoul Husson)......................300
- Mollusques extraordinaires au Japon et en Australie : des
- Gastéropodes à coquille bivalve (L. Chopard) . . . 308
- La dent du phoque dit son âge (R. A.)........................317
- Curieuses coques minéralisées au Sahara (Antoine Naegelé) 327 Les étonnantes limites physiques du fonctionnement sensoriel (Ernest Baumgardt)......................................332
- Coraux fluorescents au zoo d’Anvers (R. D.) .... 336
- La sexualité des bactéries (Jean Grive)......................342
- Line faune jusqu’ici méconnue : les Coléoptères du sol
- (R. Dajoz)................................................344
- L’aiguillon des abeilles. Son origine et son rôle (Lucien
- Chopard)..................................................354
- Le Rat musqué et ses méfaits (R. D.).........................357
- La sécrétion de venins p-benzoquinoniques chez certains
- Arthropodes (Michel Barbier)..............................388
- Un virus est-il à l’origine des Vertébrés ? (R. D.) . . . 388
- Le rôle de la salive chez les moustiques piqueurs . . . 391
- Le Crabe chinois en Méditerranée (L. C.).....................392
- Substances bactériostatiques dans le charbon (G. C.) . . 392
- L’eau lourde, milieu favorable aux virus.................C 401
- Identification des spermatozoïdes X et Y au contraste de
- phase (R. A.).............................................427
- Fleurs de genêt contre venin de serpent (G. C.). . . . 427
- Comment l’Addax trouve des pâturages dans les sables désolés du Ténéré (Antoine Naegelé)..........................460
- Le Chimpanzé a deux chromosomes de plus que l’Homme
- (L. C.)...................................................463
- La survie des spermatozoïdes de l’abeille (L. C.) . . . 468
- A la recherche des codes de l’hérédité. Travaux récents et prometteurs sur les acides nucléiques (Jacques Fouchet) .....................................................477
- Rayons X détectés par les souris.............................492
- Aux insecticides de synthèse, les insectes résistent de plus
- en plus (Roger Dajoz).....................................497
- Origine unique ou multiple de la vie ? (Gaston Cohen) . . 514
- La puce du lapin ne pondrait que nourrie sur une lapine
- gravide (L. C.)...........................................516
- 4. Botanique. — Agriculture. — Élevage.
- Un impératif pour l’agriculture moderne : l’irrigation par
- aspersion (Yves Mériel)...................................163
- Acide ascorbique et résistance aux radiations .... 167
- Pullulation de parasites consécutives à des traitements
- insecticides (L. Chopard) ................................181
- Les algues d’eau douce sont bien disséminées par les oiseaux
- (G. C.)...................................................194
- Flore d’importation et cultures dans la presqu’île du Cap
- Vert (Sénégal) (E. et A. Naegelé).........................206
- La culture fruitière en Chine (C. M.)....................248
- Champignon contre Termite (J. G.)............................260
- Le renne en U. R. S. S. (C. M.)..........................265
- Une moisissure mortelle pour le bétail peut envahir les cultures hydroponiques de fourrage (P. O.)....................269
- Un Colloque de l’Unesco : Problèmes de la zone aride (M. Y.,
- J. G., G. C.).............................................273
- p.553 - vue 556/558
-
-
-
- Résistance des végétaux aux très basses températures
- (G. C.) . . 276
- Jardins botaniques en Chine.................................336
- Quelques végétaux de l’Androy (R. D.) ....................368
- L’étude scientifique du mouton, élément de prospérité pour
- l’Australie (G. C.). 424
- Le cobalt utile à la luzerne..................................483
- L’épaisseur de la graisse des porcs mesurée par la radioactivité (R. R.)................................................518
- Le coton dans la steppe de la Faim (C. M.) . . . . . 518
- 5. Chasse. — Pêche. — Protection de la nature.
- La Fondation Charles Darwin pour les îles Galapagos . . 38
- Faut-il protéger la Panthère ? (Paul Jaeger) .... 66
- Le refuge d’oiseaux du parc Saint-James à Londres (Jean
- Frémont)................................................. 71
- Les Gorilles du Parc national Albert menacés de disparaître 144 Vers une destruction accélérée de la savane soudanaise
- (Paul Jaeger)............................................155
- Compteur à œufs de poissons (G. C.)........................248
- Le Parc national de Yellowstone, doyen d’âge des grandes
- réserves naturelles (J. P.)..............................295
- Un saumon grand voyageur (C. M.).......................307
- Les détergents font des mousses nuisibles (Y. M.) . . . 377
- Les fourmis, auxiliaires de la lutte contre les insectes ravageurs des forêts en Italie (R. Dajoz)....................390
- Le saturnisme, devenu rare chez les hommes, décime maintenant les canards sauvages (J. G.)......................464
- IV. — GÉOGRAPHIE. — DÉMOGRAPHIE. ETHNOGRAPHIE. — ARCHÉOLOGIE
- Les origines du peuple malgache (Marie-Claude Chamla). 1
- Zone glaciaire en Sibérie orientale...............’. . 32
- La Patagonie chilienne, terre d’avenir déjà en partie dévastée (E. Aubert de la Rüe)................................. 49
- Masques animaliers. Une exposition au Musée Guimet
- (Michel Rousseau).........................................106
- Anvers et Rotterdam. Associés ou rivaux ? (Paul Wagret) . 110
- Pour l’Alaska de 1960, le temps de l’aventure est clos
- (Pierre Gauroy)...........................................249
- L’économie de l’U. R. S. S. (P. W.).....................268
- Gisement acheuléen à 2 000 m dans le Caucase . ... C 297
- Pas de toundra à Sakhaline (C. M.)......................317
- Une population primitive à Madagascar : les Antandroy (Suzanne Frère):
- 1. La vie au village. Les bœufs..........................361
- 2. La vie économique. Les migrations.....................428
- Le taux des naissances en France reste modéré (G. C.). . 455
- La vie du Sahara. Une exposition au Musée de l’Homme
- (Michel Rousseau).........................................456
- Les seuls cratères de météorites connus en Europe . . . 503
- Forêts, histoire et linguistique (Michel Roblin) .... 508
- Les grandes villes dans le monde........................... 522
- V. — ANTHROPOLOGIE. — HYGIÈNE. MÉDECINE. — PSYCHOLOGIE HUMAINE.
- La consommation du café en France.........................Cl
- L’influence de la composition du sol sur la santé (J. G.) . 18
- La grippe en 1959 (G. C.)................................... 45
- Une étude des variations saisonnières du métabolisme
- (Jacques Fouchet)......................................... 68
- Le danger de l’abus des rayons X (G. C.).................. 70
- Les singes réservoirs de virus ........................ . 269
- Smog contre grippe........................................... 277
- Un nouvel analgésique plus efficace que la moi'phine . . C 321
- Une branche nouvelle de la psychologie sociale : la psychologie des petits groupes (Jean-Claude Filloux) :
- 1. Quelques points d’histoire............................328
- 2. La méthode scientifique...............................373
- Un vaccin contre le cancer expérimenté à Buffalo . . . 339 La mortalité infantile ne baisse plus aux États-Unis . . C 361
- Décontamination de lait radioactif par poudre d’os . . 408
- Anesthésie médicale par le bruit.......................444
- Chromosomes en excès chez un bébé......................444
- Une branche nouvelle de la psychologie sociale : le développement des petits groupes (Jean-Claude Filloux) :
- 1. Variables fondamentales...............................485
- 2. Les facteurs de cohésion..............................523
- La grippe en 1980 (G. C.)..............................483
- VI. — SCIENCES APPLIQUÉES t. Mécanique. — Industrie.
- Verre à bas point de fusion ............................. 13
- Coke sidérurgique et carbochimie dans le nouvel essor des
- Houillères de Lorraine (Yves Mériel).................. 19
- Révélations sur la fabrication des diamants industriels
- (H. G.).................................................. 38
- Le stockage du pétrole saharien à Bougie................. 39
- Nouvelles techniques de fabrication de l’acide sulfurique
- (Henri Guérin)........................................... 83
- Le dessalage de l’eau de mer (R. A.)........................ 93
- Pendule miniature à quartz..................................105
- Gaz méthane et fabrication de l’aluminium (Y. M.) . . 154
- Le téléphone dans le monde..................................181
- Échaufïement des essieux de wagons détecté par infrarouges ..................................................C 185
- La production de l’eau lourde dans l’usine pilote de Toulouse (Philippe Akar)......................................196
- Les explosions atomiques souterraines et leur utilisation
- industrielle (Jacques Fouchet)...........................200
- La production mondiale de beurre (D. C.)....................260
- Le transport du lait en montagne par « pipelait » (Charles
- Allais)..................................................264
- Pour un kilowattheure moins cher. L’industrie nucléaire en
- crise cherche encore la meilleure formule (Yves Mériel). 321 Une révolution dans la sidérurgie : la préparation de l’acier
- à l’oxygène (Henri Guérin)...............................393
- Mobot Mark I, robot polyvalent............................. 423
- L’Actualité instrumentale : Microgéomètre (G. G.) . . . 443
- Scandium pur à 99 pour 100 ................................ 444
- Fermeture magnétique....................................... 507
- L’industrie de l’aluminium en Chine.........................526
- 2. Électricité. — Télévision. — T. S. F. — Photographie. — Cinéma.
- Présentation d’un dispositif de télévision en couleurs . . Cl
- Un calculateur électronique à grande mémoire (P. Char-
- vin) ..................................................... 67
- Contre les radio-interférences des lampes fluorescentes. . C 233
- Des récepteurs de radio de plus en plus petits . . . . C 321
- Vers la commutation électronique en téléphonie (Pierre
- Charvin).................................................346
- L’Actualité instrumentale :
- Nouvelles calculatrices (R. R.).................. . 435
- Calculateur analogique et enregistreur XY (G. G.) . . 436
- Applications thermiques du faisceau électronique (R. R.). 437
- Microscopie par rayons X (R. R.).........................438
- 3. Travaux publics. — Urbanisme. —
- Arts de l’ingénieur.
- La rupture du barrage de Malpasset et la recherche de ses
- causes (Y. M.).......................................... 14
- Les projets Inga au Congo belge........................... 85
- p.554 - vue 557/558
-
-
-
- 555
- Nouvelles lignes de chemin de fer en Chine (C. M.)... 93
- Le rapport de la Commission d'enquête sur la rupture du
- barrage de Malpasset (Yves Mériel).......................220
- L’énergie des marées en U. R. S. S. (C. M.)............260
- Forages ultra-profonds et énergie géothermique en Sibérie
- (C. M.)..................................................426
- Le métro aérien suspendu (J. S.)...........................469
- En lui soutirant 500 km3 d’eau par jour, réchaufferait-on
- l’Océan Arctique ? (C. Mamontoff)........................517
- Accélération de la fonte des glaces par poussière de charbon (C. Mamontoff).......................................517
- Autoroutes urbaines surélevées.............................522
- 4. Transports. — Aviation. — Astronautique.
- Les souffleries à induction (Jacques Spincourt) ... 6
- Cinq millions de kilomètres à l’heure.................... 18
- Dispositif anti-pollution sur les moteurs................C 49
- Les simulateurs de vol (J. Spincourt).................... 81
- Développements du Bréguet 940 « Intégral » à décollage
- vertical (J. Spincourt) ................................... 82
- Deux réussites : le Fouga « Magister » et le Morane 760
- « Paris » (J. Spincourt)................................... 82
- L’avenir des moteurs d’avion (J. Spincourt) .... 122
- Liaison postale par fusée.....................................132
- Le Bréguet « Atlantic » chasseur de sous-marins . . . C 137
- Pionnier V, record de distance de liaison radio .... 143
- Comment un engin spatial habité sera-t-il propulsé ?
- (J. Spincourt).............................................166
- Tiros I, prélude à un réseau de satellites météorologiques
- (Nicolas Vichney)..........................................185
- Le Mirage III, dernier intercepteur français (J. S.). . . 261
- Progrès récents en matière de navigation et de guidage des
- avions et engins (J. Spincourt)............................262
- Journal de bord automatique...................................263
- Le Vaisseau-satellite et Midas préparent-ils l’utilisation
- militaire de l’espace ? (Nicolas Vichney)..................286
- Deux satellites américains lancés avec la même fusée
- (N. V.)................................................288
- Vers un Droit spatial (Lionel Mowbray)....................289
- Autocar ultra-rapide sur l’autoroute Londres-Birmingham (P. W.)...........................................294
- Il sera avantageux d’alunir dans les grands cratères . . C 297
- Projet Hydra : l’eau en guise de rampe de lancement (J. F.). 310
- Une fusée française atteint 8 000 km/h (J. S.) . 318
- Toujours plus vite et plus haut : Des véhicules hypersoniques aux avions de transport à Mach 3 (Jacques
- Spincourt).............................................340
- Fusée atomique soviétique (J. S.).........................377
- Les décisives expériences spatiales d’août 1960. L’envoi d'un homme dans l’espace paraît proche (Nicolas Vichney)...............................................409
- L’adaptation des animaux à une centrifugation prolongée
- (J. F.).....................................................413
- Le blindage nécessaire des habitacles interplanétaires
- (J. F.).....................................................413
- La turbine à gaz passe de l’avion à l’automobile (Jacques
- Spincourt)..................................................422
- Suspension magnétique d’une maquette en veine de soufflerie (G. G.) ................................................437
- Moteur-fusée à fluor liquide pour satellites.............C 449
- Projet de station astronautique aux Canaries . C 449
- Essais aérodynamiques en vol libre sur maquettes lancées
- par moteur-fusée (Jacques Spincourt)..................492
- Le satellite stratégique Courrier l’emporte sur Écho, même
- à des fins civiles (Nicolas Vichney)..................505
- Installations d’essais pour le vol spatial (J. S.) .... 507
- VII. — HISTOIRE DES SCIENCES
- La valeur culturelle de l’Histoire des Sciences justifierait
- son introduction dans l’enseignement secondaire (R. D.). 123
- VIII. — VARIA
- Actualités et Informations, C 1, C 49, C 89, C 137, C 185,
- C 233, C 273, C 321, C 361, C 401, C 449, C 497 Les livres nouveaux, 45, 86, 132, 182, 230, 270, 318, 358,
- 398, 445, 493, 540
- Nouveaux décrets concernant la recherche scientifique . 13
- De la « Biologie quantique » au néo-finalisme. Après le
- libre arbitre de l’électron, la conscience de l’atome (P. O.). 37
- Proposition d’unification du pouce et du millimètre . . 44
- XVe Semaine du Laboratoire du 13 au 19 juin . C 137
- Le système métrique aux Indes............................. 162
- Le prix Kalinga a été décerné à M. Jean Rostand. . . C 185
- Un Colloque régional de langue française sur l’Administration de la Recherche (Gaston Cohen)......................246
- Présentations nouvelles au Palais de la Découverte . . C 273
- Le pied de 1’ « Homme des Neiges » (R. A.)................277
- Un savant centenaire...........................................348
- Expositions de champignons à Paris........................C 401
- L’orgue et ses multiples possibilités (James Lequeux) :
- 1. Le matériel sonore......................................401
- 2. L’alimentation et la mécanique..........................470
- 3. La facture d’orgues des origines à nos jours . . . 527
- Les prix Nobel de Sciences 1960 (Fernand Lot) . . . 504
- Le « sable chantant » (C. M.).............................506
- i
- SUPPLÉMENT AU W° 3308 (DÉCEMBRE 1960)
- Le gérant ; F. Dunod. — dunod, éditeur, paris- — dépôt légal : 4e trimestre i960, n° 3528. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A. (3io566), LAVAL, N° 4l93. — 12-19C0.
- p.555 - vue 558/558
-
-