La Nature
-
-
- LA NATURE
- Science Progrès
- p.n.n. - vue 1/551
-
-
-
- p.n.n. - vue 2/551
-
-
-
- LA NATURE
- science
- progrès
- QUATRE-VINGT-DIXIÈME ANNÉE 1962
- DUNOD ÉDITEUR
- 92, rue Bonaparte, Paris
- Page de titre n.n. - vue 3/551
-
-
-
- SUPPLÉMENT AU N° 3332 (DÉCEMBRE 1962;
- JLe gérant : F. DUNOD.
- Imprimerie Bayeusaine, Bayeux.
- Imprimé en France
- p.n.n. - vue 4/551
-
-
-
- Sources de lumière aux propriétés exceptionnelles
- les lasers
- ouvrent des perspectives nouvelles
- télécommunications, chimie...
- Il y a quelques mois, des chercheurs des Bell Laboratories installèrent à Holmdel dans le New Jersey une de ces nouvelles sources de lumière déjà connues sous le nom de « laser à rubis » et ils en dirigèrent l’émission vers un laboratoire situé à Murray Hill, à une quarantaine de kilomètres. Des impulsions rouges, visibles à l’œil nu, furent observées à Murray Hill, le cercle illuminé par les impulsions n’atteignant que 60 m de diamètre, ce qui correspondait à une directivité d’au moins 0,05 degré. Une telle expérience n’aurait pu être réalisée avec une source de lumière traditionnelle : une lampe à arc, même couplée à un miroir de grande distance focale, aurait donné un faisceau bien plus ouvert, et la tache observée aurait dépassé un kilomètre de diamètre.
- Cette caractéristique de donner un faisceau lumineux très fortement « dirigé » n’est qu’une des nombreuses propriétés très particulières des lasers. Disons tout d’abord que le vocable de « laser » est dérivé de celui de maser, lui-même formé à partir des initiales de Microwave Amplifier by Stimulated Emission of Radiation (amplificateur à microondes par émission induite de rayonnement) (x). Les masers utilisent en effet la propriété qu’ont des molécules d’absorber et d’émettre, dans le domaine des ondes hertziennes très courtes, sur des longueurs d’onde très précises, et d’amplifier ces ondes dans certaines conditions. Bien- que l’essentiel des connaissances théoriques indispensables soit connu depuis plus de quarante ans, le premier maser n’a fonctionné qu’en 1955. Depuis, de très nombreux travaux ont été consacrés à ces dispositifs dont les applications découlent immédiatement de leurs qualités : amplification sans « bruit de fond », haute monochromaticité, etc. En particulier, ils ont été utilisés déjà par les radioastronomes pour -amplifier les signaux très faibles reçus des astres lointains, pour capter les communications avec les satellites artificiels, comme standards de fréquence (horloge à ammoniac), etc.
- Le laser constitue une extension du maser au domaine de l’infrarouge • et de la lumière visible. Cette extension aux fréquences optiques a été proposée dès 1958 par A. L. Shaw-low et C. H. Townes, et le premier laser qui ait effectivement fonctionné fut celui de T. H. Maiman, en juillet
- 1. Voir : Le « maser », oscillateur et amplificateur moléculaire, par James Lequeux, La Nature, décembre 1957, p. 470-475.
- par Jean Cé^aire
- i960, à la Hughes Aircraft Company. Eight (lumière) a donc remplacé microwave (ondes ultracourtes) dans maser pour former laser. A vrai dire, Arthur L. Shawlow préfère conserver le terme de maser en le considérant comme formé par Molecular Amplifier by Stimulated Emission of Radiation, de sorte que le même terme servirait pour toutes les gammes de fréquences ; on préciserait alors « maser optique » quand ce serait utile. Toutefois, comme bien d’autres, nous utiliserons le mot laser qui est commode, les propriétés des lasers présentant des différences notables avec celles des masers.
- L’émission stimulée
- Lorsqu’un atome absorbe un photon, il se trouve excité, c’est-à-dire porté à un niveau d’énergie plus élevé (fig. 1). Par la suite, cet atome est capable d’émettre spontanément un photon ou des photons et la dernière émission le ramène à l’état non excité, dit encore « état fondamental ». Ne considérons pour l’instant que cette dernière transition (d’autres peuvent être en cause, comme nous le verrons plus loin). Conformément à la théorie des quanta, le photon ainsi émis a une énergie bien déterminée, la même pour tous les atomes de même espèce. En outre, et c’est ici le point essentiel, l’atome excité à ce niveau a une grande probabilité d’émettre aussitôt ce photon s’il est heurté par un autre photon qui ait précisément la même énergie, celle de Y émission spontanée. Il en résulte alors qu’en plus du photon inducteur (qui n’est pas absorbé), on obtient un autre photon de la même longueur d’onde et en phase avec le premier. On dit qu’il y a émission stimulée. Si un grand nombre d’atomes sont en même temps le siège de ce phénomène, on obtient un faisceau de photons de même énergie, autrement dit une onde électromagnétique hautement monochromatique, c’est-à-dire dont la longueur d’onde est remarquablement uniforme, ne s’écartant que très peu d’une valeur moyenne (raie très fine).
- Le problème qui se pose est donc de préparer un milieu dans lequel la plupart des atomes existent à l’état excité. Si alors un photon incident rencontre un atome excité, celui-ci émet un photon de même fréquence et de même phase que le photon incident. Il en résulte qu’au fur et à mesure de sa progression dans le milieu, l’onde incidente va engendrer une cascade d’émissions stimulées, et se
- p.1 - vue 5/551
-
-
-
- Absorption
- Ez ____________ i _
- s/WV- ;
- El -----•------: ! -
- Ez
- E,
- Emission spontanée «------- ! ----------
- \AA/V^
- Ez
- vAAAA^
- E,
- Emission
- ♦
- stimulée
- VWV^
- W\A^
- Fig. J. — Comparaison de l’émission stimulée avec l’absorption et l’émission spontanée.
- Quand un atome à l’état fondamental E1 absorbe un photon (en haut) il se trouve excité, c’est-à-dire porté à un niveau d’énergie plus élevé E2. Cet atome peut alors dissiper spontanément tout ou partie de son énergie d’excitation en émettant un photon, et en retombant à un niveau d’énergie plus faible (au centre). Mais, frappé par un photon extérieur d’énergie égale à E2 — Ev donc de fré-
- quence v = —---------- il émet un photon de même fréquence et en phase avec
- le photon stimulateur (en bas). Le photon stimulateur se trouve donc accompagné d’un photon supplémentaire de même longueur d’onde.
- (Imité de A. L. Shawlow, dans Scientific American).
- trouvera ainsi fortement amplifiée. Par contre, si un de ces photons rencontre un atome non excité, il est tout simplement absorbé et l’atome devient excité. On se rend compte ainsi intuitivement que pour qu’il y ait amplification, il faut que le nombre d’atomes excités soit plus grand que celui des atomes dans l’état fondamental. On dit qu’il faut provoquer une « inversion de population ». Nous verrons plus loin comment on peut provoqer cette inversion.
- Cette condition, que l’on peut appeler condition d’amplification du milieu, si elle est nécessaire n’est pas suffisante. Il n’est pas possible en effet d’accumuler du rayonnement en milieu ouvert : il faut que le milieu actif soit placé dans une cavité où l’énergie soit stockée. Il faut alors tenir compte des pertes vers l’extérieur qui doivent être inférieures à la puissance émise si l’on veut que le système fonctionne. Le stockage de l’énergie est réalisé en plaçant le milieu actif dans une « boîte » réflectrice, c’est-à-dire une cavité résonnante. Si une onde prend naissance dans la boîte, elle ne peut que se déplacer d’une paroi à l’autre, chaque réflexion la renvoyant dans la masse des atomes excités. L’onde croît en amplitude par émission stimulée à chaque passage dans le milieu actif et une onde stable s’établit dans la boîte pour peu que l’amplification soit suffisante pour compenser les pertes par réflexion sur les parois.
- Comment, maintenant, construire cette « boîte » ? Aux longueurs d’onde centimétriques, ou plus grandes, comme celles du radar, il n’est pas difficile de construire une boîte ayant les dimensions d’une longueur d’onde et conçue de manière qu’elle ne soit réfléchissante que pour
- un mode bien déterminé d’oscillation. A ce mode unique correspond une fréquence unique, tandis que des modes d’oscillation différents créent autant de fréquences différentes, donc du « bruit ».
- Aux longueurs d’onde lumineuses il n’en est plus de même puisqu’il faudrait, pour qu’il n’y ait qu’un seul mode, construire une cavité dont les dimensions seraient de l’ordre de la longueur d’onde, c’est-à-dire du micron, ce qui est évidemment impossible. Pour tourner cette difficulté, Townes et Shawlow proposèrent d’utiliser une cavité beaucoup plus grande mais capable quand même de ne favoriser qu’un nombre restreint de modes d’oscillation, à savoir une cavité du type Pérot et Fabry, c’est-à-dire un cylindre étroit dont les faces extrêmes sont réfléchissantes (fig. 2), l’une d’elles étant très légèrement transparente de façon à permettre l’observation de la lumière créée. Seuls subsistent alors et croissent par émission stimulée les modes de vibration pour lesquels la propagation se fait parallèlement à l’axe du cylindre. Si, au contraire, la direction de propagation n’est pas parallèle à l’axe du cylindre, le rayonnement s’échappe par les parois latérales.
- Miroir Miroir
- Fig. 2. — Accumulation d’énergie électromagnétique dans une cavité de Pérot et Fabry.
- L’onde s’amplifie à chaque aller et retour par émission stimulée.
- Les dimensions verticales ont été très exagérées pour la clarté du schéma.
- (D’après A. L. Shawlow).
- On peut prévoir d’ores et déjà que l’une des qualités de la lumière émise sera sa directivité : on observera un faisceau parallèle à l’axe du Pérot et Fabry. Cette propriété est due à la combinaison de deux effets : directivité de l’émission stimulée et emprisonnement du rayonnement dans une cavité qui ne favorise que les réflexions parallèles à l’axe. Par ailleurs, la lumière émise sera intense en raison de l’amplification par émission stimulée. Ce phénomène ne se produisant que pour une longueur d’onde bien déterminée (celle correspondant à l’émission spontanée) on peut prévoir aussi que la lumière sera de haute monochromaticité. Enfin, la dernière propriété, mais non la moindre, sera la cohérence, c’est-à-dire le fait qu’il existe une relation bien déterminée entre les phases des ondes émises à des instants différents puisque les photons dus à l’émission stimulée sont en phase avec les photons incidents. Le défaut de cohérence ne sera dû qu’à l’existence d’une émission spontanée non négligeable et qui superpose des ondes de phases quelconques aux ondes émises par émission stimulée.
- 2
- p.2 - vue 6/551
-
-
-
- Réalisation des lasers : lasers solides
- Le premier laser, avons-nous dit, fut réalisé par T. H. Mai-man des laboratoires de la Hughes Aircraft Company. Il utilisait un cristal de rubis et doit donc être rangé dans la catégorie des lasers solides. D’autres substances ont été étudiées et il existe aussi depuis peu des lasers à gaz comme celui d’Ali Javan et de ses collaborateurs qui a fonctionné pour la première fois il y a quelques mois.
- La principale méthode appliquée à l’heure actuelle pour réaliser un laser solide utilise les propriétés de fluorescence de certains corps, en particulier des rubis. On sait que le rubis est de l’oxyde d’aluminium dans lequel quelques atomes d’aluminium ont été remplacés par des atomes de chrome, qui sont responsables de la; couleur de la pierre ; plus les atomes de chrome sont nombreux, plus la couleur rouge du rubis est profonde. Maimah, suivi en cela par là plupart des chercheurs, utilise un rubis rose pâle contenant environ 0,05 pour 100 de chrome. La couleur rosé du rubis résulte du fait que les atomes de chrome du cristal absorbent une large bande de lumière verte et jaune, de même que des ultraviolets, et ne laissent passer que du rouge et du bleu.
- La lumière absorbée par les atomes de chrome les porte à un état excité à partir duquel ils redescendent à un niveau d’énergie plus faible sans êmettre de photons mais en cédant de l’énergie au réseau cristallin. Ce niveau d’énergie a une durée de vie relativement longue (quelques millisecondes) et se trouve ainsi « peuplé ». S’ils ne sont soumis à aucune stimulation, les atomes qui occupent ce niveau reviennent à l’état fondamental en complet désordre en émettant des photons dont la longueur d’onde, à la température ordinaire, est de 6 943 Â, ce qui correspond à la fluorescence
- Fig. 3. — Principe de fonctionnement d’un laser à rubis rose.
- Les deux rectangles hachurés représentent les deux bandes d’énergie correspondant à l’absorption, l’une dans le vert et le jaune, l’autre dans l’ultraviolet. En a, deux atomes sont représentés dans l’état fondamental. Si nous illuminons le cristal, les atomes de chrome sont portés dans l’une des deux bandes d’énergie correspondant à l’absorption de rayonnement (b). De là, ils redescendent à un niveau d’énergie plus faible (mais bien déterminé), sans émettre de rayonnement (t). La durée de vie des atomes dans ce niveau est relativement longue de sorte qu’il y a accumulation d’atomes de chrome à ce niveau. Lorsque le nombre d’atomes dans ce niveau est nettement supérieur à celui dans le niveau fondamental, l’inversion de population a été réalisée et les conditions pour qu’il y ait effet laser sont réunies. Par émission spontanée (d), des atomes de ce niveau intermédiaire retombent à l’état fondamental en émettant des photons. Ces photons provoquent alors la désexcitation des atomes de chrome qu’ils rencontrent, par émission stimulée. Mais, alors que la plupart ne font qu’un parcours très bref dans le cristal, ceux qui se propagent perpendiculairement aux faces argentées sont pour ainsi dire emprisonnés. Ces photons vont alors faire un long trajet dans le cristal et déchaîner une véritable avalanche de photons tous en phase, qui ne s’arrêtera que lorsque la population du niveau intermédiaire sera devenue trop faible par rapport à celle du niveau fondamental.
- (Imité de Scientific American).
- Ultraviolet
- Vert-jaune
- Niveau
- intermédiaire
- Etat fondamental
- rouge caractéristique des rubis. Dans un laser, on s’arrange au contraire pour que les premiers photons qui sont émis à cette longueur d’onde stimulent les atomes de chrome encore excités pour leur faire libérer des photons et les faire retomber à l’état fondamental beaucoup plus vite que normalement, de sorte qu’il en résulte une avalanche de photons, tous de même longueur d’onde : 6 943 Â (fig. 3).
- On voit que le laser a pour effet d’absorber une énergie répartie sur des bandes de fréquences assez larges (représentées par des zones hachurées sur la figure 3) et d’en restituer une grande partie sur une fréquence étroitement délimitée (haute monochromaticité). La fluorescence du rubis, au lieu d’être dispersée dans l’espace comme elle l’est d’ordinaire, se trouve concentrée en un pinceau étroit et avec une monochromaticité plus parfaite.
- La réalisation est très simple, tout au moins en théorie. On utilise un cristal de rubis d’environ 4 cm de long et de 5 mm de diamètre (fig. 4). Ses extrémités sont polies de façon à être parfaitement planes (irrégularités inférieures à une fraction de longueur d’onde) et parallèles (on y parvient, en général à une quinzaine de secondes d’arc près).
- Lampe
- flash
- Rubis
- Laser
- Refi'oidisseur
- Batterie de condensateurs
- Fig. 4. — Schéma d’un laser à rubis.
- Le cristal de rubis est placé dans une lampe flash alimentée par une batterie de condensateurs. La face de droite du rubis est complètement argentée. Celle de gauche ne l’est que partiellement, de manière à laisser sortir le faisceau laser. En raison de la puissance dissipée dans la lampe flash, il est nécessaire de refroidir le rubis pour éviter tout échauffement. On peut utiliser de l’air comprimé,
- de l’azote liquide, etc.
- Les faces du cristal sont rendues réfléchissantes par argenture. Le coefficient de réflexion obtenu est de 0,98 à 0,99. La tige de rubis est placée à l’intérieur d’une lampe flash en forme de spirale, dont la lumière pénètre dans le cristal
- par les faces latérales. C’est d Maiman qui, le premier, a
- découvert que ces lampes flash étaient capables, lorsqu’on les alimentait par une source de courant intense (par exemple une batterie de condensateurs de 400 [xF sous 4 000 V), d’exciter la quasi-totalité des atomes de chrome. Il existe une intensité de seuil, c’est-à-dire que jusqu’à une certaine
- AA/v AAA/AAA-
- 3
- p.3 - vue 7/551
-
-
-
- intensité de l’éclair on ne constate rien d’autre que l’émission par le rubis d’une lueur de fluorescence rouge normale. Au delà de ce seuil par contre, l’effet laser se manifeste et un faisceau rouge très intense, d’une durée de l’ordre de 0,002 seconde, émerge de la face partiellement argentée du rubis, ce qui montre que l’inversion de population a été suffisante pour que l’amplification par émission stimulée soit supérieure aux pertes par réflexion, diffraction, défauts du cristal, etc.
- Le faisceau lumineux est très bref car l’intensité nécessitée par le flash étant très élevée, le système ne peut fonctionner que par impulsions. Il ne s’agit donc pas, en l’état actuel, de faisceau continu.
- Fig. y. — Influence de la tension de charge de la lampe flash sur l’effet laser.
- Les photos représentent les traces obtenues sur un oscillographe relié à un détecteur photoélectrique placé sur le faisceau émergent.
- x Fluorescence normale du rubis avec décroissance exponentielle : la tension de charge n’est pas suffisante pour provoquer l’effet laser, z, Au maximum de la fluorescence, une légère pointe apparaît, annonçant le seuil de l’effet laser. 3, Pour une tension supérieure de z pour 100, l’effet laser se traduit par une brutale discontinuité de la courbe. 4, Pour une tension de charge supérieure de 20 pour 100 à l’énergie du seuil, la durée et l’intensité de l’effet laser sont fortement accrues. On observe une forêt d’impulsions qui se recouvrent les unes les autres ; elles correspondent à l’avalanche des photons par émissions stimulées. On n’observe pratiquement plus de fluorescence après l’effet laser.
- {Photo Laboratoire central des Télécommunications).
- Fig. 6. — Tube flash destiné au « pompage optique » du cristal de rubis.
- On désigne sous le nom de « pompage optique » le processus qui consiste, en illuminant le cristal de rubis, à provoquer une « inversion de population » de ses atomes de chrome, autrement dit à porter la plus grande partie d’entre eux à un niveau plus grand d’énergie. Dans le haut de la photo, on voit un cristal de rubis dont deux faces opposées ont été argentées.
- {Photo U. S. I. S. aimablement communiquée par le Centre culturel américain).
- Le laser à rubis rose est le type des lasers dits à trois niveaux : le niveau fondamental, un niveau d’excitation et un niveau intermédiaire dit métastable. Il existe aussi des lasers à quatre niveaux. Dans ce cas, l’absorption du rayonnement de la lampe flash porte les atomes à l’état excité E3 comme précédemment. Ces atomes retombent ensuite à un niveau d’énergie plus faible E2 (sans émettre de photons, mais en cédant de l’énergie au réseau cristallin) dont la durée de vie est relativement longue. Ils retombent enfin soit à l’état fondamental E0 soit à un état Ex légèrement supérieur au niveau fondamental (fig. 8). L’émission stimulée qui est à la base de l’effet laser est due ici à la transition de l’état E2 à l’état Ex au lieu de l’être, comme dans le laser à trois niveaux, à la transition E2 -> E0.
- Dans la plupart des cristaux pour lesquels on a cette disposition, le niveau Ei est en général presque vide et on peut le dépeupler très facilement en refroidissant le cristal. C’est pourquoi les lasers à quatre niveaux sont en général utilisés à la température de l’azote ou de l’hélium
- 4
- p.4 - vue 8/551
-
-
-
- Fig. 7. — Un laser à rubis.
- Le docteur Théodore H. Maiman, de la Hughes Aircraft Co., examine un tube flash à l’intérieur duquel est disposée une tige de rubis.
- p.5 - vue 9/551
-
-
-
- Fig. 8. — Schéma du fonctionnement d’un laser à quatre niveaux.
- La zone hachurée représente les bandes d’absorption. Les transitions
- E3 — E2 et Ei — Eo ne s’accompagnent pas d’émission de photons. Explications complémentaires dans le texte.
- liquide. La condition d’inversion des populations (nombre d’atomes dans E2 supérieur à celui dans Ex) est alors très facile à réaliser. C’est pourquoi les lasers à quatre niveaux nécessitent une puissance moins élevée. On en connaît plusieurs exemples. D’abord, le rubis rouge, qui contient 0,5 pour ioo de chrome (soit io fois plus qu’avec le rubis rose) et où certains atomes de chrome se trouvent associés par paires. On y observe plusieurs raies de fluorescence dans le rouge, à 7 041 et 7 009 Â, et le seuil de l’effet laser est différent pour chacune d’elles ; il semble qu’elles soient associées à des types différents de paires d’ions Cr3+. L’effet laser a été observé dans le rubis rouge par A. L. Shawlow et G. E. Delvin puis par I. Wieder et L. R. Sarles de la firme Varian Associates.
- La fluorine, ou fluorure de calcium F2Ca, à laquelle sont ajoutées diverses impuretés, par exemple de l’uranium à 0,05 pour xoo, du samarium à 0,1 pour 100, de l’europium, etc., a permis également de réaliser des lasers à quatre niveaux. La fluorine contenant de l’uranium possède des bandes d’absorption dans le vert et le bleu et a une couleur rose très proche de celle du rubis. La fluorine dopée au samarium est verte. Des lasers utilisant ces cristaux ont été réalisés par P. P. Sorokin et M. J. Stevenson, des laboratoires de recherche de l’I. B. M. Les longueurs d’onde laser obtenues sont respectivement de 24 900 Â (infrarouge lointain) et 7082 Â (rouge).
- Lasers à gaz
- Les lasers à cristaux, nous l’avons vu, ne peuvent jusqu’à présent fonctionner qu’en impulsions. Au début de 1961, Ali Javan, W. R. Bennet et D. R. Herriott, des laboratoires de la Bell Téléphoné Company, ont présenté un
- abc
- laser continu à gaz, utilisant un mélange de néon et d’hélium sous pression réduite (la pression partielle de l’hélium est de 0,1 mm de mercure, celle du néon de 1 mm de mercure).
- Initialement, les atomes d’hélium e : de néon sont les uns et les autres dans l’état fondamental (fig. 9). La décharge électrique que l’on produit dans le tube excite les atomes d’hélium. Lorsqu’un atome d’hélium rencontre un atome de néon, il y a transfert d’énergie de l’un à l’autre, de sorte que l’hélium retombe au niveau fondamental tandis que l’atome de néon est excité et se trouve porté à l’un des quatre niveaux énergétiques supérieurs que la mécanique quantique reconnaît comme possibles. Lorsque cet atome excité est stimulé par un photon extérieur, le néon retombe à un niveau inférieur (il y a 10 niveaux possibles très voisins les uns des autres) en émettant un photon. Puis, il retombe, par étapes, au niveau fondamental en émettant d’autres photons mais qui ne contribuent pas, eux, à l’effet laser (émission spontanée, non stimulée). On a là un fonctionnement plus complexe et l’on peut observer plusieurs raies dans le proche infrarouge. Ce qui est remarquable, c’est que l’énergie nécessaire pour faire fonctionner ce laser est très faible puisqu’elle ne dépasse pas 50 watts, c’est-à-dire, en gros, l’énergie nécessaire pour faire fonctionner un tube à néon ordinaire. Le fonctionnement du laser peut alors être continu et cela ouvre des possibilités nombreuses au système.
- Comme dans le laser à rubis, le faisceau, avant de s’échapper de l’appareil, subit un grand nombre de réflexions sur deux miroirs parallèles. Dans l’appareil de Javan, le tube qui renferme le gaz mesure 80 cm de long et 1,5 cm de diamètre (fig. 10). Les miroirs sont orientables à la seconde d’arc près, ce qui a une grande influence sur la directivité. On a observé cinq raies dans le proche infrarouge. La puissance émise dans la raie la plus intense (11 550 Â) est de 15 milliwatts.
- Propriétés de la lumière produite par les lasers
- La plus grande partie des études ont été effectuées au moyen des lasers à rubis, mieux connus que les lasers à gaz. Avec un laser à rubis rose (0,05 pour 100 de chrome) la puissance obtenue atteint 10 000 watts pour un faisceau de moins de 1 cm2 de section. La directivité est excellente : elle est de l’ordre de 0,1 à 0,05 degré. Nous avons déjà cité
- d
- Hélium Néon
- *
- «
- vAAA-
- Fig. 9. — Schéma du fonctionnement
- d’un laser à gaz.
- Le milieu actif est un mélange d’hélium et de néon. Au départ, les atomes d’hélium et de néon sont tous deux dans l’état fondamental {a). Une décharge électrique excite les atomes d’hélium (b) qui sont portés à un niveau énergétique plus élevé. Lorsqu’un atome d’hélium excité rencontre un atome de néon, il y a échange d’énergie et tandis que l’hélium retombe au niveau fondamental, le néon est porté à l’un des quatre niveaux supérieurs possibles (c). Par émission stimulée, l’atome de néon retombe alors à l’un des 10 niveaux inférieurs en émettant un photon puis, par étapes, au niveau fondamental, par émission spontanée (ne contribuant pas à l’effet laser).
- {Imité de Scientific American).
- 6
- p.6 - vue 10/551
-
-
-
- l’expérience de Murray Hill dans laquelle la tache obtenue à 40 km du point d’émission ne mesurait que 60 m de diamètre. On a également étudié, dans les mêmes laboratoires, la transmission d’impulsions laser dans un tube circulaire de 5 cm de diamètre et de 400 m de long, dans lequel aucun brouillard ni aucune poussière ne pouvait atténuer le faisceau. Les photomultiplicateurs situés à l’extrémité du tube ont enregistré des impulsions lumineuses de forte intensité. De toute façon, la directivité pourrait être encore augmentée en recevant le faisceau sur un télescope qui le concentrerait en éliminant les rayons extrêmes. D’après Shawlow, on pourrait par ce moyen projeter sur la Lune une tache lumineuse dont le diamètre ne dépasserait pas 3,5 km.
- Regjaqe
- d inclinaison Mélanqe . du miroir d'hélium ut de néon
- Miroir
- Miroir
- Fenêtre
- d Faisceau émergent
- Excitateur de radio-frequence
- Fig. 10. — Coupe d’un laser à gaz.
- L’excitateur de radio-fréquence injecte de l’énergie dans le gaz et excite les atomes d’hélium. Après une série d’aller et retour entre les deux miroirs, le faisceau
- émerge du laser.
- Avec le laser à gaz, la directivité est encore meilleure, ne serait-ce que parce que le parallélisme des miroirs peut être réglé avec une excellente précision (une seconde d’arc environ). La directivité atteint xo secondes soit 1/360 de degré.
- On peut concentrer la puissance fournie par un laser et obtenir ainsi une chaleur intense. Par exemple, avec une lentille de 1 cm de distance focale on concentre le faisceau en une tache de seulement 0,1 mm de diamètre, soit 0,0075 mm2. La densité locale d’énergie atteint 100 millions de watts par cm2. Pour mieux saisir l’importance de ce chiffre, on peut dire que la densité d’énergie obtenue pendant l’éclair est des milliers de fois plus grande que celle que l’on obtiendrait en concentrant la lumière solaire. Elle est suffisante pour fondre ou vaporiser en un point de sa surface le matériau le plus réfractaire. L’expérience a été réalisée dans les laboratoires de la Bell Téléphoné. W. S. Boyle a obtenu une température de 8 ooo0 C sur une cible de diamant en cinq dix-millièmes de seconde.
- La lumière obtenue par effet laser est, comme nous l’avons indiqué, hautement monochromatique. Avec les lasers à rubis, où au cours de son illumination par la lampe flash le rubis s’échauffe notablement, ce qui est défavorable, on obtient pourtant une largeur de raie de 0,02 Â, soit approximativement 1 000 mégacycles, c’est-à-dire une raie aussi fine que la plus fine des raies spectrales d’une source traditionnelle quelconque de lumière. Avec le laser à gaz, les
- Fig. 11 et 12. — Étude de la face émissive du cristal d’un laser.
- Au moyen d’un objectif, on peut former l’image agrandie de la face émissive du rubis sur un papier sensible. Lorsque le seuil de l’effet laser est à peine dépassé, on observe un ensemble de taches distinctes situées de préférence au milieu du rubis {-.n haut). Lorsque l’énergie de « pompage optique » est très supérieure au seuil, il n’y a plus qu’une grosse tache centrale {en bas), mais dont la structure granuleuse laisse penser qu’elle est constituée par la superposition d’une multitude de taches élémentaires. On peut probablement considérer le phénomène comme la superposition des effets d’un grand nombre de fibres laser parallèles à l’axe du rubis.
- {Photo L. C. T.).
- résultats sont encore meilleurs puisqu’on obtient une raie dont la largeur ne dépasse pas 1 kilocycle pour une fréquence moyenne de 100 000 mégacycles. La puissance de sortie par kilocycle de largeur de bande est environ 100 millions de fois, celle de 1 cm2 de la surface du Soleil. Par ailleurs, la stabilité de la fréquence sur les courtes périodes de temps où le laser a fonctionné s’est révélée excellente.
- 7
- p.7 - vue 11/551
-
-
-
- Fig. I— Laser semi-portatif construit par le Laboratoire central des Télécommunications.
- (Photo L. C T.).
- Dans la gamme des ondes radio, cette stabilité n’est égalée que par les étalons de fréquence les mieux étudiés et par les « horloges atomiques ».
- Enfin, la propriété la plus étonnante peut-être des lasers est la cohérence extrême de la lumière qu’ils produisent, c’est-à-dire la précision avec laquelle toutes les ondes qui en émanent sont « en phase ». Il suffit en effet de tracer sur la face terminale d’un rubis deux fentes très fines pour obtenir un splendide réseau de franges d’interférences. On sait, au contraire, les difficultés rencontrées pour réaliser l’expérience de Young avec la lumière produite par une simple lampe à incandescence. Il faut alors fortement diaphragmer la source et disposer à une distance convenable l’écran percé des deux fentes pour réaliser, et encore de façon approximative, deux sources cohérentes.
- La cohérence de la lumière émise par les lasers a permis également à Ali Javan de produire des « battements » et, en particulier, de fabriquer littéralement une onde hertzienne de 300 mégacycles à partir de deux ondes lumineuses. Le phénomène est en quelque sorte comparable à celui qu’on observe en acoustique lorsque l’oreille reçoit simultanément deux sons continus de fréquences voisines. On sait qu’alors l’oreille ne semble plus percevoir qu’un seul son, mais avec une intensité qui bat à un rythme beaucoup plus lent que la fréquence des sons. L’expérience réalisée par Javan met ainsi en évidence l’identité complète des radiations lumineuses et hertziennes et le fait qu’elles ne diffèrent que par la longueur d’onde. Cette identité, dont on ne doutait évidemment pas, n’avait toutefois pas été démontrée expérimentalement, en raison du défaut de cohérence des ondes lumineuses produites par les sources traditionnelles.
- D’autres points restent à étudier, en particulier la polarisation de la lumière émise. Selon des études menées notamment en France au Laboratoire central des Télé-
- communications, l’effet laser se produirait préférentiellement sinon exclusivement suivant la vibration ordinaire (rappelons que le rubis est un cristal biréfringent, c’est-à-dire que pour une direction de propagation donnée dans le cristal, il y a deux ondes possibles ayant des vitesses de propagation différentes et polarisées dans des plans perpendiculaires ; le faisceau ordinaire est celui qui suit la loi habituelle de réfraction dans le cristal ; l’autre est appelé faisceau extraordinaire).
- Applications espérées
- Les lasers sont maintenant entrés dans le domaine des réalisations. Il n’est pour s’en persuader que de considérer le dispositif semi-portatif mis au point par le Laboratoire central des Télécommunications. On est loin déjà de l’imposant et délicat appareil de laboratoire (fig. 13). Toutefois les développements n’en sont qu’à leurs débuts et si de nombreuses applications ont été envisagées, aucune n’a encore vu le jour. Citons-les en souhaitant que l’avenir justifie ces espoirs.
- Ce sont d’abord des sources monochromatiques particulièrement intenses dans l’infrarouge. Jusqu’à présent, on ne disposait pas de telles sources et on utilisait soit des sources fluorescentes dont le rendement était très faible, soit des sources thermiques que l’on essayait de filtrer. C’est donc là un progrès considérable dont vont bénéficier la spectroscopie infrarouge et la chimie. En effet, le rayonnement infrarouge permet d’exciter les molécules ; par le choix judicieux de la longueur d’onde on pourra peut-être exercer un contrôle sélectif sur certaines réactions chimiques. Jusqu’alors toutes les sources d’infrarouge étaient beaucoup trop faibles pour envisager sérieusement ces possibilités ; le laser promet de tout remettre en question.
- Nous avons vu également que le laser permettait d’obtenir des densités énergétiques locales très élevées. L’utilisation de cette énergie peut ouvrir des champs nouveaux dans l’étude des liaisons inter ou même intra-atomiques. Par ailleurs, le très intense point chaud produit par concentration du rayonnement d’un laser au moyen d’une lentille pourrait être mis à profit pour fabriquer toutes sortes de dispositifs électroniques. Il serait possible, par exemple, de souder une petite jonction après que celle-ci aurait été scellée à l’intérieur d’une enceinte de verre.
- L’un des caractères les plus immédiatement utilisables de la radiation obtenue est sa directivité, et il semble que les lasers auront une importante application dans le domaine des télécommunications. L’observation de signaux à grande distance a été déjà obtenue avec succès. On a même envisagé, pour assurer la propagation sans ennuis des faisceaux lumineux, de les faire passer dans des tuyaux, ce qui, bien entendu, ne se réaliserait pas sans avoir posé quelques problèmes. L’intérêt de l’utilisation des fréquences optiques est que le volume des informations susceptibles d’être transportées simultanément croît proportionnellement à la fréquence de l’onde porteuse : en passant des ondes centimétriques aux longueurs d’onde optiques, le gain est de l’ordre de io4. De là on conçoit de multiples applications dans les communications avec les satellites, etc. Il faut évidemment pouvoir moduler le faisceau mais de
- 8
- p.8 - vue 12/551
-
-
-
- multiples procédés s’offrent a priori : application d’un champ magnétique, modulation de l’intensité de la source inductrice, etc.
- Enfin, la cohérence des faisceaux obtenus permet d’envisager l’application du principe du superhétérodyne au domaine des fréquences de l’optique. Il serait ainsi possible de convertir des longueurs d’onde lumineuses en d’autres plus longues, etc.
- Peut-être le lecteur taxera-t-il d’utopiques ces idées d’applications. Il ne faut pas oublier qu’il s’agit d’un domaine très jeune puisque le premier laser n’a fonctionné qu’en juillet i960. Quoi qu’il en soit, le champ des applications
- est très vaste et il n’est pas possible pour l’instant d’en circonscrire l’étendue. Les perspectives sont telles en tout cas qu’elles justifient les travaux déjà nombreux consacrés à cette délicate partie de la physique avancée.
- Jean Cézaire.
- La documentation de cet article est due pour une grande part à un article de M. A. L. Shawlow paru dans Scientific American, à un article de M. M. Pauthier dans Ingénieurs E. P. C. I., à un article de M. Authier dans Nucléus. Enfin, nous remercions très vivement MM. M. Pauthier et S. Deiness, Ingénieurs au Laboratoire central des Télécommunications, pour l’entrevue qu’ils ont bien voulu nous accorder et pour les photographies originales que cette société nous a autorisé à publier.
- Des bactéries prospèrent dans l’eau lourde d’un réacteur atomique
- Il est bien connu que si l’eau lourde ou oxyde de deutérium DsO est toxique, du moins à partir d’une certaine concentration, pour les êtres vivants supérieurs, des microorganismes peuvent très bien s’y développer, même dans l’eau lourde à l’état pur. Il semble même que l’eau lourde favorise la multiplication de certains virus, comme celui de la poliomyélite (expériences du docteur D. Kritchevsky à Philadelphie).
- On ne s’attendait pourtant pas à voir des bactéries prospérer dans l’eau lourde d’un réacteur nucléaire, en des points où la radioactivité est très intense. C’est ce qui confère leur intérêt aux observations faites par des chercheurs du Centre atomique de Lucas Heights (Australie), qui ont trouvé plusieurs espèces de microbes dans le réacteur « Hifar ».
- Ces microorganismes sont couramment observés dans les différents circuits hydrauliques qui sont utilisés dans l’industrie. Ils sont souvent responsables de la corrosion de ces circuits. Les chercheurs australiens ont tout d’abord examiné le circuit d’eau légère en service dans le réacteur. Puis ils ont poussé leur investigation vers le circuit d’eau lourde, milieu en principe peu favorable, en raison de l’intense irradiation à laquelle il est soumis.
- Un dispositif de prélèvement fut installé sur une canalisation, branchée sur la sortie de la cuve d’aluminium qui sert de logement au cœur du réacteur, à un endroit où le liquide vient d’être soumis à l’action des neutrons. Malgré la radioactivité ainsi induite, l’échantillonnage obtenu pendant 18 mois d’observation a permis de recueillir et d’isoler plusieurs espèces de bactéries.
- Prolongeant leur exploration, les chercheurs ont étendu leurs prélèvements à d’autres organes du réacteur, faisant partie du circuit d’eau lourde. Les résultats obtenus ont été significatifs. Dans une cuve de stockage de l’eau lourde, la population bactérienne atteignait 2 000 000 unités au centimètre cube, forte densité qui s’explique par le faible taux de radioactivité. Cette population était tombée à 1 000 par cm3 à l’entrée de la colonne échangeuse d’ions qui est au contraire fortement irradiée, mais elle remontait à 10 000 unités à la sortie de cette colonne. Autre observation intéressante : les bactéries étaient absentes à la sortie de la cuve du réacteur lorsque celui-ci fonctionnait en pleine puissance.
- La conclusion de ces observations est que les bactéries qui se développent librement dans la cuve de stockage sont affectées par les radiations au cours du circuit mais reprennent de la vigueur dans la colonne échangeuse d’ions dont les membranes leur servent de nourriture.
- Élevées sur milieu nutritif, les bactéries ont été reconnues comme appartenant aux genres Pseudomonas, Achromobacter et Baril lus. Puis on a procédé à une mesure méthodique de la résistance de ces organismes aux radiations. Cette résistance n’est pas aussi élevée qu’on pourrait le croire après les avoir trouvés dans le réacteur. Par ailleurs leur développement est plus rapide dans l’eau légère que dans l’eau lourde.
- Certains effets de l’eau lourde ont été notés, comme d’inhiber la production de pigments chez deux espèces de bactéries, Chromobacter violaceum et Serratia marcescens.
- Y. M.
- Une auto volante, F Aérocar
- Une société américaine va entreprendre la construction d’une automobile volante, baptisée Aérocar. Lorsqu’il est en vol, l’engin est un avion à deux places à propulseur arrière. Pour le transformer en automobile, le pilote démonte les ailes et la queue de l’appareil, les replie et les prend en remorque derrière
- le corps de l’engin. Le véhicule peut être converti d’un usage à l’autre en cinq ou dix minutes, par deux personnes. La vitesse de l’Aérocar, utilisé comme avion, sera de 160 km à l’heure, et son rayon d’action sera d’environ 500 km. Sur route, il atteindrait environ 100 km à l’heure.
- 9
- p.9 - vue 13/551
-
-
-
- Endoscopie et endographie
- auxiliaires modernes du diagnostic médical et de la chirurgie
- par le docteur Marcel Noix
- L’endoscopie englobe l’ensemble des procédés qui permettent d’examiner « directement » l’intérieur du corps. A son stade actuel, elle figure parmi les plus importantes méthodes de diagnostic dont disposent le médecin et le chirurgien, grâce à la possibilité qu’elle apporte pour une prise facile de documents. Mais les techniques présentement employées ont été précédées d’une longue série d’essais et de perfectionnement.
- Il est aisé de concevoir que les difficultés de l’endoscopie vont croissant à mesure que l’on cherche à explorer des organes de moins en moins accessibles. Alors que le spéculum était déjà connu des Hébreux et que les fouilles de Pompéi ont révélé l’existence de tout un matériel destiné à l’examen du rectum, il était déjà plus délicat de pousser l’exploration de la cavité buccale, vers l’œsophage et la trachée. Difficulté encore plus grande pour atteindre la vessie, l’urètre et la cavité utérine, avec un matériel qui devait nécessairement être de petit calibre.
- D’autres organes, tels que l’estomac, sont également d’un accès malaisé et certaines endoscopies (dans la cavité abdominale et l’espace interpleural, par exemple) exigent une voie d’accès chirurgicale.
- Mentionnons encore, parmi les techniques les plus récentes, les examens de la rétine au moyen d’un appareil perfectionné, le rétinoscope, et^ceux de l’oreille interne grâce à l’otoscope microscopique.
- Dans ce dernier cas, l’endoscopie n’est plus seulement un moyen de diagnostic l'elle a rendu possibles les interventions chirurgicales dans l’oreille moyenne par exemple, qui font partie des nouveaux traitements de la surdité. Ce n’est d’ailleurs pas un cas isolé car, dans tous les domaines, des traitements difficiles, comme l’extraction de corps étrangers au sein des voies respiratoires ou digestives supérieures et la résection des tumeurs endoviscérales, ont été à l’origine de progrès spectaculaires dans l’application de l’endoscopie à la thérapeutique électro-chirurgicale.
- Rétinoscopie Otoscopie Otasalpingoscopie Nasoscopie Laryngoscopie
- Bronchoscopie Oesophagoscopie Pleuroscopie
- Gastroscopie .aparoscopie
- Cholécystoscopie Coelioscopie Gynécoscopie J
- Cystoscopie Hystéroscopie Urétroscopie Rectosigmoïdoscopie
- Les obstacles rencontrés au cours des premières tentatives de l’exploration interne étaient particulièrement redoutables. Il fallait tout d’abord disposer d’une instrumentation susceptible de franchir les voies de transit donnant accès aux cavités naturelles et cela sans léser les muqueuses et sans s’engager dans les « fausses routes » qui maintenant encore sont à redouter. Il fallait encore, point capital, éclairer la région à explorer de telle sorte que l’image pût être reçue dans le champ visuel.
- Ce dernier impératif n’avait pas échappé aux précurseurs de l’endoscopie qui se bornaient pourtant à l’examen de cavités d’accès facile. Ce fut le cas du médecin arabe Rhazès (850-923) qui examina le conduit de l’oreille externe en utilisant les rayons du soleil. Quatre siècles plus tard, Guy de Chauliac (1295-1368) reprit cet examen, en faisant intervenir un jeu de miroirs. Un autre Français, François
- pi<r. 1, — Les différents organes du corps humain désormais accessibles à l’exploration endoscopique.
- 10
- p.10 - vue 14/551
-
-
-
- Trajet des rayons lumineux Trajet du retour de l'image
- Endoscopiste
- Miroir Fixe perforé
- Miroir
- mobile
- Lampe suri/oltée
- Fig. 2. — Schéma d’un appareil d’endoscopie et endographie à lumière proximale projetée.
- Les lignes pleines fléchées indiquent le trajet des tayons lumineux émis par la lampe sur-voltée et réfléchis par le miroir fixe perforé. La ligne interrompue indique le trajet de retour de l’image. Cette image, dans la position inclinée du miroir mobile (représentée en plein) frappe l’œil de l’endoscopiste après réflexion sur un deuxième miroir. Dans la position horizontale du miroir mobile (en pointillé), l’image va directement se graver sur le film.
- Trajet du retour de l'image
- Endoscopiste
- Fig. 3. — Schéma d’un appareil d’endoscopie et endographie à lumière distale.
- Les lignes pleines indiquent les deux fils d’alimentation de la lampe. La ligne interrompue indique le trajet de retour de l’image.
- Borel, de Castres, fit également appel, on ne sait dans quel but médical, à la lumière réfléchie par un miroir concave qui lui permettait de faire converger au foyer la lumière du soleil ou celle d’une bougie et d’obtenir ainsi une intensification très appréciable de l’éclairement.
- Mais les véritables débuts de l’endoscopie datent de 1805, année où Bozzini, de Francfort, mit au point un procédé d’exploration de toutes les cavités, se spécialisant toutefois plus particulièrement dans la laryngoscopie. Son instrumentation était composée de tubes de longueurs et de calibres différents, chacun d’eux étant spécialement conçu pour un organe déterminé. L’éclairage était réalisé par un moyen analogue à celui de Borel. Les applications semblent s’être bornées à l’examen du larynx.
- I/évolution des techniques
- A travers tout le 19e siècle et le début du 20e, les techniques allaient se perfectionner, grâce aux travaux de nombreux chercheurs. Ces perfectionnements ont été favorisés par les progrès de l’éclairage, la bougie étant remplacée par le pétrole qui céda lui-même la place au gaz d’éclairage, relayé parfois par le magnésium et les fils incandescents, jusqu’à l’apparition de la lampe électrique. Parallèlement, les acquisitions de l’optique ont permis de pousser l’exploration à travers des voies dont l’accès était de plus en plus difficile.
- Selon que la source de lumière est placée à l’extérieur, à proximité du praticien observateur, ou à l’intérieur même de l’organe à explorer, on parle de lumière proximale ou de lumière distale (fig. 2 et 3). On verra plus loin qu’on a pu récemment mettre au point des appareils où la lumière d’une source proximale n’est plus simplement projetée, mais transmise par u:n dispositif qui en évite la dispersion (fig. 8).
- 'Endoscopie urologique. — En 1826, Segalas présenta à l’Académie des Sciences un spéculum urétro-cjstique, constitué par deux sondes concentriques : la sonde centrale servait à l’exploration, la sonde externe transmettait la lumière de deux bougies que réfléchissait un miroir concave. Vers 1853, c’est-à-dire après un intervalle de 27 ans, Desormeaux réussit à examiner la muqueuse de l’urètre et celle de la vessie. Il utilisait, comme Bozzini, des tubes de diamètres et de longueurs différents. L’éclairement était obtenu grâce à une lampe à pétrole dont la lumière se réfléchissait sur un miroir incliné à 45 degrés et percé en son centre pour permettre à l’exploration visuelle de se faire dans l’axe de la sonde.
- Ce système fut modifié par différents chercheurs. En 1865, Cruise, à Dublin, remplace le tube droit par un tube coudé, muni d’un miroir plan au niveau de la coudure. Après lui, Brück réalisa un appareil, le diaphanoscope, qui permettait une transillumination de la vessie au moyen d’un fil de platine incandescent placé dans le rectum.
- Après l’apparition de l’électricité, les méthodes et les appareillages se diversifièrent. A Vienne, en 1879, Nitze plaça une source lumineuse à l’extrémité distale de l’appareil, ce qui augmentait considérablement l’éclairement de la zone à explorer, mais imposait de refroidir le matériel par un système délicat et coûteux. Grunfeld, dans la même ville (1881), réalisa un aéro-urétroscope, dans lequel une injection d’air déplissait les parois de l’urètre, ce qui permettait une inspection plus rationnelle de la muqueuse.
- Ainsi que nous le verrons pour d’autres branches, l’examen endoscopique de l’urètre et de la vessie s’alliait couramment, dès la fin du siècle dernier, à une série de traitements qui eussent été irréalisables en l’absence de cette technique. Les muqueuses, parfaitement inspectées, pouvaient faire l’objet d’un traitement local, contrôlé par la vue. Les formations papillomateuses urétrales et vésicales, ou polypes, étaient détruites par galvanocautère ou par
- II
- p.11 - vue 15/551
-
-
-
- Fig. 4. — Endoscopie de l’œsophage ou des bronches par tube rigide.
- Ce mode d’examen oblige le patient à tenir la tête fortement défléchie.
- {Photo A. D. P.).
- diathermo-coagulation. Les calculs vésicaux, repérés et fragmentés, pouvaient être extraits, sans avoir recours à l’intervention plus sévère de la taille hypogastrique. Il en était de même pour les corps étrangers accidentels. Dès 1910, des traitements de tumeurs de la vessie par le radium étaient pratiqués par le docteur Desgrez.
- Enfin le cathétérisme de la vessie ouvrait la voie à l’inspection des voies urinaires supérieures. C’est en 1897 que fut présenté par Albaran et Imbert le cystoscope à onglets mobiles qui permettait de diriger latéralement et de faire progresser les sondes filiformes jusqu’aux cavités rénales.
- Endoscopie gynécologique. — Prolongeant la colposcopie (exploration du col utérin) qui, nous l’avons vu, remonte aux temps bibliques, l’endoscopie moderne a pénétré, sous le nom d’hystéroscopie, jusqu’à la cavité utérine. C’est le matériel de Desormeaux qui fut pour la première fois utilisé à cette fin par Pantaleoni vers 1865. Un appareil nouveau à éclairage interne fut utilisé en 1905 par Judet, puis en 1908 par David qui y apporta certains perfectionnements.
- Endoscopie rectale. — Elle fut tentée pour la première fois à Baltimore par Kelly, au moyen d’un tube métallique rectiligne poussé jusqu’à 30 cm au delà de l’orifice anal. Par la suite, cette technique a été perfectionnée en Allemagne, en Angleterre et en France, utilisant soit la lumière réfléchie, soit la lumière de contact.
- Endoscopie des voies respiratoires. — Après celui de Bozzini, plusieurs noms (Garcia, Kustein, Küssmaul et Mickulicz) sont associés aux débuts de la laryngoscopie. Cette technique fut favorisée, à partir de 1884, par la découverte (due à Jellinek) de la cocaïne qui permettait l’anesthésie de la muqueuse et la suppression du réflexe pharyngo-laryngé. Jointe tout d’abord à l’œsophagoscopie, la laryngoscopie
- s’individualisa et l’on assista à une bifurcation entre deux procédés, celui de la laryngoscopie directe, tout d’abord utilisée, et celui de la laryngoscopie indirecte, où la lumière était réfléchie sur un miroir plan intrabuccal après une première réflexion sur un miroir frontal ou sur le « photophore » de Clar. Dans l’un et l’autre cas, il était fait usage de miroirs concaves, perforés pour permettre l’observation visuelle. Le miroir de Clar, pourvu de deux orifices, permettait la vision binoculaire.
- En 1897, Killian tenta avec succès d’extraire un corps étranger des voies respiratoires supérieures. Cette intervention, facilitée par l’usage de la cocaïne, inaugurait 1’ « approfondissement » de l’endoscopie vers la trachée et les grosses bronches. La technique, désormais connue sous le nom de trachéobronchoscopie, devait recevoir des perfectionnements importants de Chevalier Jackson dont l’instrumentation convenait à la fois à l’exploration de la trachée et à celle de l’œsophage.
- Endoscopie de P œsophage et de V estomac. — Il est fort délicat de pratiquer l’exploration des voies digestives supérieures en employant un tube rigide rectiligne. Un entraînement tout particulier de l’opérateur et une préparation minutieuse du patient sont nécessaires pour l’application de ce procédé. On ne sera donc pas autrement surpris d’apprendre qu’il fut inauguré (en 1868) par Küssmaul après que cet auteur eut observé avec soin la position prise par un ava-leur de sabres : tête fortement défléchie, mettant l’axe buccal et l’axe laryngo-trachéal en prolongement l’un de l’autre (fig. 4).
- Küssmaul ne visait cependant que l’exploration de l’œsophage. A partir du moment où l’on entreprit de pousser l’examen en profondeur jusqu’à la cavité de l’estomac, l’emploi d’un appareil flexible s’imposait. Il fut réalisé en 1930 par Lamm qui eut l’idée fort ingénieuse de réunir, dans son « fiberscope », un faisceau de 30 000 fibres en matière transparente (chacune ayant un diamètre de 75 microns et transmettant un point de l’image) dont l’assemblage formait un cordon de 10 mm de diamètre. Cette technique était encore dans ses débuts et les résultats ne furent pas concluants. Il est infiniment probable qu’elle sera prochainement reprise, à la suite des progrès spectaculaires de l’optique des fibres dus aux travaux de Kapanji, Hopkins, Potter, etc. (voir à ce sujet Ea Nature, février i960, p. 58-61).
- En attendant, les endoscopistes utilisent le gastroscope semi-flexible de Wolff et Schindler, appareil fort compliqué qui ne comprend pas moins de 52 éléments optiques (fig. 5). Comportant une lampe flash et deux lampes d’observation permanente, cet appareil permet non seulement l’observation à la vue, mais la prise de documents, grâce à la fixation d’une caméra.
- Endoscopie des cavités fermées. — Pratiquant pour la première fois en 1901 un acte chirurgical en vue d’introduire un matériel d’exploration dans la cavité abdominale, Kellin n’obtint que des résultats discutables avec un matériel d’ailleurs très rudimentaire. Il en fut de même, dix ans plus tard, pour Bernheim. Par la suite, deux auteurs, Jacobeus et Nordentaepft, utilisèrent le cystoscope sur des abdomens ascitiques, c’est-à-dire remplis de liquide et où se retrouvaient les mêmes conditions d’observation que dans des vessies pleines. La véritable laparoscopie ne date en réalité que de 1928 où Kalk réussit l’examen des organes intra-abdominaux après avoir insufflé de l’air dans la cavité,
- 12
- p.12 - vue 16/551
-
-
-
- opération connue sous le nom de pneumopéritoine.
- La technique de la pleuroscopie est encore plus récente. Elle a été utilisée entre 1930 et 1940 en vue de mettre à jour les lésions pleurales adhésives chez les tuberculeux, porteurs ou non d’un pneumothorax. Il s’agissait en réalité d’une intervention chirurgicale où les brides découvertes devaient être sectionnées par le bistouri électrique. Le pleuroscope était introduit au moyen d’une canule de ix cm de long et 5 mm de large. La lumière d’une lampe distale était réfléchie sur un prisme à 90 degrés.
- Endoscopie des organes des sens. — Après les précurseurs du Moyen Age dont l’exploration n’avait pas dépassé l’oreille externe, on doit citer Politzer, de Vienne, qui entreprit en 1896 l’examen de l’oreille moyenne au moyen d’un spéculum auris de sa conception. De grands progrès ont été réalisés depuis lors, allant jusqu’à des interventions chirurgicales destinées à améliorer l’audition.
- L’exploration des conduits nasaux a été poussée jusqu’à l’examen de l’orifice des trompes d’Eustache. La technique connue sous le nom de salpingoscopie est assez peu employée.
- Tout différent est le cas de l’ophtalmoscopie dont les débuts remontent à 1851. L’auteur du premier ophtal-moscope, Helmholtz, ne soupçonnait certainement pas
- Fig. J. — Schéma d’un dispositif d’endoscopie de l’estomac.
- A : Le gastroscope ciné-photographique (modèle Ch. Débrayé et Housset) comporte une partie rigide et une partie flexible et comprend dans l’ensemble 52 éléments optiques de transmission. L’un de ces éléments (de système afo-cal) est représenté en B. L’éclairage est distal.
- 1 Endoscopiste
- Partie rigide du Gastroscope
- Œsophage----
- Diaphragme
- ^ Lésion de
- Estomac • ,aP?r°!
- Cardia
- Partie flexible du gastroscope
- L e système d'éclairage est distal
- B
- s ------ S &
- U L\ V A Lz L? 4 ' C * S
- Fig. 6. — Photographie du fond d’œil.
- On voit, à gauche, la papille (tache aveugle) d’où partent tous les vaisseaux qui irriguent la rétine et près du centre la fovéa, vers laquelle convergent les extrémités de nombreux vaisseaux.
- l’extrême importance que devaient avoir par la suite les examens du fond d’œil, révélateurs de nombreux états pathologiques, vasculaires, nerveux, etc. (fig. 6).
- Vers Tendographie en couleurs
- Cette rapide revue des différentes explorations locales montre que l’endoscopie a atteint, dans la première moitié de ce siècle, les objectifs qu’elle s’était primitivement tracés. Les techniques utilisées ont permis en effet d’accéder à toute une série d’organes et, grâce à des éclairements appropriés, de compléter les renseignements cliniques par la connaissance de l’état des parois organiques et par celle de la motricité apparente des organes. En même temps, la médecine a acquis le moyen de faire, sous le contrôle de la vue, des prélèvements destinés aux examens histologiques, d’effectuer de petites interventions électro-chirurgicales et d’extraire des corps étrangers, difficiles à atteindre par les procédés aveugles.
- Mais on ne pouvait évidemment s’en tenir là : à la simple observation visuelle, essentiellement fugace, les cliniciens souhaitaient ajouter ou substituer la prise de documents photographiques et cinématographiques, qui apporteraient des détails nouveaux et permettraient de constituer des archives, retraçant au besoin l’évolution d’une maladie.
- L’endoscopie, en quelque sorte, devait franchir l’intervalle qui sépare, dans un domaine similaire, la radioscopie de la radiographie. Mais pareille évolution vers une endo-graphie se heurtait à certaines difficultés techniques qui n’ont pu être surmontées que dans ces toutes dernières années.
- Les radiologues sont rompus à l’interprétation de clichés en noir et blanc, alors que l’endoscopiste fonde essentiellement son diagnostic sur les taches ou les altérations des couleurs observées sur les tissus et les organes. Contrainte
- 13
- p.13 - vue 17/551
-
-
-
- Fig. 7. — Photographie endoscopique des bronches.
- A gauche, voile congénital oblitérant partiellement la trachée, chez un enfant. A droite, tumeur bénigne à l’entrée de la bronche lobaire inférieure droite.
- (.Photos P. H. Holinger, extraites du Traité pratique de photographie et cinématographie médicale,
- Montel, Paris, obligeamment communiquées par l’éditeur).
- de fournir des clichés ou des films en couleurs, l’endogra-phie devait tenir compte à ses débuts de la sensibilité insuffisante des films polychromes. Il y a encore trois ans, les meilleures émulsions ne dépassaient pas 26° Scheiner : elles étaient donc 60 fois moins sensibles que les émulsions en noir et blanc. Il a fallu s’ingénier pour réaliser des éclairements intenses qui pussent compenser cette insuffisance.
- Par ce qui précède, on a déjà pu se rendre compte qu’il a été longtemps malaisé, en endoscopie pure, de transmettre l’image à l’œil de l’observateur. Le problème se complique singulièrement à partir du moment où l’observateur d’une part,' l’appareil photographique ou la caméra d’autre part doivent percevoir simultanément cette même image. Elle traverse en effet un orifice unique de sortie. Dans ces conditions, on comprendra qu’il était indispensable d’appliquer à l’endographie le système de la visée réflexe, désormais familière à bon nombre de photographes professionnels ou amateurs. Le maniement des différents appareils « reflex » leur a appris à cadrer et mettre au point sur une image que leur transmet un objectif et un prisme, cette image étant identique à celle qui va s’inscrire sur l’émulsion.
- La double difficulté qui vient d’être signalée explique les réalisations tardives de l’endographie. C’est seulement en 1941 que Holinger réussit à Chicago la première photographie bronchoscopique et quatre ans plus tard le premier film endobronchique. La technique est d’ailleurs restée
- tâtonnante jusqu’en 1952, date à partir de laquelle d’importants perfectionnements sont intervenus (fig. 7).
- Le problème de l’éclairement. — Comment a-t-on réussi à surmonter l’obstacle de l’éclairement trop faible pour la prise de documents ?
- Certains constructeurs ont adopté la voie de l’éclairage distal, qui place la source de lumière à l’intérieur même de l’organe à explorer. Le moyen qui apparaît le plus simple est de faire appel à une petite lampe à filament de tungstène, dont la luminosité est suffisante pour l’observation visuelle : au moment où l’on procède à la prise de vue, cette lampe est survoltée, passant par exemple de 8 à 24 volts, et l’impression des émulsions polychromes devient possible.
- Un autre moyen, plus souvent employé semble-t-il, est de faire intervenir le flash électronique, bien connu désormais des photographes : un éclair dont la durée est de l’ordre du huit-centième de seconde assure l’éclairement adéquat ; il est, bien entendu, synchronisé avec l’ouverture de l’obturateur. S’il s’agit d’une prise de vue cinématographique, cette synchronisation est réglée selon le rythme de la caméra, c’est-à-dire le nombre de clichés par seconde qui doivent s’inscrire sur le film. Dans l’un et l’autre cas l’image se forme à l’extrémité d’un système optique qui la transmet tantôt à l’œil de l’observateur, tantôt à l’ob-jectif de l’appareil photo ou de la caméra (fig. 2).
- Mais il existe encore une autre voie, celle des appareils à lumière proximale transmise. Dans ce cas, la source de lumière est située à l’extérieur, mais par un dispositif
- Fig. 8. — Schéma de l’endoscope universel (système Fourestier-Gladu-Vul-mière) à lumière proximale transmise.
- Ce système assure pratiquement un éclairage pouvant aller jusqu’à 400 000 lux, grâce à une baguette de quartz qui transmet la lumière d’une lampe survoltée, placée à l’extérieur. Cette lampe est refroidie par une soufflerie d’air. La ligne interrompue représente le trajet de retour de l’image.
- Lampe survoltée extérieure
- Trajet du retour de l'image
- (y) V\\ Soufflerte
- Baguette de quartz
- Endoscopiste
- 14
- p.14 - vue 18/551
-
-
-
- Fig. p. — Endographie des bronches avec une caméra à visée réflexe adaptée à l’endoscope universel.
- {Photo Jean Petrany).
- optique approprié elle est transmise sans perte à l’intérieur de l’organe, de sorte que l’éclairage est aussi efficace que si la source était distale. Du point de vue de la sécurité, les avantages de ce mode d’éclairage sont évidents car même aux plus intenses éclairements, il élimine tous risques de brûlures sur la muqueuse que l’endoscopiste est en train d’examiner. La condition essentielle, qui est de réaliser une forte intensité lumineuse, est ainsi remplie depuis 1952 parles appareils qui utilisent le procédé Fourestier, Gladu et Vulmière, dont le principe est de transmettre la lumière d’une puissante source extérieure par l’intermédiaire d’une baguette de quartz. Sur ce principe ont été construits les « endoscopes universels » qui peuvent être adaptés à chacune des manœuvres endoscopiques classiques (fig. 8 à 10). C’est un de ces appareils que nous nous proposons de « mettre en scène » au cours d’un épisode endoscopique et endographique qui sera décrit plus loin.
- Le couplage de l’œil et de l’objectif. — Quant au couplage entre œil et objectif, le problème, résolu en
- principe par la visée réflexe, comportait cependant une difficulté supplémentaire. Le procédé qui se présente tout d’abord à l’esprit est de dériver vers l’œil de l’observateur une partie des rayons lumineux qui émanent de la partie éclairée, ceci grâce à la réflexion sur une lame semi-transparente ; l’autre partie des rayons traverse cette lame et forme l’image sur l’émulsion cinématographique. On s’aperçoit tout de suite que ce système réduit sensiblement la part d’énergie lumineuse desdnée à impressionner cette émulsion, ce qui doit être à tout prix évité.
- Cet obstacle a été surmonté en faisant appel à la visée réflexe intermittente : l’image est transmise, avec sa luminosité totale, tantôt à l’œil, tantôt à l’émulsion. Il suffit pour obtenir ce résultat de réaliser un dispositif où la surface réfléchissante s’efface pour laisser passer les rayons lumineux lorsque l’obturateur s’ouvre. Dès qu’il est fermé, la lame revient et l’image est réfléchie vers l’observateur. Mais à ce dispositif, dont le mouvement est alternatif, on préfère en général un système rotatif où l’alternance est également réalisée, mais dans des conditions mécaniques plus rationnelles. La rapidité du mouvement permet l’illusion d’une image stable, en vertu du principe très connu de la persistance des impressions lumineuses sur la rétine. Il est évident que la visée intermittente peut se pratiquer aussi bien pour la prise de clichés « un à un » que pour filmer à la cadence de 12 images par seconde.
- 15
- p.15 - vue 19/551
-
-
-
- Endoscopie et endographie en action
- Un clinicien urologue est consulté par une personne que vient d’alerter une brutale hématurie (sang dans les urines). Deux séries d’examens sont ordonnées (analyses en laboratoire, observations radiologiques). Ces examens, l’urologue le sait par expérience, sont souvent négatifs : aucune anomalie n’est constatée, la cause de l’hémorragie reste inexpliquée. On ignore même à quel endroit de l’appareil urinaire elle se situe. Est-ce dans le rein, l’uretère, la vessie, la prostate ou l’urètre ? C’est l’endoscopiste qui va pouvoir résoudre ce problème.
- Il dispose d’un appareil, le cystoscope de Gentil, mis au point vers 1955, qui fait partie de la famille des appareils dits « endoscopes universels », dus à la collaboration de Fourestier, Gladu et Vulmière (fig. 11).
- Un tube-guide est introduit dans l’urètre du patient : le diamètre, nécessairement réduit, de ce tube permet cependant d’y assurer une circulation permanente d’eau, indispensable pour rendre visible la paroi vésicale.
- Le tube est en place. C’est le moment d’y faire pénétrer le cystoscope proprement dit. Cet appareil est à éclairage proximal transmis : autrement dit, la source de lumière se trouve à l’extérieur. Elle consiste en une ampoule dont l’intensité atteint 70 watts et que l’on peut survolter à 16 volts. La lumière est acheminée par un système optique jusqu’à une baguette de quartz de 2 mm de diamètre (pièce maîtresse de l’appareil) qui transmet la lumière jusqu’à la muqueuse de l’organe. Cette transmission est d’une grande efficacité : on s’en rendra compte en sachant que l’éclairement, à l’extrémité distale de la baguette de quartz, peut être poussé jusqu’à 400 000 lux, c’est-à-dire quatre fois l’éclairement solaire en plein midi.
- L’exploration débute. C’est la paroi vésicale que l’endo-
- Fig. 11. — Endoscope universel avec valise portative.
- Système F. G. V. réalisé par Gentil, i, éclaireur ; 2, tube endoscopique ; 3, optique ; 4, aspiration et transmission électrique ; 5, bloc compresseur et aspirateur ; 6, interrupteur général ; 7, réglage de l’intensité lumineuse ; 8, pédale de survoltage ; 9, fil de terre ; 10, alimentation par le secteur.
- Fig. 10. — Assemblage d’une caméra à visée réflexe avec un endoscope universel.
- En haut, le tube explorateur est monté sur l’endoscope. Au milieu, la caméra de 16 mm est mise en place à l’extrémité du tube explorateur.
- (Photos extraites du Traité pratique de photographie et cinématographie médicale du Dr Dubois de Montreynaud, Montel, Paris, obligeamment communiquées par l’éditeur).
- scopiste inspecte à la vue, profitant de la souplesse de son appareil, capable d’opérer une rotation complète dans le tube-guide. Aucune lésion inflammatoire ou tumorale ne peut donc échapper à l’observateur.
- Supposons qu’il n’ait rien trouvé de ce genre et passons outre : l’endoscopiste va à présent diriger son exploration vers les orifices par où les deux uretères débouchent dans la vessie. Une sonde filiforme est introduite dans chacun de ces orifices : chaque sonde permet de recueillir les urines dans deux récipients différents et de savoir par conséquent si l’hémorragie transite par l’uretère gauche ou par l’uretère droit.
- Muni à cet égard d’un renseignement incontestable, l’endoscopiste peut profiter de la présence de cette sonde dans le conduit pour injecter une solution opaque vers le rein. Il donnera ainsi au radiologiste la possibilité de prendre un cliché où apparaîtra la forme des cavités rénales. L’exploration ne peut aller plus loin : si les résultats sont positifs, c’est le chirurgien qui, sans doute, devra intervenir.
- Mais revenons en arrière et supposons cette fois qu’une tumeur ait été découverte dans la vessie : le cystoscope
- p.16 - vue 20/551
-
-
-
- Fig. 12. — Exemples d’endographies.
- Laryngé scopie : papillo-matose laryngo-trachéale (Dr Fournier).
- Fig. 13.
- Image endoscopique d’une polypose de la vessie.
- Cnldoscopie (exploration de la cavité pelvienne par voie vaginale) : trompe ultérine chez une femme atteinte de salpingite (Dr Pye).
- Cœlioscopie (exploration de la cavité pelvienne par voie abdominale) : fond intérieur et les deux ovaires chez une femme atteinte d’hyper-thécose (Dr Pye).
- est alors jumelé avec la caméra qui va prendre soit une série de photos, soit un film en couleurs (fig. 13).
- Selon les renseignements fournis par ce document, l’urologue spécialiste prend ses décisions. L’une d’elles pourra être d’intervenir sur la lésion tumorale : en ce cas le cystoscope explorateur devient cystoscope résecteur et fait disparaître la lésion par diathermocoagulation.
- Un autre cas peut se présenter, lorsque la lésion est détectée non pas dans la vessie, mais dans la loge prostatique, placée en « dérivation » sur l’urètre. Le cystoscope est alors remplacé par l’urétroscope, lui aussi résecteur, qui permet une intervention de même ordre que ci-dessus.
- Chacune de ces opérations peut être filmée.
- Pour combattre l’échauffement de la source de lumière, qui produit l’éclairement intense que transmet la baguette de quartz, la lampe extérieure est continuellement refroidie par une soufflerie à grand débit. L’ensemble de l’appareillage est soigneusement stabilisé et un dispositif spécial permet la séparation instantanée de la caméra et de l’endoscope, en cas d’incident technique, ce qui assure une sécurité totale.
- *
- * *
- L’exemple qui vient d’être donné d’une exploration urologique démontre les possibilités diverses de l’endoscopie et de l’endographie. Il va de soi que ces techniques s’appliquent dès à présent à de nombreux autres organes : l’expérience acquise permet de connaître l’aspect normal des muqueuses et de détecter ainsi plus facilement les infections et les lésions que peuvent présenter ces muqueuses. L’exploration, suivie de prises de vues, joue à cet égard un rôle capital et l’on ne saurait trop souligner en particulier le précieux moyen de diagnostic offert désormais par l’examen du fond d’œil.
- Mais de plus en plus, l’exploration se complète par différents traitements rendus possibles par l’endoscopie (cautérisation, électro-coagulation, prélèvement, section, extraction) et tout porte à penser que la gamme de ces traitements va s’amplifier dans les prochaines années.
- Rappelons également que les explorateurs endoscopiques ont déjà été jumelés à des chaînes industrielles de Télévision ; à partir du moment où elles pourront transmettre les images en couleurs, elles doteront l’enseignement médical d’un moyen didactique précis et efficace.
- Nous aurons sans doute l’occasion dans un prochain article de fournir des précisions sur ce procédé d’avenir.
- Docteur Marcel Noix,
- Lauréat de l’Académie de Médecine, Docteur ès Sciences de l’Université de Paris.
- 17
- p.17 - vue 21/551
-
-
-
- Richesse pour l’Afrique : la grande faune sauvage rationnellement exploitée
- par Charles Le Gros
- Dès que fut connu le projet du barrage d’Assouan, le monde entier s’est ému à la pensée qu’il entraînerait la perte des plus beaux monuments de Nubie. L’Unesco organisa immédiatement une campagne mondiale pour assurer leur sauvetage. C’est encore l’Unesco qui a pris sous son patronage le « Projet spécial africain » proposé par l’Union internationale pour la conservation de la nature et de ses ressources (U. I. C. N.) pour sauver la grande faune africaine, tout en apportant un appoint de ressources alimentaires considérable à ce continent où règne une sous-alimentation chronique déplorable. Une conférence internationale s’est tenue du 5 au 12 septembre à Arusha (Tanganyika) pour étudier ce projet et ses modalités pratiques.
- Tant que les moyens de destruction dont disposaient les indigènes furent rudimentaires, la faune sauvage de l’Afrique a constitué pour des populations clairsemées une source suffisante de protéines. Avec la pénétration européenne, l’usage des armes à feu s’est vite répandu, et le braconnage s’est organisé. Dans son étude sur la protection de la faune et des habitats naturels en Afrique centrale, récemment publiée par l’Unesco, Sir Julian Huxley montre comment un véritable réseau commercial assure l’abattage et le dépeçage, puis la livraison des quartiers de viande par cyclistes à domicile, ou par camions vers les centres miniers.
- Fig. 1. — Troupeau de zèbres dans le cratère du Ngorongoro (Tanganyika).
- {Photo A. G ille).
- p.18 - vue 22/551
-
-
-
- Fig. 2. — Troupeau de buffles dans le Parc national du Lac Manyara (Tanganyika).
- (Photo A. Gille).
- Dans certaines régions, comme en Rhodésie du Nord et au Kenya, ce sont de vrais massacres qui se perpètrent là où la grande faune abonde encore. Au Kenya, ce sont 4000 à 5 000 éléphants, 700 à 950 rhinocéros qui sont abattus chaque année, de façon licite ou illicite. Ces animaux sont recherchés parfois moins pour leur chair que pour leurs « trophées » : ivoire des éléphants, cornes des rhinocéros, auxquelles certains prêtent encore des propriétés aphrodisiaques. Il n’est pas rare de voir le chasseur, qui a prélevé le trophée, abandonner le cadavre aux vautours.
- L’extension du défrichement a été naturellement aussi un facteur important. Les feux de brousse ont détruit ou chassé les grands habitants de la forêt qui y vivaient encore au début du siècle en troupeaux souvent considérables. Le désastre s’explique aussi par l’indifférence des autorités locales à l’égard de ces animaux que l’on a cru longtemps destinés à s’effacer devant le bétail domestique. Et les règlements édictés restent souvent lettre morte.
- Pour parer au plus pressé, des réserves et des parcs nationaux ont été créés mais, en dehors de ces sanctuaires, la destruction de la flore et de la faune n’a cessé de s’accélérer. On a maintes fois expliqué les raisons qui militent pour l’arrêt de cette destruction. Si les monuments anciens font partie de l’héritage culturel de l’humanité et sont jugés irremplaçables, n’en est-il pas de même pour le patrimoine naturel que le passé de la Terre nous a légué ? A cela s’ajoute un intérêt scientifique inappréciable. Enfin un dernier argument : savons-nous si telle espèce que nous laissons détruire aujourd’hui ne se révélerait pas demain utile sous quelque aspect que nous ne pouvons prévoir ?
- Or l’excellence de ce dernier argument éclate aujourd’hui, non pas à propos d’une espèce particulière, mais à propos de la faune africaine tout entière. Comme il arrive souvent, une étude de science fondamentale, entreprise
- d’abord de façon désintéressée, apporte une découverte susceptible de grandes applications pratiques. L’un des objectifs des parcs nationaux était de pouvoir y étudier la biologie, l’écologie des animaux dans leur milieu naturel, en dehors de toute intervention humaine. Nous avons résumé naguère (La Nature-Science Progrès, mars 1961, p. 117-127) la belle étude entreprise par MM. Bourlière et Verschuren sur les populations de grands herbivores du Parc national Albert, dans le Congo ex-belge. Les études de ce genre, qui sont loin d’avoir apporté tous leurs résultats, ont toutefois permis déjà de faire des constatations de grande importance pratique.
- On sait que les sols d’Afrique centrale sont dés terrains dits pseudo-latéritiques, riches en fer et aluminium, pauvres en potassium, sodium et calcium, éléments capitaux en biologie. Le climat tropical caractérisé par l’alternance d’une saison humide et d’une saison sèche, expose de vastes superficies à la succession d’un excès de pluviosité et d’un excès de sécheresse. Sur de tels sols et dans ces conditions, la végétation ne peut convenir au bétail domestique et d’autre part les cultures ou l’établissement de prairies artificielles sont souvent irréalisables par suite des dangers d’érosion. En tout cas les investissements ne sont pas rentables partout. C’est encore la grande faune sauvage qui utilise le mieux les ressources de ces terres dites marginales. Sa composition, la variété des besoins et des mœurs de ces animaux permettent une véritable « division écologique du travail ».
- L’éléphant est un des animaux les plus indispensables à l’équilibre naturel de ces régions. Son poids et son volume lui donnent d’aérer les sols par ses pas, de frayer des passages à travers les jungles. Il a coutume de forer la terre et crée ainsi des points d’eau où vient s’abreuver toute la communauté animale. En secouant les arbres sur son trajet, il en sème les fruits dont vont se délecter lampalas et babouins. L’hippopotame fertilise par ses excréments les eaux qu’il hante. Le groupe des antilopes offre la plus grande variété d’espèces et d’habitats. Nombre de ces animaux
- p.19 - vue 23/551
-
-
-
- se contentent, à la saison sèche, des herbes les plus dures, qui rebuteraient nos moutons. En outre ils ne tondent pas les herbes jusqu’à la racine, comme le font les moutons sur les pâturages trop maigres. La végétation naturelle ne pâtit pas de leur passage. Carnassiers et nécrophages jouent enfin un rôle, maintenant bien connu, dans cet équilibre, supprimant les malades, limitant la pullulation des rongeurs, assainissant le milieu.
- Ces animaux, sauf exceptions, sont insensibles aux trypanosomiases qui déciment les troupeaux domestiques dans ces régions.
- Un poids vif égal à celui des bonnes terres de Normandie
- Tout ce cheptel naturel constitue une ressource précieuse et durable pour l’alimentation des populations, à condition d’être exploité sans abus. Il existe d’ailleurs des précédents d’exploitation systématique et rationnelle de la
- faune sauvage. C’est ainsi qu’en Écosse, l’île de Rhun fournit plus de protéines comestibles sous forme de viande de cerf qu’elle ne le faisait auparavant sous forme de viande de mouton. En U. R. S. S. des mesures de contrôle et de protection ont permis de sauver l’aniilope Saïga, dont le troupeau était réduit à quelques centaines de têtes après la première guerre mondiale. Aujourd’hui on évalue à près de deux millions ses effectifs et cet animal alimente aussi bien les boucheries que les tanneries. Pourquoi, d’ailleurs, une exploitation réglementée, qui se fait en grand pour les ressources animales marines et d’eau douce, ne serait-elle pas possible sur la terre ferme ?
- Les estimations de la « productivité » des grands herbivores africains sont, de plus, fort encourageantes. En Afrique orientale, un troupeau d’animaux domestiques fournit 5,5 tonnes de viande sur pied au kilomètre carré. Dans certaines savanes du Masaïland cette quantité est réduite à 3 tonnes et parfois moins. Dans les mêmes savanes, les herbivores sauvages pourraient produire 11 à 15 t de viande au kilomètre carré. D’une manière générale, la steppe ou la savane sont capables de nourrir une masse d’animaux dont le poids serait rigoureusement égal à celui du bétail élevé sur la même étendue d’un sol aussi riche que celui de la Normandie !
- Ce sont les problèmes posés par l’exploitation rationnelle de la grande faune africaine qui ont constitué l’essentiel des travaux de la conférence d’Arusha auxquels participèrent nombre d’éminents biologistes. La France y était représentée par MM. F. Bourlière, professeur à la Faculté de Médecine de Paris, et Jean Dorst, sous-directeur au Muséum, la Grande-Bretagne par Sir Julian Huxley et M. Peater Scott, l’Allemagne par M. Grzymek, directeur du Zoo de Francfort, l’U. I. C. N. par son président, le professeur Baer, le Conseil scientifique africain par son président, le professeur T. Monod, etc.
- Tous les représentants des états africains y affirmèrent la volonté de leurs gouvernements de poursuivre les efforts pour la conservation de la grande faune. Les états, auxquels il est recommandé d’introduire un projet spécial pour la faune dans leurs plans de développement, sont invités à s’adresser à l’U. I. C. N. pour obtenir conseils, spécialistes et, le cas échéant, aide financière. On a reconnu la nécessité d’une éducation des populations à tous les niveaux et d’un appel à l’opinion mondiale, confié aux soins de l’Unesco. Il appartiendra à l’Organisation des Nations Unies pour l’Alimentation et l’Agriculture (F. A. O.) de former le personnel qualifié pour la réalisation des projets de protection et d’exploitation.
- De vastes recherches sont prévues pour déterminer quels secteurs des terres marginales doivent être affectés à la grande faune, pour mettre au point les techniques de contrôle et savoir quels prélèvements pourront être opérés. Un additif demande à la République du Congo (Léopold-ville) de sauvegarder le Parc national de ce pays (Parc Albert), véritable exemple pour toutes les nations africaines. La dernière recommandation insiste sur la protection des habitats naturels et la nécessité de créer des zones privilégiées partout où ils seraient en danger.
- Charles Le Gros.
- Fig. y, — Un cob de Buffon dans le Parc national Albert (Congo).
- {Phoio A. Gille).
- 20
- p.20 - vue 24/551
-
-
-
- Grâce à l’encre magnétique
- la machine et l’œil
- lisent désormais les mêmes caractères
- Si l’œil humain est capable de reconnaître les lettres et les chiffres, sa vitesse de travail est faible ; les trieuses électroniques sont capables de « lire » les documents beaucoup plus vite et avec une sûreté plus grande. Mais, jusqu’alors, la machine et l’œil ne savaient pas lire la même chose. La machine interprétait la valeur de perforations auxquelles l’œil humain avait du mal à accorder une signification. Quant à faire reconnaître par la machine nos signes habituels, il semblait que ce fût impossible.
- Dans la plupart des cas, il est vrai, il est sans inconvénient que la carte perforée demeure relativement hermétique aux non-spécialistes : son traitement est l’affaire de la machine. Par ailleurs, des « traductrices » permettent d’imprimer, en clair et automatiquement, sur le haut de la carte, la signification des perforations qu’elle contient.
- Toutefois, il existe certains documents appelés à circuler dans le public, et dont la masse et la nature exigent qu’ils soient lisibles par l’homme et puissent également être traités par des machines très rapides. C’est le cas du chèque bancaire, des mandats, des chèques postaux, des virements de toutes sortes : ils circulent, peuvent être pliés sous enveloppe et, surtout, les utilisateurs aiment bien, en général, en connaître le contenu. En revanche, leur volume dans la vie moderne et l’importance des sommes mises en jeu rendent nécessaire un outil automatique de traitement. Chaque jour en effet, les banques remettent à la Chambre de Compensation les chèques qui ne sont pas tirés sur un compte qu’elles détiennent. Ces chèques doivent être triés par banque et par succursale, puis leurs montants doivent être cumulés et comparés, afin de donner la position, créditrice ou débitrice, de chaque établissement bancaire par rapport aux autres banques. Des millions de documents sont ainsi traités quotidiennement dans les grandes capitales financières et ces millions de chèques représentent des milliards de francs : il faut donc aller très vite, car de telles sommes ne sauraient attendre.
- Ces différents impératifs ont conduit la Compagnie des Machines Bull à mettre au point un système qui, à la fois, ne déroute pas l’œil humain et soit détectable par l’organe de traitement de la machine. Ce système est fondé sur l’utilisation d’une encre magnétisable. La figure i représente, très agrandis, quatre chiffres codés. Le chiffre 5, par exemple, est constitué d’une série de sept bâtonnets d’égale épaisseur séparés (et c’est là l’élément important) par des intervalles larges (0,5 mm) ou étroits (0,3 mm). La disposition de ces bâtonnets est faite de façon que l’image d’ensemble représente sans ambiguïté le dessin usuel : l’œil reconnaît sans difficulté un 3, un 9, etc. Mais, pour le circuit de lecture de la machine, c’est la répartition des espaces larges et étroits qui permet d’attribuer au chiffre
- sa valeur. Ce même code (baptisé C. M. C. 7 ou code magnétique codé 7), par le nombre important de ses combinaisons, ne se limite naturellement pas aux chiffres, mais peut être étendu à l’alphabet.
- IlSIi 1 mu 11 Ml il 111
- SI H»' 1 II U111
- Mm 1 mu P III M II 1
- Fig. I. — Chiffres codés pour la lecture directe par machine électronique.
- Chaque chiffre est, pour ainsi dire, découpé dans un bloc composé de sept bâtonnets verticaux. La distance entre ces bâtonnets est variable : 0,3 ou 0,5 mm. C’est d’après la répartition des espaces larges ou étroits entre les bâtonnets que la machine attribue au chiffre sa valeur.
- Fig. 2. — Tambour rotatif équipant l’une des cases de tri : le document est saisi par une pince et entraîné dans la case.
- 21
- p.21 - vue 25/551
-
-
-
- Les avantages de ce système de code sont nombreux : il est aisément interprétable, tant par le possesseur du chèque que par les machines automatiques de traitement ; il offre une sécurité absolue ; il n’est pas sensible aux altérations : maculations par les liquides, traces de colle, pliures, etc. ; enfin, il est très peu sensible aux particules métalliques que peut contenir le papier qui a servi à fabriquer le chèque.
- Toutefois, le problème du tri des documents bancaires n’était pas résolu pour autant. En effet, le format des chèques n’a pas encore reçu à ce jour de standardisation internationale : dimensions, épaisseur du papier sont variables. Il fallait donc faire défiler un à un sur une piste
- Fig. 3. — La trieuse T. 900, destinée au tri des chèques de formats variés.
- La vitesse est de 900 documents à la minute.
- (.Photos Compagnie des Machines Bull).
- de lecture et de distribution des documents différents sans classement préalable selon les formats : le problème a été résolu par un système pneumatique qui « aspire » les documents un par un à la vitesse de 900 par minute. Une fois lancé sur la piste par ce dispositif, le document est examiné automatiquement (fig. 2) : pour cela, les caractères imprimés en encre spéciale sont magnétisés par passage dans un champ magnétique approprié ; cette inscription est détectée par une « tête de lecture » et, d’après sa forme, les circuits électroniques reconnaissent les chiffres et symboles qui la constituent. Cette lecture commande l’ouverture de « clapets' » qui envoient les documents vers des cases de tri, au nombre de treize dans les appareils réalisés à ce jour.
- Il arrive parfois que les chèques parviennent froissés ou légèrement déchirés au centre de tri ; grâce à certains dispositifs mécaniques, la machine peut aussi traiter ces documents imparfaits.
- Cette nouvelle technique permet ainsi d’éviter les travaux intermédiaires de fabrication de cartes perforées et on bénéficie d’une très grande rapidité d’exécution. Disons pour terminer que le Crédit Lyonnais participe à cette expérience d’automatisation. Cette banque a fait réaliser dans sa propre imprimerie 733 000 chèques marqués et numérotés avec le nouveau caractère. D’ores et déjà, les essais de tri ont été très concluants et l’on peut penser que cette méthode se généralisera dans un proche avenir.
- J. C
- Pile électrique à bactéries
- Une cellule biochimique, productrice d’électricité, a été récemment présentée par son inventeur, le Dr Sisler, à une séance de l’Académie des Sciences de Washington. Le principe de cette nouvelle source d’énergie rappelle celui des piles à combustible (voir La Nature-Science Progrès, janvier 1961, p. 35-42), avec cette différence que l’électricité est engendrée grâce à une réaction biochimique entre des bactéries et une matière organique adéquate.
- Le dispositif se compose de deux compartiments. Le premier, qui est le siège de la réaction, contient de l’eau de mer, des bactéries et de la matière organique. Le second contient de l’eau de mer et de l’oxygène. Une électrode plonge dans chacun de ces deux compartiments et l’on constate la présence d’un courant électrique dans le conducteur qui relie ces électrodes. La description de l’appareil n’indique pas comment le circuit est refermé.
- Le Dr Sisler a suggéré que des algues pourraient en même temps servir de « combustible » et fournir l’oxygène. Cela suppose évidemment qu’elles soient exposées au soleil, si bien que cette pile organique serait en définitive une pile solaire. Son inventeur déclare qu’elle pourrait fonctionner de manière continue sans avoir besoin d’être rechargée. Il pense également pouvoir utiliser comme combustible les effluents d’égouts.
- Micrométéorites récoltées par fusée
- Selon une information du Centre culturel américain, des chercheurs ont réussi à collecter des micrométéorites dans l’espace et à les ramener sur terre où elles vont être analysées. Une fusée de l’armée de l’air américaine, baptisée Aerobee-Hi, spécialement équipée, a été lancée à cet effet le 6 juin 1961 au-dessus du Nouveau-Mexique. Des réceptacles, contenant chacun des feuilles de matière plastique, avaient été disposés à l’intérieur du nez de la fusée. Lorsque celle-ci atteignit une altitude d’environ 64 km, un dispositif électronique projeta ces feuilles hors de leur réceptacle et les étala sur une portion extérieure du nez de la fusée. Elles demeurèrent dans cette position tandis que la fusée montait à 161 km. A la descente, lorsque la fusée se trouva à 88 km du sol, les feuilles se rétractèrent et furent de nouveau enfermées dans leur réceptacle. Huit kilomètres plus bas, le nez de la fusée se détacha. A 3 000 m, un parachute s’ouvrit et le nez de l’engin toucha terre sans dommage.
- L’examen des particules collectées par les feuilles de matière plastique a déjà permis de constater qu’une bande de micrométéorites entoure la Terre à une altitude comprise entre 75 et 163 km. Les particules, dont les dimensions sont de l’ordre du micron, vont être analysées afin de déterminer leur composition chimique.
- 22
- p.22 - vue 26/551
-
-
-
- L’Australie possédera bientôt
- un des radiotélescopes
- les plus puissants du monde
- par James Lequeux
- L’organisation de la recherche scientifique en Australie peut être considérée comme un modèle du genre. Les ressources de ce pays n’étant pas très considérables, en tous cas sans commune mesure avec celles des États-Unis ou de l’U. R. S. S., 1’ « Australian Common-wealth Scientific and Industrial Research Organization », connu sous le sigle « C. S. I. R. O. », a eu la sagesse de limiter ses vues à quelques objectifs bien précis dans lesquels est concentré tout le potentiel scientifique. Dans le domaine de la Physique, par exemple, la plupart des travaux portent sur la Physique des nuages (ce que l’on comprend aisément car le problème de l’eau est crucial en Australie), la Physique des solides et la Radio-astronomie. Dans cette dernière branche, l’Australie a occupé dès l’origine une des premières places. Le premier interféro-mètre radioélectrique y a vu le jour, de même que plusieurs autres instruments originaux : l’interféromètre en croix de Mills (voir L,a Nature, mars 1955, p. 81-85), l’interféromètre en réseau de Christiansen, le spectrographe radioélectrique solaire de Wild, etc.
- Il manquait cependant dans ce pays, et plus généralement dans tout l’hémisphère Sud, un radiotélescope de grande surface collectrice, semblable par exemple à celui de Jodrell Bank en Grande-Bretagne. Si l’on désire à la fois un instrument de grande sensibilité et très maniable, il n’est pas d’autre recours que de construire un très grand miroir. La course aux grands instruments est maintenant ouverte : après l’Angleterre et son miroir de 75 m de diamètre, la France disposera dans deux ans d’un instrument de 200 m X 35 m dont une partie est déjà en service (voir L,a Nature-Science Progrès, novembre 1961, p. 484-488) et les Américains construisent ou projettent plusieurs de ces géants dont deux de 300 m de diamètre. L’Australie est en très bonne place dans cette course, grâce au radiotélescope dont nous allons parler.
- L’instrument australien qui est maintenant presque terminé (fig. 1) apparaît, parmi ses homologues, à la fois modeste et ambitieux : modeste car ses possibilités ont été à dessein limitées afin de rendre la construction plus aisée
- Fig. 1. — Vue générale du radiotélescope de Parkes en cours de montage.
- Au premier plan, le professeur J. Bolton, qui réussit la première identification d’une radiosource avec un objet optique, et est maintenant chargé de l’organisation du programme scientifique de l’instrument.
- {Photo Australian News and Information Bureau).
- et moins onéreuse, et ambitieux car on espère pouvoir observer jusqu’à une longueur d’onde aussi courte que 10 cm et pointer l’énorme masse avec une précision supérieure à 1 minute d’arc, possibilités notablement meilleures que celles de l’instrument de Jodrell Bank. La supériorité du radiotélescope australien, qui est de dimensions un peu inférieures à celles de l’instrument anglais (64 m de diamètre au lieu de 76), tient essentiellement à l’expérience acquise pendant la construction de celui-ci ; on a pu en voir les défauts, en analyser les causes et chercher de meilleures solutions : le radiotélescope de Jodrell Bank n’a qu’un rendement médiocre sur 21 cm, ce qui vient de
- p.23 - vue 27/551
-
-
-
- ce qu’il n’a pas été conçu initialement pour opérer à des longueurs d’onde aussi courtes, la raie de l’hydrogène neutre à 21 cm n’ayant pas encore été découverte lors du début de la construction. D’autre part, la précision de son pointage est relativement faible. Qualité de surface et précision de pointage sont d’ailleurs les principaux problèmes auxquels on se heurte dans la construction de ces grands instruments.
- La conception mécanique du radiotélescope australien, qui est due à la firme anglaise Freeman Fox and Partners, est originale par bien des points (fig. 2). La monture du miroir est azimutale comme à Jodrell Bank, c’est-à-dire que le miroir est mobile autour d’un axe vertical et d’un axe horizontal. Ce dernier est porté par une tourelle qui peut elle-même tourner sur une voie ferrée circulaire de 11,25 m de diamètre, située au sommet d’une tour d’une douzaine de mètres de hauteur. Ce mouvement en hauteur est donné par un moteur qui agit sur un énorme secteur denté vertical.
- La structure du miroir lui-même frappe par sa légèreté. Elle consiste en bras radiaux indépendants montés sur un cylindre central puis réunis par des couronnes entretoisées : la charpente est essentiellement faite de tubes d’acier, et son montage semble relativement simple (fig. 3). Elle est recouverte d’un grillage métallique suffisamment réfléchissant pour les ondes de longueur supérieure à 10 cm, et la partie centrale de tôles pleines qui permettront de l’utiliser à des longueurs d’onde plus courtes. Cette énorme masse métallique ne devra que très peu se déformer sous l’effet de son propre poids en se déplaçant dans les différentes positions, ni sous l’effet de la température ; sa surface ne doit pas en principe s’écarter d’un paraboloïde de révolution parfait de plus de 12,5 mm dans son ensemble, et de plus de 3,1 mm •dans sa partie centrale : si ces tolérances sont respectées (il ne semble pas que des mesures en aient encore été effectuées), l’instrument pourra opérer de façon correcte à toute longueur d’onde supérieure à 10 cm, et sa partie centrale pourra servir jusqu’à 3 cm.
- Le problème très difficile du pointage précis du radiotélescope a été résolu d’une façon originale et extrêmement ingénieuse. On a placé au centre de mouvement de l’ensemble une petite lunette qui peut être orientée avec une grande précision, soit au moyen d’indicateurs de position, soit en visant avec elle des étoiles. L’axe du radiotélescope est asservi à rester confondu avec l’axe de la lunette grâce à un système de guidage photoélectrique précis. On peut ainsi asservir le radiotélescope à suivre
- le mouvement diurne, ce qui se fait simplement en montant la lunette-guide en équatorial et en la munissant d’un mouvement horaire automatique. Le radiotélescope peut également suivre des objets mobiles par rapport aux étoiles (lune, satellites artificiels, etc.), si l’on parvient à les voir dans la lunette. Enfin un système de balayage automatique permet de dresser rapidement la carte radioélectrique d’une petite région du ciel.
- Une caractéristique originale de cet instrument est son dispositif focal : comme les signaux reçus du ciel, qui sont concentrés au foyer, sont extrêmement faibles, on a intérêt à les amplifier tout de suite afin d’éviter leur déperdition dans des lignes de transmission. On a donc prévu au foyer même une petite cabine (figure de la couverture) dans laquelle seront montés les premiers étages d’amplification. Un homme pourra y avoir accès, même en cours de fonctionnement, par un ascenseur qui circule dans un des trois bras qui supportent la cabine focale (fig. 2) : ceci est un avantage considérable car il devient facile de changer d’antenne quand on désire travailler sur une longueur d’onde différente, ce qui est peu commode dans le cas de l’instrument de Jodrell Bank, par exemple.
- L’ensemble est réalisé par la firme allemande Maschinen-fabrik Augsburg-Burnburg A. G. pour un prix approximatif de 800 000 livres australiennes, soit environ 10 millions de NF : c’est une somme remarquablement peu élevée, en tous cas très inférieure au prix du radiotélescope de Jodrell Bank.
- Un instrument aussi puissant devait être aussi bien situé que possible, c’est-à-dire en un lieu situé à l’abri des para-
- Fig. 2, — Schéma du radiotélescope de Parkes.
- Explication dans le texte.
- 24
- p.24 - vue 28/551
-
-
-
- Fig. 7. — Montage des éléments du miroir parabolique de 64 mètres.
- Les éléments sont fixés un à un à la tourelle tournante.
- (Photo Australian News and Information Bureau).
- sites industriels et des émetteurs de radio ou de télévision, qui sont plus gênants encore pour les radioastronomes que ne le sont les lumières d’une ville proche pour les astronomes optiques. Le site choisi, près de la petite ville de Parkes, se trouve en Nouvelle-Galles-du-Sud, dans une plaine dénudée entourée de toutes parts par des collines. Le grand radiotélescope n’est d’ailleurs que le premier élément d’un ensemble plus vaste qui comportera un interféromètre en croix, et un miroir mobile de 20 m de diamètre destiné à fonctionner en interférométrie avec le grand miroir de 64 m.
- Les possibilités de ce dernier sont très étendues. En premier lieu, il est destiné à explorer l’espace extragalactique, à y rechercher les radiosources dont il mesurera la position et fera une étude détaillée. Mais on pourra l’utiliser également à l’étude de la Galaxie et de ses proches voisines dans la raie 21 cm de l’hydrogène ; plus près encore, il détectera le rayonnement des planètes et pourra suivre les mouvements des satellites artificiels et des fusées cosmiques dont il captera les faibles signaux comme son homologue de Jodrell Bank.
- Au cours des lignes qui précèdent, nous avons sans cesse été amenés à comparer le radiotélescope de Parkes et celui de Jodrell Bank ; nous avons expliqué que la supériorité du premier sur le second provient essentiellement de ce qu’il a bénéficié de l’expérience acquise lors de la construction du radiotélescope anglais, qui paraissait presque impossible lorsqu’elle fut entreprise. Il n’est pas moins intéressant de comparer l’instrument australien à l’instrument que l’on construit actuellement à Nançay, dans notre pays. Pour celui-ci, on a sacrifié en grande partie la maniabilité à l’économie de la construction, ce qui permet d’obtenir une surface de 7 000 m2, soit plus de deux fois supérieure à celle du radiotélescope de Parkes (3 100 m2), pour un prix 1,5 fois inférieur ; les tolérances de surface sont sensiblement du même ordre, et permettent dans les deux cas de travailler jusqu’à 10 cm de longueur d’onde (peut-être 7 cm pour l’instrument français). Mais notre radiotélescope est un instrument méridien, peu approprié à certains problèmes comme le tracé d’une carte radioélectrique d’une région donnée du ciel, ou la poursuite des satellites et des fusées cosmiques ; cependant le temps d’intégration de 1 heure que l’on peut obtenir en suivant au foyer l’image de la radiosource visée permet de bénéficier d’une sensibilité extrêmement grande qui autorise la détection d’émissions très faibles. L’instrument
- 25
- p.25 - vue 29/551
-
-
-
- est donc bien approprié à l’étude de la raie zx cm dans les galaxies, qui est son but principal.
- On voit donc que ces deux instruments n’ont pas les mêmes possibilités mais se complètent très bien. Le temps est d’ailleurs révolu du radiotélescope universel : à chaque type d’instrument sa spécialité ; ceci est d’ailleurs général dans la recherche scientifique, où l’on doit concentrer ses efforts sur un problème bien défini plutôt que de les disperser dans différentes directions. Nous vivons à l’ère
- de la spécialisation, qui est aussi évidente dans des domaines encore restreints comme la Radioastronomie qu’en Physique nucléaire par exemple ; si les dangers de la spécialisation sont grands, on doit reconnaître qu’elle devient une nécessité absolue ; il est dommage que beaucoup de gouvernements n’en soient pas aussi conscients que le gouvernement australien.
- James Lequeux,
- Observatoire de Paris-Meudon.
- Une silicone ultra-réfractaire pour les engins spatiaux
- L’une des difficultés auxquelles se heurtent les spécialistes des questions spatiales réside dans réchauffement intense que subissent les engins lors de leur rentrée dans l’atmosphère terrestre, échauffement qui est dû au frottement de l’air sur la surface du véhicule animé d’une grande vitesse. La General Electric Company vient d’annoncer la mise au point de matériaux à base de silicone capables de supporter de très hautes températures et permettant ainsi d’assurer une protection efficace des véhicules spatiaux.
- Le silicium, on le sait, est un élément tétravalent comme le carbone ; il peut non seulement se fixer sur un atome de carbone, mais aussi donner de véritables enchaînements d’atomes analogues aux enchaînements d’atomes de car-
- bone. Les macromolécules obtenues portent le nom de silicones, et leur propriété essentielle est une grande résistance à la chaleur. Toutefois, les silicones traditionnelles ne résistent guère, en service continu, qu’à des températures de l’ordre de i8o° C tout en pouvant supporter des pointes à 3 5 o° C. Elles sont de ce fait utilisées dans les joints d’imprégnation pour les moteurs travaillant à haute température et pour la préparation des peintures et vernis au four. Plus récemment, des savants russes ont annoncé qu’ils avaient réussi à incorporer aux chaînes macromoléculaires de silicones des atomes métalliques, en particulier d’aluminium, ce qui conduit à la formation d’organo-alumino-siloxanes (voir La Nature, août 1958, p. 321). Ces produits résisteraient, en régime continu, à des températures de l’ordre de 500° C et l’on expliquait leur grande stabilité à la chaleur par le fait qu’ils présentent des analogies de structure avec les alumino-silicates, tels que l’amiante, connus pour leurs propriétés réfractaires.
- Il semble que les chercheurs de la General Electric aient fait beaucoup mieux : sur la figure en effet, une feuille du nouveau matériau, de 8 mm d’épaisseur, protège la main de l’opérateur de la chaleur développée par la flamme d’un chalumeau oxy-acétylénique, où la température est de l’ordre de 2 8oo° C. Après 60 secondes, la température de la face opposée n’atteint que 38° C. Au cours d’autres expériences, le matériau fut soumis à une température de 5 ooo° C : au bout de 6 minutes, la température de la face non soumise à l’échauffement ne dépassait pas 2300 C. Ces résultats, assez extraordinaires, ont-ils été obtenus en incorporant, comme l’ont fait les chercheurs russes, des atomes métalliques aux chaînes de silicium ? Nous ne le savons pas, la composition du nouveau matériau étant secrète pour l’instant. Voilà cependant une nouvelle propre à réjouir les astronautes américains qui ne risqueront pas ainsi de périr carbonisés lors de leur retour sur notre planète.
- R. R.
- Fig. 1. — Une simple feuille du nouveau matériau à base de silicones protège la main de l’opérateur de la chaleur dégagée par la flamme d’un chalumeau oxy-acétylénique.
- (Photo General Electric).
- p.26 - vue 30/551
-
-
-
- Les Écrevisses françaises
- peuvent encore prospérer
- si nos eaux ne sont pas trop polluées
- A son catalogue d’ouvrages d’Histoire naturelle, aussi fourni en matière de vulgarisation que de science spécialisée, la librairie Paul Lechevalier vient d’ajouter un petit livre de M. Marc André, sous-directeur de laboratoire au Muséum, sur les écrevisses françaises (*). Un livre utile, dont il n’existait pas l’équivalent : traitant l’ensemble de la question sans entrer dans trop de détails qui ne retiendraient que le spécialiste, il intéressera les naturalistes aussi bien que les pêcheurs et éleveurs, tant amateurs que professionnels.
- Comme les Homards, Langoustes, Langoustines, Crevettes et Crabes, l’Écrevisse est un Crustacé Décapode, c’est-à-dire muni de cinq paires de pattes dites ambulatoires ; les deux premières sont munies de pinces de grande taille et servent surtout à la préhension. Les Écrevisses du monde entier forment un ensemble homogène, qui révèle une origine commune ; elles se subdivisent en plusieurs genres mais appartiennent toutes à la même famille, celle des Astacidés, assez proches des Homards. Les écrevisses européennes, et en particulier les écrevisses françaises, appartenaient toutes au genre Astacus, jusqu’à ce que fût introduite, à la fin du siècle dernier, une écrevisse américaine, nommée Cambarus affînis, qui s’est rapidement et facilement naturalisée dans nos cours d’eau.
- La distinction précise des différentes espèces européennes qui sont ainsi maintenant au nombre de cinq, dont quatre communes en France, n’intéresse pas seulement le biologiste, mais aussi l’amateur et l’éleveur, car elles diffèrent par leurs qualités et surtout par leur mode de vie et leurs préférences écologiques, de sorte qu’on ne peut les introduire indifféremment dans n’importe quel habitat, bien qu’elles soient quelquefois en mélange dans les cours d’eau naturels.
- Au siècle dernier, on ne trouvait en France que trois espèces qui semblent bien s’être introduites à des époques différentes. Comme les différentes races d’Hommes, elles sont toutes venues de l’Est, sans doute de l’Asie centrale, et tout comme pour les Hommes, les nouvelles venues ont refoulé les plus anciennes dans les montagnes ou, du moins, dans les parties supérieures des cours d’eau. Les deux espèces les plus anciennes sont l’Écrevisse à pattes blanches (Astacus pallipes) et l’Écrevisse des torrents (Astacus torrentium) qui aujourd’hui, surtout la dernière, sont des écrevisses d’eaux courantes et pures, qui supportent plus difficilement une température élevée et une raréfaction
- i. Les Écrevisses françaises, par Marc André, i vol. 13 X 19, 294 p., 80 fig. P. Lechevalier, Paris, i960. Prix, cartonné : 18 NF.
- de l’oxygène. Elles ont donc été évincées des parties basses des fleuves et rivières par l’Écrevisse à pattes rouges (Astacus astacus, encore appelée Astacus fluviatilis) qui s’accommode plus aisément d’une eau plus chaude et moins oxygénée, voire d’une eau stagnante.
- Fig. x. — L’Écrevisse à pattes rouges (Astacus astacus).
- Dans l’Europe centrale et orientale, l’Écrevisse à pattes rouges à son tour a été plus ou moins refoulée et supplantée par une nouvelle venue, VAstacus leptodactylus (c’est-à-dire littéralement : aux doigts étroits). En effet cette espèce, contrairement aux trois autres, se reconnaît à ses pinces longues et grêles ; l’abdomen lui-même est plus étroit. C’est donc un comestible beaucoup moins intéressant que les précédentes : elle a déjà fait son apparition en Allemagne de l’Est, mais on ne souhaite pas qu’elle poursuive son extension dans nos pays. On en trouve parfois des exemplaires dans les envois d’écrevisses à pattes rouges qui nous viennent en grandes quantités de Pologne ; pour l’en distinguer, les usagers l’appellent écrevisse à pattes blanches mais il ne faut pas la confondre avec celle qui porte le même nom vnlgaire dans nos régions, à savoir Y Astacus pallipes, la plus commune dans nos eaux courantes, et la seule qui existe dans les Iles Britanniques.
- Depuis 1890, des écrevisses américaines appartenant à un autre genre, le genre Cambarus, ont été introduites çà et là, à diverses reprises, dans les cours d’eau et les élevages de l’Ouest européen. Les Cambarus semblent moins exigeants que les Astacus sur le degré de pureté et d’oxygénation de l’eau ; ils s’accommodent d’eaux tièdes ou assez chaudes
- 27
- p.27 - vue 31/551
-
-
-
- et se tiennent volontiers à une assez grande profondeur, ce qui fait qu’on ne décèle pas toujours leur présence ; ces écrevisses américaines sont maintenant nombreuses dans plusieurs de nos rivières, notamment dans la Marne et dans la Seine, tout près de Paris et à Paris même. Les pêcheurs les ont accusées, à' tort ' semble-t-il, de déranger et même de détruire le poisson. Comme toutes les autres écrevisses, elles sont absolument omnivores, se nourrissant aussi bien d’herbes que de tout petits animaux, mais elles auraient bien de la peine à se saisir de poissons, même petits, qui sont plus agiles qu’elles. Toutefois, elles pourraient se saisir des œufs. Si leur introduction dans les élevages n’est pas à recommander, c’est seulement qu’à la cuisson elles prennent une teinte orangée qui peut inquiéter le consommateur habitué à la belle couleur rouge des autres espèces. Certes il fut assez imprudent de les introduire dans nos cours d’eau sans avoir fait au préalable une étude biologique approfondie (nous allons voir pourquoi on l’a fait), mais il semble bien qu’elles peuplent surtout des eaux où ne subsistaient guère plus les autres espèces, et qu’elles ne leur font donc pas une concurrence dangereuse.
- Bien que leurs exigences soient nettement différentes en ce qui concerne la pureté et l’oxygénation de l’eau,
- Fig. 2. — Pour distinguer les Écrevisses de France d’après leur céphalothorax.
- On a ajouté A. leptoâactylus, écrevisse de l’Est européen, qui peut se rencontrer parfois dans les envois d’écrevisses de Pologne.
- (Dessins de M. Gaillard).
- Camb. affinis
- A. pallipes
- Fig. 3. — L’écrevisse américaine Cambarus affinis, maintenant commune dans nos rivières.
- (Photo M. Gaillard).
- toutes les espèces d’écrevisses craignent assez la lumière. Les Cambarus américains lui échappent en se tenant sur le fond des cours d’eau assez profonds. Dans les rivières moins profondes et d’eau plus claire que préfèrent nos espèces indigènes, les écrevisses ne se trouvent pas partout. On les trouvera beaucoup plus rarement dans les portions de cours d’eau orientés Nord-Sud que le Soleil éclaire en totalité au milieu du jour. Elles affectionnent au contraire les rivières orientées Est-Ouest, et se tiennent presque exclusivement sur la berge située au Sud, où elles s’abritent pendant le jour sous les pierres ou dans des terriers. Il est indispensable de tenir compte de ces préférences lorsqu’on veut repeupler un cours d’eau. Sans quoi les écrevisses, qui sont très vagabondes, iraient au loin chercher un habitat meilleur.
- Si on la compare à celle de la plupart des poissons, la reproduction des écrevisses est assez lente, et soumise à toute sorte d’aléas. L’accouplement se fait en octobre-novembre et la maturation des œufs dure tout l’hiver. Aux premières gelées, alors que les mâles se réunissent souvent en grand nombre pour hiverner dans des retraites collectives, les femelles s’isolent strictement pour préparer leur maternité dans des trous individuels, qu’elles choisissent et aménagent plus ou moins profonds selon la tempéra-
- 28
- p.28 - vue 32/551
-
-
-
- Fig. 4. — Deux écrevisses récemment écloses, attachées à une patte abdominale de leur mère.
- (Imité de J. Huxley ; extrait de M. André, Les Écrevisses françaises, Paul Lechevalier, Paris).
- ture et le régime des eaux. La ponte a lieu en automne ou au début de l’hiver. Elle est conservée dans une espèce de sac visqueux fixé sous l’abdomen et la femelle ne cesse pas, jusqu’à l’éclosion, d’agiter ses petites pattes abdominales pour entretenir un courant d’eau sur ses œufs, qu’elle prend soin en outre de tenir très propres en les nettoyant constamment. C’est seulement à la fin du printemps que se fait l’éclosion. Les petites écrevisses, déjà très ressemblantes à
- Les Algues fourniront-elles
- Depuis longtemps déjà des chercheurs américains se sont penchés sur le problème de l’alimentation en oxygène des astronautes au cours des vols spatiaux. Divers animaux, parmi lesquels des singes, ont vécu pendant de courtes périodes en ne respirant que de l’air régénéré par la photosynthèse des algues. Une souris avait même résisté à ces conditions pendant 28 jours. Toutefois, un nouveau record vient d’être établi par une souris blanche, du sexe masculin, pesant environ 39 grammes, qui a survécu 66 jours en vase clos, l’oxygène lui étant fourni par 4 litres d’une culture d’algues du genre Chlorella, placée dans un récipient en communication avec l’habitacle de la souris. L’expérience aurait pu, semble-t-il, se poursuivre beaucoup plus longtemps si la souris n’avait bu toute l’eau que l’on avait mise à sa disposition et n’avait donc dû être libérée.
- Au cours des 66 jours de confinement de l’animal, le pourcentage d’oxygène monta de 21 à 63 pour 100, celui du gaz carbonique passa de 0,4 à 0,13 pour 100 tandis que, pour quelque
- leur mère, se tiendront presque constamment accrochées à elle pendant plusieurs semaines avant de mener une vie entièrement libre, et à chaque danger elles regagnent précipitamment leur abri. C’est pourquoi la pêche des écrevisses est interdite en général de la mi-octobre au milieu de juillet.
- Les écrevisses des diverses espèces étaient autrefois très communes dans tous nos ruisseaux et rivières, du moins dans la mesure où. les eaux contenaient suffisamment de calcaire pour permettre la confection des carapaces. Des causes nombreuses ont amené leur raréfaction et, en beaucoup d’endroits, leur disparition. Dans les régions très peuplées et industrialisées, c’est la pollution des eaux qui a été le facteur prépondérant. Tant qu’on ne prendra pas à cet égard des mesures de protection suffisantes, le mal sera sans remède et nos rivières finiront par ne recéler aucune vie. En beaucoup d’endroits, l’endiguement des rives leur a été fatal, les écrevisses (du moins nos écrevisses indigènes) ne trouvant plus sous les berges les retraites qui leur sont indispensables. Dans les cours d’eau qui leur sont restés habitables, le braconnage a souvent suffi pour les raréfier au point de décourager les pêcheurs honnêtes.
- A tout cela s’est ajoutée, à partir du dernier quart de siècle, une série de maladies parasitaires qui, en beaucoup d’endroits, ont pratiquement éliminé les écrevisses. Il est d’ailleurs fort possible que la pollution des eaux ait favorisé ces épidémies. Quoi qu’il en soit, les écrevisses, en France comme en plusieurs pays d’Europe, ont été victimes de divers parasites, dont le plus redoutable est un microbe spécifique de ces Crustacés, le Bacillus pestis astaci. Malgré ce nom, il semble que le bacille n’épargne pas davantage les écrevisses américaines du genre Cam-barus, qui avaient été introduites précisément parce qu’on les supposait résistantes. Aujourd’hui l’infection semble avoir régressé presque partout et, pour peu qu’on leur ménage des conditions de vie convenables, les écrevisses françaises pourraient repeupler quantité de nos cours d’eau, même naturellement, à partir des cours supérieurs et des ruisseaux qui en général sont restés indemnes.
- Jean Grive.
- l’oxygène aux astronautes ?
- raison encore inconnue, le pourcentage d’azote, qui est d’environ 80 pour 100 dans l’air normal, baissait considérablement à mesure que la proportion d’oxygène augmentait. L’analyse des gaz ne montra aucune accumulation d’oxyde de carbone, de méthane, d’éthane ou d’autres gaz toxiques, phénomène qui s’était produit au cours de précédentes expériences. Le volume de la culture d’algues avait également augmenté, s’étant élevé de quelque 12 pour 100 le 66e jour.
- Lorsque la souris fut retirée de son habitacle, elle pesait plus de 43 g, soit une augmentation d’environ 10 pour 100. La teneur élevée en oxygène au cours du séjour puis le retour à un pourcentage normal de 21 pour 100 ne semblent pas avoir incommodé l’animal.
- Pour alimenter en oxygène un homme de taille moyenne, les chercheurs ont calculé qu’il faudrait environ 380 litres de culture d’algues (Information du Centre culturel américain).
- R. R.
- 29
- p.29 - vue 33/551
-
-
-
- Cessant sa dissidence, PÀngstrom s’est rattaché officiellement au Mètre
- L’Àngstrôm trouve son origine dans les travaux du physicien suédois A. J. Ângstrôm (1814-1874), pionnier dans le domaine de la spectroscopie, qui publia en 1868 une carte du spectre solaire en employant une échelle de longueur d’onde dont l’unité correspondait au dix-mil-liardième de mètre (io“10 m). Le nom d’« unité Ângstrôm » est resté par la suite associé à cette longueur.
- En 1905, l’International Union for Coopération in Solar Research proposait de choisir un étalon primaire de longueur d’onde lumineuse, dont l’unité serait nommée Ângstrôm. En 1907, cette même Union adoptait comme étalon pour les mesures spectroscopiques la longueur d’onde de la raie rouge du cadmium naturel (Àcd = 6 438,469 6 ang-strôms dans des conditions spécifiées) qui venait d’être déterminée en fonction du Mètre international par Benoît, Fabry et Perot en 1906 ; on avait ainsi 1 Ângstrôm = (3 46c, 6 ^Cd- I9I°’ l’unité définie en 1907
- était appelée « Ângstrôm international » dont le symbole A fut ultérieurement changé en  afin d’éviter une confusion avec le symbole de l’ampère (A).
- Ainsi rattaché à la longueur d’onde de la raie rouge du cadmium, l’Ângstrôm devenait en quelque sorte une unité dissidente du Système Métrique. En effet, la relation conventionnelle adoptée en 1907 (confirmée par la valeur Xcd = 6438,4696 X io~10 m adoptée par la Septième Conférence générale des Poids et Mesures en 1927 comme définition de l’étalon fondamental pour la longueur des ondes lumineuses) devait rester valable, même si des mesures ultérieures plus exactes venaient à modifier la valeur de la longueur d’onde de la raie rouge du cadmium Acd exprimée en unité métrique. Il s’ensuivait que l’équivalence
- Baisse générale sur
- On sait que pour des raisons de commodité expérimentale, les masses de tous les nuclides (c’est-à-dire des noyaux de tous les isotopes de tous les éléments) étaient rapportées jusqu’ici à celle de l’isotope de nombre de masse 16 de l’oxygène dont la masse était déclarée par convention égale à 16 (la masse du proton ou noyau d’hydrogène se trouvait par là égale à 1,007595).
- C’était là du moins la convention des physiciens. Quant aux chimistes, ils faisaient eux aussi la masse de l’oxygène égale à 16, mais ils considéraient en l’occurrence l’oxygène naturel, qui est en réalité un mélange de trois isotopes, de nombres de masse 16, 17 et 18 (dans l’atmosphère, les proportions en sont respectivement de 99,8, de 0,04 et de 0,2 pour 100). Il en résultait que les masses des chimistes devaient être multipliées par 1,000272 pour obtenir celles des physiciens.
- métrique originale de l’Ângstrôm (io-10 m) n’était pas immuable. Fort heureusement, les diverses mesures de Àc<î effectuées à sept reprises différentes de 1892 à 1945 ont confirmé la valeur de 1906, assurant ainsi la validité des tables spectroscopiques en unité métrique.
- Cette crainte de « dissidence » de l’Àngstrôm en tant qu’uni té métrique a pu être définitivement écartée par l’adoption de la nouvelle définition du mètre par une longueur d’onde lumineuse, qui a été sanctionnée internationalement en octobre i960 (voir La Nature-Science Progrès, mars 1961, p. 106). Le mètre est défini désormais comme égalant 1 650763,73 longueurs d’onde dans le vide de la radiation orangée du krypton. Cette radiation étant susceptible d’une mesure plus précise encore que celle de la raie rouge du cadmium, il n’y avait plus aucune raison de laisser subsister une dualité théorique entre le mètre et l’Àngstrôm. Aussi, lors de sa 11e Session générale tenue à Berkeley en août 1961, l’Union astronomique internationale a décidé, pour autant que les autres Unions représentées dans la Commission triple de Spectroscopie fussent d’accord, que l’Àngstrôm était désormais défini comme étant égal à io-10 mètre.
- Après avoir été considéré pendant plus d’un demi-siècle comme une unité étrangère au Système Métrique, l’Àngstrôm est donc maintenant une fraction décimale exacte et immuable de l’unité fondamentale de longueur. La nouvelle définition du mètre aura ainsi permis, entre autres avantages, d’unifier les mesures dans un domaine important de la science, celui de la spectroscopie.
- Henri Moreau,
- Bureau International des Poids et Mesures.
- les masses atomiques
- Cette divergence, qu’on pouvait juger étrange sinon scandaleuse, va cesser car, après les physiciens, les chimistes viennent de décider au Congrès de l’Union internationale de Chimie pure et appliquée, qui s’est tenu à Montréal, de prendre comme base le carbone 12, reconnu plus commode encore. Ce nuclide qui jusqu’à présent avait une masse égale à 12,0038 (pour les physiciens !) aura donc désormais, par convention, une masse égale à 12 exactement. Il en résulte une très légère diminution de toutes les masses atomiques. Celle de l’oxygène 16 devient égale à 15,9949 et celle de l’oxygène naturel de l’air à 15,9994, mais cette fois pour tout le monde. Nous laissons à nos lecteurs qui disposent d’une règle à calculs ou que ne rebutent pas les opérations arithmétiques de calculer la nouvelle masse du proton.
- H. G.
- 30
- p.30 - vue 34/551
-
-
-
- Pouf guérir
- F « autisme » des enfants
- L’un des désordres mentaux les plus tragiques de l’enfance est Vautisme, forme relativement rare de schizophrénie qui met l’enfant dans une condition d’inertie quasi végétative, l’isolant pratiquement du milieu où il vit. Un psychologue américain, le Dr C. D. Ferster, en collaboration avec la psychiatre Marion K. DeMyer, vient de se livrer, au centre médical de l’Université de l’Indiana, à d’intéressantes expériences qui, si elles n’ont encore amené aucune guérison totale, ouvrent d’intéressantes perspectives sur l’amélioration du comportement des enfants frappés d’autisme et prouvent qu’ils sont capables d’apprendre.
- Le Dr Ferster suppose que lorsque le milieu familial de l’enfant est indifférent à son égard, lorsque ses parents semblent ignorer ses paroles et ses actes et ne récompensent pas, ne serait-ce que par un sourire, un comportement social satisfaisant, il peut se replier sur lui-même et finir, dans les cas les plus graves, par ne plus agir et ne plus parler. Procédant à des expériences sur six enfants, ce chercheur s’est attaché à résoudre les deux problèmes suivants : un enfant frappé d’autisme est-il toujours capable d’apprendre selon les processus mentaux normaux ; son attention peut-elle être retenue pendant plus de quelques minutes ?
- Ce médecin a installé à cet effet une salle expérimentale, équipée de nombreux dispositifs automatiques et d’appareils enregistreurs. Il a d’abord cherché à découvrir de quoi
- l’enfant avait le plus envie, d’un bonbon par exemple. Il a alors amené le petit malade dans la salle et lui a fait trouver un bonbon dans une machine distributrice. Lorsque l’enfant a compris qu’il trouverait toujours un bonbon dans la machine, le Dr Ferster a un peu compliqué les choses en le faisant presser sur un bouton pour obtenir le bonbon. Puis, il lui a appris à appuyer sur un premier bouton pour obtenir un jeton, qu’il devait ensuite introduire dans la fente de la machine distributrice de bonbons. Peu à peu, l’enfant s’est habitué à utiliser ces jetons pour actionner un cinéma, un train électrique, un cheval à bascule, un appareil de télévision et un phonographe. L’enfant apprit ainsi progressivement à utiliser tous les jetons pour obtenir les récompenses de son comportement normal, sous la forme du film projeté, de l’émission de télévision, d’un jouet, etc. Les jeunes malades finirent, dans la plupart des cas, par aller jusqu’à reconnaître les lettres de l’alphabet pour obtenir les jetons voulus.
- L’avenir dira si la technique des récompenses peut créer un comportement social normal chez les enfants frappés d’autisme ; et si, inversement, il est possible que des parents négligents bloquent le développement du comportement de leurs enfants dans les premières années de leur vie.
- R. R.
- Fig. i. — La salle expérimentale du docteur Ferster.
- Une petite fille frappée d’autisme examine l’écran d’un poste de télévision. A droite, un distributeur de bonbon et un train électrique. Jouet, distributeur et télévision ne peuvent être actionnés qu’avec des jetons que l’enfant doit se procurer dans un distributeur spécial (au fond à droite).
- p.31 - vue 35/551
-
-
-
- U Iran à Paris...
- Sept mille ans d’art animalier
- par Michel Rousseau
- L’Iran a permis aux Parisiens d’admirer 7 000 ans de son art. Cette exposition du Petit Palais (octobre 1961-janvier 1962), d’une ampleur et d’un éclat jamais égalés, a été inaugurée par son souverain, qui s’apprête à célébrer le 2 500e anniversaire de la monarchie iranienne.
- Chiffres impressionnants, et poésie des noms que souligne André Malraux, dans sa présentation, ministérielle, du riche catalogue : « Les hommes ont rêvé des palais achéménides, depuis la Haute Égypte jusqu’à l’Asie Centrale ; de la Cour sassanide, depuis Byzance jusqu’à l’Inde ; et d’Ispahan, depuis Paris jusqu’à Pékin. Dans leur rêve éternel, la Perse revient avec l’invincible constance des flots ».
- Des photographies évoquent les palais, les mosquées, des fresques grandioses, la cavalerie sassanide sculptée au flanc des montagnes. Une immense maquette suggère la grandeur de Persépolis. Quelque 1 200 pièces ont été prêtées ici par des musées et des collectionneurs du monde entier, et surtout d’Iran : terres cuites, faïences et verres, ivoires et stucs, bronzes et métaux précieux, miniatures, étoffes et tapis, etc. Un aspect monumental frappe dans les objets, même les plus exigus. La stylisation s’y combine à un remarquable réalisme. Retenons surtout ici les animaux, qui tiennent une place majeure dans tous ces ensembles présentés selon l’ordre chronologique, et qui ne peuvent manquer d’intéresser et d’émouvoir les naturalistes.
- Le premier vase nous reporte à l’époque néolithique, au 5 e millénaire avant notre ère. C’est un des plus anciens retrouvés avec une décoration peinte. Elle évoque un travail de vannerie : les ustensiles antérieurs étaient peut-être des paniers tressés et enduits de terre. Du 4e millénaire, voici des récipients décorés de sloughis (lévriers), de panthères, d’oiseaux, de tortues, de bouquetins surtout, aux cornes si décoratives parfois exagérées. L’évolution vers l’extrême stylisation s’inverse aux 3 e et 2e millénaires. C’est l’Elam, plus fertile et en contact avec la Mésopotamie, qui évolue, le premier, en état policé ; son extraordinaire « bonhomme » barbu en pierre noire a été comparé à un prince sumérien devenu bon paysan. Inquiétante au contraire, la tête humaine cornue vieille de 3 000 ans.
- Ailleurs, c’étaient des villages préhistoriques où l’art cultivé ne dépassait guère la poterie peinte. Aux premiers siècles du premier millénaire avant notre ère, des Indo-Européens, les Iraniens, arrivent sur le sévère plateau auquel ils donnent leur nom. Ils diffusent le fer et commencent l’irrigation, transforment les bourgs en villes fortifiées : la protohistoire s’achève. Ecbatane devient la capitale des Mèdes. Leur succèdent les Perses de Cyrus, avec la dynastie des Achéménides.
- Les Iraniens inaugurent un imposant culte des morts. Des tombeaux mégalithiques ont été retrouvés avec leurs
- Fig. 1. — Détail d’un grand bol en or massif ; Hassanlu (Iran), 9e siècle avant Jésus-Christ.
- Décor au repoussé. Char attelé d’un bovidé, vu de profil, mais
- p.32 - vue 36/551
-
-
-
- précieux objets votifs. La poterie domine chez les Proto-mèdes de Sialk (ioe-c)e s.) et les montagnards d’Amlach (9e-8e s. ; il s’agit d’une révélation de ces trois dernières années). A l’est, le Luristan a livré surtout les célèbres bronzes : beaucoup sont des pièces de harnachement qui symbolisent la monture près du défunt (Médo-Cimmé-riens des 8e~7e s.). A Ziwiyé, ün prince scythe a été enseveli avec son entourage et ses chevaux sacrifiés (je-6e s.) : la première place revient ici à une éblouissante orfèvrerie d’or ou d’argent accompagnée d’ivoires.
- Pour ces nomades des steppes, devenus les maîtres du Plateau, la vie se passe en bonne partie à cheval, et parmi les animaux de chasse ou d’élevage. Ils en multiplient les images et créent des monstres nés par « jonction zoo-morphe » d’éléments d’espèces diverses. Par ailleurs, le « mobilier funéraire » permet peut-être des formats plus grands (ces épingles rituelles, ces mors décorés si grands sous la tête des morts du Luristan...) ; en tous cas des formes plus fragiles. Ainsi les vases à libations en terre cuite prolongés de becs-versoirs démesurés.
- Comme chez tous les Indo-Européens, bien avant le « char d’Apollon », la roue du Soleil voisine avec le cheval. En relief, ce dernier peut aussi paraître surveiller du regard le liquide sacré. Le vase lui-même, en forme de monture, suggère une « relation mystique entre le Cheval et la Mort, ou les morts » enterrés près de lui : l’image parfois en tenait lieu (et nous pouvons encore, aux obsèques solennelles des maréchaux, voir défiler leur cheval d’armes...).
- Dès le 9e siècle avant notre ère apparaît, sur une coupe en or, le thème saisissant et décoratif de trois lions de profil (au repoussé) tournant de face la tête menaçante (en ronde bosse). Parfois, ce sont, fautivement, les cornes de ruminants qui couronnent, vues de devant, le profil céphalique (fig. 1). L’anomalie est évidemment exclue pour les têtes en relief des rhytons (vases à boire) en terre cuite, puis or ou argent. Les cornes sont brèves chez le taureau, longues, en S étiré, chez la gazelle, droites et crochetées du bout vers l’arrière chez l’ibex, en demi-cercle chez le bélier (fig. 2), massives et plus fermées chez le bouquetin, en spirale (à triple tour) chez le mouflon. Leurs annelures ajoutent à leur beauté géométrique. A remarquer aussi la régularité des toisons losangées,
- Fig. 2. — Rhyton en argent en forme de tête de bélier ; Iran, ye-6e siècle av. J.-C.
- Collection Léon Pomerance, New York (Photo Presses Artistiques).
- Fig. J. — Vase en terre cui e en forme de cavalier ; Amlach, 9e-8e s. av. J.-C.
- Collection Foroughi, Téhéran (Photo Bulloz).
- Fig. 4. — Vase en terre cui;e rouge en forme de bison ; Amlach, 9e-8e s. av. J.-C.
- Collection Foroughi, Téhéran (Photo Bulloz).
- 33
- p.33 - vue 37/551
-
-
-
- des triples plis au-dessus des yeux, au mufle et aux commissures des lèvres, qui soulignent aussi le rictus du lion. Au total, un compromis plein de grandeur entre le naturalisme, surtout frappant chez la tête vue de trois quarts, et la stylisation, que souligne la symétrie dans l’observation de face.
- L’abstraction va parfois beaucoup plus loin. Le coro-plaste d’Amlach peut réduire à des moignons les membres d’un cheval (fig. 3) ou rendre monstrueuse la bosse d’un buffle (fig. 4). Cette simplification se rapproche curieusement de certaines recherches artistiques contemporaines. Elle s’observe aussi dans un minuscule zoo de bronze de même provenance. Ainsi telle biche (n° 134) porte son faon arbitrairement soudé à son flanc, mais elle tourne la tête de son côté avec naturel. Un cerf (n° 127) arbore deux encolures. C’est surtout le bronzier du Luristan qui redouble ainsi les têtes ou en fait jaillir du corps d’un autre animal pour évoquer un accroissement surnaturel de puissance. Un bouquetin remplace même chaque bras d’une idole (n° 317). L’art scythe se plaît à cette exubérance, à cette science de rythmes et aux affrontements dramatiques de fauves ou de ruminants, aux enroulements des corps, aux griffes et becs monstrueux.
- Avec Cyrus, conquérant généreux, et Darius s’établit le premier empire qui ait englobé, et respecté, les plus anciennes civilisations du Nil à l’Indus, et de la mer Egée
- Fig. S- — Coupe en or ; Iran, époque achéménide, 5 e s. av. J.-C.
- Quatre lions de profil avec tête de face. Collection D. Boris, New York.
- {Photo Presses Artistiques).
- Fig. 6. — Coupe en or ; Iran, Mède (?), 6e s. av. J.-C.
- Anses en forme d’ibex à double tête ; col orné de palmettes ; épaule décorée de lions ailés passants ; panse à cannelures à arêtes. Musée d’Art de Cincinnati {Photo Bulloz).
- 34
- p.34 - vue 38/551
-
-
-
- Fig. 7. — Plat en argent de Khosroès II (?) ;
- Kerman, époque sassanide, 6‘-7K siècle.
- Chasseur à l’arc, à cheval, avec deux sangliers, une gazelle et deux cerfs. Travail au repoussé, repris au burin. Collection Foroughi, Téhéran {Photo Bulloz).
- à l’Océan Indien. L’art achéménide pouvait ainsi s’inspirer des formes les plus nobles et les plus éloignées. Elles apparaissent surtout dans l’architecture : palais babyloniens aux fresques éclatantes de briques émaillées, salles hypostyles au mystère cher à l’Égypte, colonnes méditerranéennes. Mais les chapiteaux gigantesques, comme celui du Louvre, adossent deux avant-trains (ou protomes) de taureaux, de lions ou de griffons. Ainsi se perpétue l’exemple des bronziers du Luristan. De même, dans les anses de vase dédoublant les têtes d’ibex (fig. 6), ou dans les armes qui annoncent l’épée en or du roi des rois. Nous retrouvons les têtes étincelantes des rhytons, ou la file de lions qui se détournent pour rugir avec un impressionnant réalisme (fig. 5). Mais les attitudes restent graves et majestueuses, fixées dans un éternel présent, suprêmement décoratives. Les formes sont répétées à l’envi, d’où la solennité de l’orfèvrerie et des bijoux d’or ou d’argent. C’est un art royal, celui d’un grand roi qui reçoit la soumission agenouillée de tout un peuple et la reporte au grand dieu.
- La victoire d’Alexandre sur les Achéménides (330 avant J.-C.) resserra les liens entre Grecs et Iraniens, tant par des mariages que par une fusion artistique. L’occident apportait son goût du modelé dynamique, de la vie pour elle-même. Bientôt, la domination parthe rejetait cet art « gréco-iranien » pour les formes « néo-iraniennes ». Le fidèle ne passe pas devant le profil indulgent de la divinité hellène. Il adore la face divine avec l’humilité retrouvée des orants du Luristan. La rigidité devient la
- Fig. 8. — Tissu de soie j Iran, 12 e siècle.
- Quatre groupes de fauconniers, affrontés deux à deux et séparés par des arbres de vie. Collection Dolorès Selikowitz, New York {Photo Presses Artistiques).
- p.35 - vue 39/551
-
-
-
- règle, même pour le cavalier qui décoche sur l’ennemi ou le gibier « îa flèche du Parthe ».
- A ce royaume succède une dynastie nationale, celle des Sassanides (226-651) qui rivalise avec les empereurs de Rome, et fait même captif Valérien (en 260). Ces nouveaux rois vont plus loin que Darius : ils se proclament d’essence divine. Leur image se multiplie sur les gigantesques rochers sculptés, les statues, les fresques de stuc, les étoffes précieuses et l’argenterie : non seulement celle du palais mais aussi celle des seigneurs, témoignage (ou faux témoignage...) de leur attachement. Le roi domine les scènes de tradition parthe : investitures, fêtes, banquets. Il écrase ses ennemis ou reçoit leur soumission ; au « galop volant », il triomphe, imperturbable, du gibier et des fauves, tel, peut-être, Khosroès II, le vainqueur de l’Egypte, sur le fameux plat qui lui est attribué (6e~7e s.) (fig. 7).
- A cette époque, le bestiaire évoque moins les Parthes que les Scythes, sans doute sous l’influence, menaçante, des Huns, qui sont également des voisins nordiques. Il s’agit souvent de monstres ou animaux démoniaques : le griffon, le simourv, oiseau mystique, le fauve mi-loup mi-tigre, etc. Êtres figés, dessin ornemental, motif sans fin, riche polychromie, jusque sur la merveilleuse coupe, dite de Salomon (6e s.) de notre Cabinet des Médailles : éternel rêve, inquiet et somptueux, de l’Orient.
- *
- * *
- Les guerriers musulmans atteignent l’Iran en 634 et l’occupent en une vingtaine d’années. Ils imposent leur alphabet et leur langue, dans laquelle des Persans écriront poèmes et épopées, tel Firdoussi, dont Sainte-Beuve faisait le rival d’Homère. D’autres seront juristes ou théologiens, car l’Islam est largement accepté, sans supprimer les vieux cultes du Feu et de Zoroastre. Avec le calife abasside Mamoun (813-833), la renaissance islamique prend une direction persane. Les Arabes vainqueurs n’avaient aucune tradition nationale ou artistique, souffrant mal toute représentation des êtres vivants. Les Iraniens restent fidèles à leur passé, poètes et artistes exaltent la grandeur de leurs ancêtres, la beauté des plantes et des animaux.
- Déjà au 9e siècle, les potiers de Nichapour s’y employèrent dans un style tenu pour assez barbare, mais dont la parenté paraît indéniable avec un Braque, un Matisse ou un Picasso (cet œil en amande, ponctué d’une pupille, dévorant le profil ; nos 948 à 950). La céramique persane allait désormais s’épanouir avec raffinement, en particulier
- à Raiy, l’antique Rhagès, avec une stylisation accentuée du décor, ou dans la série gabri, aux animaux réalistes. La verrerie, déjà remarquable à l’époque parthe, multiplie les scènes animées en relief. Les magnifiques soieries campent de fiers fauconniers à cheval (fig. 8), ou surprennent les vives gambades des bouquetins. Monstres ou animaux se figent dans le bronze ajouré des brûle-parfums, dans le stuc ou le marbre des panneaux : hippocampes, chevaux ailés, lions, oiseaux..., tout le répertoire des anciens Sassanides.
- En 1258 commence pour Bagdad la domination mongole. Elle s’y montre aussi bénéfique qu’elle fut désastreuse ailleurs, qu’il s’agisse de Gengis-Khan ou de Tamerlan (son descendant ?). Après la brillante civilisation timou-ride du 15e siècle, la dynastie nationale des Séfévides d’Ispahan marque un nouvel âge d’or. L’art de l’Iran depuis les Mongols est surtout représenté par la céramique, la miniature, les tapis. Ces derniers sont en majorité des « polonais » auxquels les fils d’or et d’argent donnent une somptuosité d’orfèvrerie ; sur deux autres figurent les animaux qui ont fait la célébrité des tapis de chasse et de jardin. Céramistes et miniaturistes nous enchantent par leur habileté extrême, la délicatesse des coloris, la fraîcheur des scènes, la grâce un peu alanguie des jeunes femmes ou des seigneurs dans les jardins. Les scènes de bataille même, selon le vœu de Renoir, ressemblent à des tableaux de fleurs...
- *
- * *
- Traversé par le galop des envahisseurs ou le pas tranquille des caravaniers de la soie, l’Iran montre ainsi une continuité remarquable. Si son âme, selon Malraux, est plus profonde que son art, elle n’en montre pas moins déjà son inquiétude dans ses monstrueux animaux du Luristan que verront renaître nos apocalypses médiévales. Les bijoux scythes annoncent ceux de nos mérovingiens. Les lions de la vasque achéménide revivent en ceux de l’Alhambra. D’autres ont le regard globuleux du dragon de la Chine. Le goût inné du décor s’enchante du doux lotus de l’Inde comme de la grecque antique.
- « Grèce de l’Orient », comme l’a dit Malraux, l’Iran a profondément humanisé tour à tour les plus rudes nomades. De leur amour et de leur science des bêtes, il a fait un thème majeur de son art.
- Michel Rousseau,
- Docteur vétérinaire.
- Générateur nucléaire miniature pour explorateurs lunaires
- Si les spécialistes américains parviennent un jour à débarquer un groupe d’explorateurs sur la Lune, un réacteur nucléaire miniature susceptible de les alimenter en électricité pour une période de deux ans pourra leur être envoyé au moyen d’une fusée, affirme un récent rapport de la Commission américaine de l’Énergie atomique.
- Ce générateur se composerait d’une pile à neutrons rapides associée à une turbine à vapeur de mercure. Il comporterait quatre radiateurs ayant la forme d’ailes pliantes de 22 m de long, montés à angle droit autour du cœur de la pile pour condenser
- la vapeur de mercure. Au départ, l’engin serait disposé dans une coque cylindrique autour de laquelle les radiateurs seraient repliés, afin de former un élément compact de la fusée qui porterait la centrale sur la Lune. A l’arrivée, cet élément serait séparé du corps de la fusée, puis ancré sur un cratère lunaire. Les radiateurs seraient alors dépliés. Ce genre de générateur pourrait également être utilisé pour fournir de l’électricité aux stations spatiales où les véhicules interplanétaires feraient le plein de carburant, à des relais de télévision et à des observatoires stellaires.
- 36
- p.36 - vue 40/551
-
-
-
- Pont aérien pour les truites
- La pêche à la truite connaît en Australie une vogue considérable et, bien que le nombre des prises soit limité à io par jour et par pêcheur, un repeuplement massif des lacs et des rivières est jugé chaque année indispensable. Le transport par route, au moyen de camions-citernes, étant très onéreux, les services intéressés ont mis au point une méthode qui, pour être audacieuse, n’en a pas moins donné d’excellents résultats. Les truites sont désormais transportées et « larguées » directement par avion. Dans le seul état de Victoria, plus d’un demi-million de truites, brunes et arc-en-ciel, ont été ainsi transportées. Avant le chargement, les poissons sont « mis à la diète » pendant trois jours, afin d’éviter au cours du transport toute pollution qui compromettrait l’aération de l’eau qui les contient, malgré les insufflations d’oxygène qui sont opérées en cours de route. Les jeunes poissons, au nombre de 33 ooo environ à chaque voyage, sont déversés d’une hauteur maximale de 60 mètres. Les essais ont montré que les truites ne souffraient pas de ce mode de transport ni de cette façon quelque peu cavalière de les élargir.
- Fig. I. — Chargement des jeunes truites à bord d’un avion destiné à leur déversement dans les lacs et rivières d’Australie.
- Fig. 2. — Largage des truites au-dessus d’un lac de l’Etat de Victoria (Australie).
- (Photos aimablement communiquées par P Ambassade d’Australie).
- R. R.
- p.37 - vue 41/551
-
-
-
- Ulysse, pile d’enseignement à nombreuses « facilités » expérimentales
- Entrée « en divergence » au cours du mois de juillet dernier, la pile « Ulysse » a été officiellement présentée par MM. Francis Perrin et Jean Debiesse le 31 octobre 196-1. On remarquera que cette date correspond, à quelques jours près, au début des cours de l’enseignement supérieur pour l’année scolaire 1961-1962. Ulysse appartient, en effet, à l’Institut national des Sciences et Techniques nucléaires (I. N. S. T. N.), établissement d’enseignement qui fonctionne sous le double patronage du Commissariat à l’Énergie atomique et de la Faculté des Sciences de Paris (section de Physique nucléaire d’Orsay). Achevons de situer Ulysse en mentionnant que le bâtiment de l’I. N. S. T. N. où elle a été installée se trouve sur le terrain du Centre d’études nucléaires de Saclay.
- Cette pile (ou réacteur) est donc essentiellement matériel d’enseignement. Elle sert désormais à la formation des ingénieurs du génie atomique, ainsi qu’aux étudiants du troisième cycle qui préparent des thèses. A cet effet, ses constructeurs se sont ingéniés à créer un modèle où il soit possible de faire apparaître un très grand nombre de « situations » différentes, en faisant varier, à titre de démonstration ou à titre expérimental, plusieurs paramètres. Il existe déjà quelques modèles de réacteurs d’enseignement (piscines, water boilers, puits), mais celui qui jusqu’ici présentait la plus grande richesse en facilités expérimentales était
- Fig. I. — Plan schématique du cœur de la pile Ulysse.
- Le réflecteur extérieur (ou latéral) est indiqué par les lettres RL. Les deux couronnes sont indiquées par la lettre E (couronne extérieure composée en principe d’éléments combustibles) et par la lettre I (couronne intérieure composée d’éléments de graphite). Le cercle central représente le réflecteur intérieur. Les pièces numérotées de i à 6 sont les plaques de contrôle en cadmium. CT représente la colonne thermique.
- le réacteur américain « Argonaut » dont on compte à ce jour 14 exemplaires. Ulysse lui est apparenté, ayant comme lui une disposition annulaire. Il comporte toutefois plusieurs innovations.
- Fig. 2. — Différentes configurations possibles du cœur.
- a est la configuration normale, avec les éléments combustibles répartis dans la couronne extérieure, b : éléments combustibles formant un cœur compact, groupé sur les deux couronnes, c : cœur en deux tranches opposées, d : cœur en quatre éléments, également répartis.
- Fig. 3 (à droite). — Un élément combustible d’Ulysse. Hauteur de l’élément : 91 cm.
- Les onze plaques qui contiennent l’uranium enrichi ont 68 cm de long.
- 38
- p.38 - vue 42/551
-
-
-
- Dans la description de la pile, nous insisterons plus particulièrement sur les organes qui se prêtent à la souplesse de fonctionnement qui est le caractère original de cet appareil. Ces organes sont groupés dans le cœur de la pile (fig. i), constitué (en allant de l’extérieur vers l’intérieur) d’un réflecteur de section carrée 1,70 X 1,70 m, d’une double couronne dont les deux diamètres moyens sont de 825 et 675 mm, et d’un réflecteur central de 480 mm de diamètre.
- Sans insister jusqu’à nouvel ordre sur les réflecteurs, tous deux en graphite, portons toute notre attention vers la double couronne qui contient les éléments combustibles. Ces derniers sont en principe au nombre de 24 et constituent la couronne extérieure, disposition dite normale que l’on voit schématisée sur la figure 2 a.
- Les éléments combustibles sont des paniers d’aluminium (fig. 3) dans lesquels peut être glissé un nombre maximal de 11 plaques dont chacune contient une charge d’uranium enrichi à 90 pour 100 (22 grammes d’U2 3 5 par plaque). D’autres éléments forment la couronne intérieure. Ils ne sont pas combustibles, tout au moins dans la disposition normale : ce sont des blocs réflecteurs en graphite dont les dimensions sont identiques à celles des blocs combustibles.
- A présent nous sommes en mesure de nous rendre compte de la grande diversité que l’on peut obtenir dans le cœur de la pile Ulysse. Sa « géographie neutronique » sera en effet modifiée à volonté en procédant de deux manières différentes : ou bien faire varier le nombre des plaques actives insérées dans les éléments combustibles, ou bien jouer avec les deux couronnes, comme il est indiqué sur la figure 2, où l’on voit les éléments combustibles groupés de plusieurs manières, d’autres configurations étant d’ailleurs possibles.
- Pourquoi, d’autre part, considère-t-on comme normale la disposition a ? C’est en raison de l’intérêt qu’il y a à placer les éléments combustibles (sources de neutrons) au voisinage immédiat des plaques de contrôle qui servent à la conduite de la pile.
- Rappelons que, dans les réacteurs, les plaques ou plus souvent les barres de contrôle sont faites d’un corps dont la section efficace de capture des neutrons est très élevée. Selon leur plus ou moins grand enfoncement dans le cœur du réacteur elles diminuent ou augmentent sa réactivité. Dans le cas d’Ulysse, ce sont des feuilles de cadmium, placées en sandwich entre deux feuilles d’aluminium* Au nombre de six (fig. 1), elles ont des fonctions différentes : trois d’entre elles sont des plaques de sécurité, dont la chute est automatique en cas d’alerte. Il en est de même d’ailleurs pour deux autres plaques, dites de compensation. La sixième plaque, de réglage, doit au contraire être commandée.
- Il nous faut à présent signaler que les couronnes sont logées dans une cuve en alliage léger où circule une eau qui baigne en permanence les éléments combustibles et qui joue le double rôle de modérateur et de réfrigérant. Cette eau est mise en mouvement par une pompe à travers un circuit fermé primaire qui comprend notamment un bac de désactivation, une cuve d’épuration (par colonne échangeuse d’ions) et un échangeur de chaleur où les calories excédentaires sont cédées à un circuit secondaire, alimenté par l’eau de ville. La température du cœur est uniformément maintenue aux environs de 300 C.
- La pile est dotée d’une sécurité supplémentaire qui consiste en une vidange partielle de l’eau, ce qui diminue
- Fig. 4. — Vue supérieure du cœur d’Ulysse.
- Cette photo, prise en cours de montage, fait apparaître, à droite, la double couronne des éléments combustibles (vers l’extérieur) et des éléments graphite (vers l’intérieur). Le cercle central en aluminium est le couvercle du réflecteur intérieur : on y distingue les ouvertures du canal central et des canaux latéraux excentrés,
- son effet modérateur et par conséquent la multiplication des neutrons. En ce cas de vidange partielle, l’espace resté vide est automatiquement rempli d’azote.
- A côté de la réfrigération par eau, il a été prévu une réfrigération par air qui intéresse les parties extérieures de la pile et qui a également pour but de la mettre en dépression, par rapport à l’atmosphère du hall où elle est logée, ce qui en cas d’accident évite les fuites vers l’extérieur.
- Mentionnons encore que la pile est enclose dans l’habituelle muraille de protection bétonnée, que complète au sommet un bouchon également bétonné, au travers duquel les chargements et déchargements peuvent être effectués, grâce à toute une gamme de dispositifs appropriés.
- « Facilités expérimentales »
- Cette description sommaire d’Ulysse, avec les organes qui assurent son fonctionnement et lui permettent d’atteindre une puissance de 100 kW, doit être complétée par la présentation des « facilités expérimentales ». Le but de la pile (expériences et enseignement) implique en effet qu’elle puisse être largement pénétrée en tous sens, afin de se prêter aux investigations les plus variées. Elle possède à cet effet :
- — Une colonne thermique, bloc de graphite, accolé au réflecteur extérieur, où les neutrons sont thermalisés (c’est-à-dire ralentis) au maximum. Cinq canaux horizontaux et quatre verticaux la traversent ;
- — Une cavité que peuvent remplir soit une deuxième colonne thermique, soit un bac à eau ;
- — Quatre canaux radiaux, un canal tangentiel, deux
- 39
- p.39 - vue 43/551
-
-
-
- Fig. J. — Le cœur d’Ulysse.
- On peut voir, sur ce cliché, l’espace, destiné à être rempli d’eau, qui est laissé au-dessus des deux couronnes et du réflecteur intérieur. Les emplacements des plaques de contrôle sont visibles à la surface supérieure du réflecteur extérieur.
- (Documents et photos aimablement communiqués par le C. E. A. et VI. N. S. T. N.).
- canaux sécants (tous horizontaux) qui percent la masse du réflecteur extérieur ;
- — Quatre canaux verticaux, l’un central, les trois autres disposés irrégulièrement et qui traversent le réflecteur intérieur (fig. 4).
- Ces differents canaux, selon leurs emplacements et leurs orientations, seront atteints par des neutrons rapides, conservant toute leur énergie initiale, ou par des neutrons à divers degrés de ralentissement. Notons que le flux des neutrons thermiques a été prévu pour 2. io12 neutrons/cm2 / seconde.
- Il ne nous appartient pas de détailler toutes les expériences
- auxquelles Ulysse est désormais consacrée. Notons seulement que les étudiants pourront s’initier de différentes manières à la notion de masse critique et d’approches sous-critiques, grâce au maniement des plaques de contrôle, des éléments combustibles et du niveau d’eau. Ils pourront également étalonner les plaques de contrôle, mesurer les flux, déterminer le temps de vie des éléments, etc. Ils constateront le comportement de différents corps sous irradiation. Us assisteront à des expériences d’activation, aboutissant notamment à la formation de radioisotopes. Remarquons à ce sujet qu’Ulysse, dont on espère qu’elle pourra être reproduite à plusieurs exemplaires, rendra des services multiples aux universités qui en feront l’acquisition : les chimistes auront toute latitude pour y faire des analyses par activation ; avec les physiciens et les biologistes ils pourront s’approvisionner en radioisotopes de courte période dont le transport à longue distance est, on le sait, impossible.
- Y. M.
- 40
- p.40 - vue 44/551
-
-
-
- L’ACTUALITÉ INSTRUMENTALE
- Microdébitmètres pour mesures de précision
- La mesure précise des faibles débits est une opération délicate que seuls des appareils soigneusement étudiés sont capables d’effectuer avec une sûreté suffisante. Un appareil construit il y a quelques années par la Société D. A. M. sous licence Ugine, mais dont les domaines d’utilisation ont été accrus récemment, nous a semblé présenter des caractéristiques intéressantes à cet égard.
- La pièce est un tube métallique rectiligne à travers lequel circule le fluide à mesurer. Ce tube est chauffé -extérieurement en son centre tandis que ses extrémités sont maintenues à la température ambiante. En l’absence de fluide, la répartition des températures le long du tube est symétrique par rapport au centre. Si, au contraire, un fluide circule dans le tube, il se produit une dissymétrie dans la répartition des températures, dissymétrie qui est fonction de la capacité calorifique du fluide donc de son -débit et de sa chaleur spécifique. Le repérage de cette dissymétrie est effectué au moyen de deux enroulements -de platine bobinés sur le tube de part et d’autre de son milieu. Ces résistances forment les deux branches d’un pont de Wheatstone dont on mesure le déséquilibre. Le résultat de la mesure s’exprime donc sous forme d’une différence de potentiel que l’on peut, par exemple, enregistrer, utiliser pour commander un système régulateur de débit, etc.
- L’appareil fonctionne quel que soit le sens de circulation du fluide, avec indication de ce sens par la polarité de la force électromotrice. Il ne comporte aucune pièce en mouvement, ni de presse-étoupe, et ses éléments actifs (résis-
- Modèle standard inox Mélange hydrogène + oxygène
- 90
- d'utilisation
- Domaine1
- 20
- Débits ( l/h)
- Fig. i. — Variation de la tension de sortie en fonction du débit.
- Explications dans le texte.
- Fig. 2. — Microdébitmètre Ugine, modèle 5$.
- Le débitmètre proprement dit, situé au premier plan, se présente sous la forme d’un cylindre traversé en son centre par le tube où circule le fluide dont on mesure le débit. A l’arrière-plan, le coffret électrique avec régulateur de tension d’alimentation.
- tance du pont de mesure) sont situés hors de tout contact avec le fluide, donc à l’abri d’une détérioration par corrosion chimique. L’utilisateur doit seulement se préoccuper de choisir un tube en un métal susceptible de résister au fluide considéré.
- Sensibilité et plages d’utilisation. — La tension aux bornes de l’appareil, qui exprime le résultat de la mesure, croît d’abord linéairement en fonction du débit jusqu’à une valeur qui est fonction de la chaleur spécifique du gaz et de la constitution du tube central. Elle augmente ensuite moins vite, passe par un maximum puis décroît pour tendre vers zéro (fig. 1). La partie rectiligne de la courbe détermine évidemment la plage de mesure. Au-dessus, la précision devient mauvaise puisque la tension augmente de moins en moins pour un même accroissement du débit. Dans le cas des tubes standard en nickel ou en acier inoxydable, et pour un mélange d’hydrogène et d’oxygène produit par électrolyse et qui permet d’étalonner l’appareil, la plage linéaire s’étend de o à 4 litres/heure. Dans ce domaine, le débit est connu à A 5 cm3 près jusqu’à 500 cm3/h et à A 1 pour 100 de 500 cm3/h à 41/h.
- Il ne faudrait cependant pas conclure de ce qui précède que seule la mesure des très faibles débits est possible
- 41
- p.41 - vue 45/551
-
-
-
- MICROSCOPE DE POCHE
- COOKE-Mc ARTHUR
- Toutes les possibilités d’un bon microscope normal
- Immersion — Fond noir — Éclairage incorporé
- Ag. excl. : Ets F. C. DANNATT, S. A.
- 198, rue Saint-Jacques, Paris 5e
- J
- Transformez votre Microscope en un
- MICROSCOPE INTERFÉRENTIEL
- pour la mesure et le contrôle des États de Surface
- à l'aide de
- l'OBJECTIF INTERFÉRENTIEL DE WATSON
- Applications : Métaux, Semiconducteurs, Peintures, etc.
- LES PROCÉDÉS MARCEL LOCQUIN
- 20, Avenue Rapp - PARIS 7e - INV. 96-53
- DE
- ÉCOLE SUPÉRIEURE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e. — ODE 54-83
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d’État. Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignemênt " à domicile "
- (Joindre timbre pour notice)
- TRANSMISSION DE LA CHALEUR
- PAR
- W. H. Mc ADAMS
- Professeur de Génie chimique, Massachusetts Institute of Technology.
- TRADUIT DE L’AMÉRICAIN PAR PRÉFACE DE
- A. BEAUFILS M. VÉRON
- Licencié ès Sciences, Ingénieur E.S.E.
- 608 pages 16 x 25, avec 225 figures. 2e édition. 1961. Relié toile sous jaquette . . 115 NF
- En vente dans toutes les bonnes librairies et chez
- DUIKTOD) Éditeur, 92, rue Bonaparte, PARIS-6e. DAN. 99-15. PARIS 75-45
- RAPY
- appareils électroniques de mesure
- QUELQUES POSSIBILITÉS :
- Tensions : 100 M V à 50 kV • R d'entrée ÎO*4 fl
- Intensités : ÎO'1^ à 10 ampère • R d'encréé
- nulle
- Résistances : 101 7 0 à 100 p fi R d 'entrée
- nulle
- Capacités : 0,1 pF à 10 000 pF - R. d'entree
- nulle
- Champs : 0,1 gauss à 10 000 gauss.
- Electrisations : 10 pico-coulombs à 1000
- coulombs.
- Pertes en watts des tôles : 0,5 à 5 W. Fluctuations de tension :
- depuis 1 mV 1.000 ou 2 000 V. Intégration : (analogique)
- 1 seconde à 60 minutes 1 à 20 voies Conductivité : 1 O à 1.000 M fl (mesure à
- distance)
- FONDE EN 1915
- lEMOUZY.
- Fournisseur de 1.900 laboratoires officiels et privés toutes industries
- 63, rue dé Char en ton, Paris 12« - Tel. DID. 07-74
- 42
- p.42 - vue 46/551
-
-
-
- avec cet appareil. En effet, si le débit est supérieur à 4 l/h, on peut utiliser deux solutions : soit shunter le débitmètre par un tube auxiliaire monté en parallèle, soit monter le débitmètre en parallèle sur la conduite principale de fluide, avec raccordements de part et d’autre d’un diaphragme. On peut ainsi calculer la chute de pression provoquée par le diaphragme et, par suite, le débit dans la conduite principale. Le débitmètre remplace le manomètre des montages classiques, mais étant donné sa grande sensi-
- Fig. — Microdébitmètre Ugine, modèle 60.
- Il s’agit d’un modèle simplifié livré sans régulateur de tension d’alimentation. Tous les circuits électriques sont placés à l’intérieur du cylindre de sorte que le coffret auxiliaire est supprimé.
- (.Photos D. A. M.).
- bilité il permet d’utiliser un diaphragme n’introduisant qu’une faible perte de charge.
- La constante de temps définie comme le temps mis pour atteindre 60 pour 100 de la valeur finale, est d’environ 30 à 50 secondes selon la nature du tube.
- Dans le cas des liquides, la gamme de mesure s’étend de o à 5 cm3/h environ. Toutefois, par l’adjonction d’une dérivation, on peut accroître la plage d’utilisation jusqu’à 1 litre/heure.
- Enfin, ce débitmètre peut être utilisé pour mesurer avec précision des écarts de pression très faibles, de l’ordre, par exemple, de quelques centièmes de millimètre d’eau sur des circuits gazeux, de quelques millièmes de millimètre d’eau sur des circuits liquides. Il suffit de relier l’appareil aux deux points du circuit où les pressions sont différentes, ce qui crée un débit proportionnel à la différence de pression.
- R. R.
- Refroidissement par liquides en ébullition
- Dans les installations classiques de refroidissement on évite soigneusement que le liquide chargé d’évacuer les calories atteigne son point d’ébullition. En effet, aux environs de cette température, si des précautions spéciales ne sont pas prises, le phénomène de caléfaction apparaît : il se forme de petites bulles de vapeur sur la paroi à refroidir. Si ces bulles ne se détachent pas de la paroi, l’efficacité du refroidissement à cet endroit est beaucoup diminuée et il risque de se produire un « point chaud » ; la paroi où se fait l’échange de chaleur peut alors fondre et se percer. Il serait cependant intéressant de pouvoir laisser bouillir le liquide de refroidissement car chaque gramme de liquide vaporisé permet alors d’évacuer une quantité de chaleur égale à la chaleur latente de vaporisation. Dans un système de refroidissement comme celui d’un moteur automobile où de l’eau est portée à 8o° C par la paroi des cylindres et refroidie à 30° (par exemple) dans le radiateur, chaque gramme d’eau en circulation évacue 50 calories. Si on laissait ce gramme d’eau se vaporiser au contact du cylindre et se condenser dans le radiateur, chaque gramme transporterait en plus 560 calories environ (la chaleur latente de vaporisation de l’eau). On voit que l’on gagnerait ici un facteur de 10 sur l’efficacité de refroidissement.
- Fig. 4. — Un tube type « Vapotron ».
- On remarque l’anode en « ananas » dont la forme est spécialement étudiée pour permettre le refroidissement par l’eau en ébullition.
- Photo Cie Française Thomson-Houston).
- p.43 - vue 47/551
-
-
-
- Eau ~F~)
- ,-*Eau
- Condenseur
- Liquide
- Vapeur
- Fréon
- Elément
- résistant
- Fig. j et 6. — Résistance refroidie par évaporation de fréon.
- Dans cette application, la résistance est refroidie par le système dit « évaporation-gravitation ». Le fréon se vaporise au contact de la résistance, se condense sur le serpentin parcouru par de l’eau et retombe dans la masse de liquide. Une résistance capable de dissiper 5 watts à l’air libre peut en supporter 200 si elle est refroidie par cette méthode qui assure un contact thermique presque parfait entre la partie chaude et le réfrigérant.
- (Photo Raytheon Co., Lexington, Massachusetts).
- Ces considérations ont été appliquées pour la première fois il y a quelques années dans les lampes radio d’émission de forte puissance du type « vapotron » (C. F. T. H.). Ces lampes, qui doivent dissiper des kilowatts d’énergie thermique, ont besoin d’un refroidissement énergique et, moyennant des précautions spéciales portant sur la forme et la qualité des surfaces d’échange de chaleur, on a pu laisser la température de l’eau monter jusqu’à ébullition. On gagne ainsi énormément sur la capacité du système de circulation d’eau, d’où une économie importante dans l’installation d’un émetteur. Ce même principe a été appliqué récemment par la société américaine Raytheon au refroidissement d’ensembles électroniques complexes dissipant beaucoup de chaleur. Dans ce cas, on plonge l’ensemble complet dans un liquide qui sera porté à ébullition par la chaleur dégagée en fonctionnement. La vapeur produite est ensuite condensée et le liquide ainsi récupéré est recyclé. Il faut choisir soigneusement le liquide : l’eau ne conviendrait pas, n’étant pas un isolant suffisant. C’est un fréon (F. 114 ou F. C. 75) qui a finalement été choisi pour ses qualités d’isolant, de stabilité à chaud et de faible réactivité (il attaque seulement faiblement les caoutchoucs siliconés).
- Les fréons constituent une série de liquides organiques : ce sont des hydrocarbures fluorés. F. 114 bout à 36° C et reste liquide jusqu’à — 940 C. F. C. 75 bout aux environs de xoo° C. Ce sont les mêmes fréons qui sont utilisés dans les compresseurs des réfrigérateurs domestiques et d’ailleurs le principe de cette méthode n’est pas sans rappeler celui des réfrigérateurs. L’ensemble à refroidir est contenu dans une enveloppe en téflon flexible. L’enveloppe flexible s’adapte aux changements de volume dus aux variations de température. Dans ces conditions on peut, à puissance égale, diminuer très sensiblement la taille des pièces détachées. Par exemple des résistances faites pour des
- puissances 5 fois plus faibles peuvent alors être employées sans crainte de les voir chauffer trop. Le fréon étant relativement cher et lourd, on peut remplir les vides, autour des pièces qui dissipent peu de puissance, par de la mousse de plastique très légère ; on diminue ainsi beaucoup la quantité de liquide nécessaire.
- L’intérêt principal de cette méthode est de diminuer très notablement l’encombrement des appareils électroniques de grande puissance tels que les radars, etc. Les applications futures semblent être nombreuses et devoir permettre de nouveaux pas dans la « miniaturisation » des appareils électroniques.
- F. R.
- Les champs électriques utilisés pour mélanger les liquides
- Selon deux chercheurs de FAmerican Oil Company, MM. W. P. Cropper et H. S. Seelig, les champs électriques peuvent être utilisés pour mélanger des liquides et ce dans des appareils ne comportant aucune pièce mobile.
- Dans les essais effectués, les deux liquides à mélanger étaient respectivement un solvant (aniline, diméthylformamide, certains aldéhydes, etc.) et un hydrocarbure tel que l’isooctane que l’on trouve dans l’essence. Le solvant, de densité plus élevée, se trouvait au fond d’un récipient de verre, au-dessus d’une couche de mercure jouant le rôle d’électrode, tandis que l’hydrocarbure formait la couche supérieure. La deuxième électrode était constituée par un disque métallique suspendu dans l’hydrocarbure. Des différences de potentiel comprises entre 400 et 10 000 V/cm furent appliquées entre les deux électrodes. Les deux couches de liquide se mélangèrent quasi instantanément. On explique ce phénomène en admettant que les deux liquides acquièrent des charges électriques opposées et par suite s’attirent. Un mélange intime est ainsi rapidement réalisé.
- 44
- p.44 - vue 48/551
-
-
-
- Un Coléoptère destructeur d’Araignées
- On sait que les Araignées ont parmi les Insectes des ennemis acharnés. Ce sont les Pompiles, Hyménoptères voisins des guêpes, qui chassent uniquement des araignées, les paralysent d’une piqûre, et pondent sur leur corps un œuf d’où sortira une larve qui dévore sa victime encore vivante. C’est un cas bien plus curieux et vraiment exceptionnel que rapporte J. J. Steyn dans un petit article paru dans une revue entomologique de Pretoria. Il s’agit en effet d’une araignée attaquée par un coléoptère ; et ce coléoptère n’est pas une espèce connue par des mœurs carnassières, comme celles des Carabes, mais un représentant du groupe des Cétoines, insectes en général floricoles, qui se nourrissent des pétales et des étamines des fleurs qu’ils fréquentent. Il est vrai que l’espèce dont il est question ici, le P seudospilophorus plagosus, se distingue par des mœurs très différentes puisqu’elle est connue comme prédatrice de la cochenille Coccus hesperidum qui vit sur les citronniers. Quant à la victime, elle n’est pas non plus sans intérêt et elle présente, elle aussi, des habitudes assez anormales chez les araignées. C’est une des rares espèces sociales de ce groupe, qui tissent en commun une grande toile dans laquelle peuvent vivre plusieurs centaines d’individus. Cette toile a la forme d’une bourse plus ou moins grande, recouverte de soie à l’extérieur où les araignées ne se montrent jamais. Tous les insectes qui approchent se prennent dans les fils externes au milieu desquels les araignées viennent les capturer et les entraînent à l’intérieur pour les sucer.
- On connaît des araignées sociales dans plusieurs familles ; celle qui nous intéresse ici est un Eréside, le Stegodyphus mimosarum. En Afrique du Sud on utilise cette araignée dans la lutte contre la mouche domestique accusée de répandre certaines maladies, en particulier des affections gastro-intestinales. Des nids collectifs sont suspendus dans les maisons comme attrape-mouches et c’est à cette occasion que l’auteur a pu examiner environ i 200 de ces nids. Naturellement il est extrêmement rare d’y trouver des insectes vivants ; seules ne sont pas attaquées par les araignées une guêpe parasite, une chenille qui se nourrit des cadavres d’insectes capturés et la Cétoine.
- Quelques expériences ont été faites pour préciser les rapports de cette Cétoine et des araignées. Deux P*, plagosus adultes ont été introduits dans un petit nid contenant sept araignées ; après dix jours les cétoines avaient disparu mais on ne trouva que des restes d’araignées ; dans un autre nid, trois Stegodyphus sur quatre sont détruits par une cétoine dès le premier jour de son introduction.
- Il semble donc bien prouvé que la cétoine Pseudospilophorus plagosus est capable d’attaquer et de détruire l’araignée sociale Stegodyphus mimosarum. Ce comportement est toutefois certainement facultatif et il est probable que, le plus souvent, la cétoine vit, comme d’autres espèces du même genre, dans les nids de petits oiseaux où larves et adultes se nourrissent des débris et déjections.
- L. C.
- Le Ciel en
- Février 1962
- SOLEIL : du Ier février au Ier mars (à oh) sa déclinaison croît de —I7°i8' à —7°5C et la durée du jour de 9h23m à ioh53m ; diamètre apparent le Ier (à oh) = 32/3o",9, le 28 (à 2411) = 32/2o",i. — LUNE : Phases : N. L. le 5 à ohiom, P. Q. le 11 à I5h43m, P. L. le 19 à I3hi8m, D. Q. le 27 à I5h50m ; périgée le 5 à 22h, diamètre app. 33^21" ; apogée le 20 à 2ih, diamètre app. 29'24". Principales conjonctions : avec Mars le 4 à 311, à 2°3o' N ; avec Saturne le 4 à 6h, à i°4i/ N ; avec Mercure le 5 à oh, à 3029' S ; avec Vénus le 5 à 4h, à i02O/ N ; avec Jupiter le 5 à 5h, à 0039' N ; avec Uranus le 19 à 5h, à o°io' N ; avec Neptune le 25 à I4h, à 3°35/ N. Principales occultations : le 10, de p. Baleine (mag. 4,4), immersion à 2ih8m, 1 ; le 12, de 75 Taureau (mag. 5,3), immersion à i8h38m,9, de 264 B Taureau (mag. 4,8), immersion à I9h50m,2 et d’Aldébaran (mag. 1,1), immersion à 22h56m,o et émersion le 13 à ohom,9 ; le 14, de 119 Taureau (mag. 4,7), immersion à oh38m,o, de 120 Taureau (mag. 5,5), immersion à lh8m,2 et de 71 Orion (mag. 5,2), immersion à I7h49m,7 ; le 17, de Ç Cancer (mag. 5,1), immersion à ih56m,2 ; le 23, de 80 Vierge (mag. 5,8), émersion à 23h56m,9. — PLANÈTES : Mercure, devient étoile du matin dans la seconde moitié du mois, mais difficile pour nos latitudes; Vénus, Mars et Jupiter noyés dans le rayonnement solaire sont invisibles ; Saturne, pâle étoile du matin dans l’aube dans les derniers jours du mois ; Uranus, très proche de Régulus est visible toute la nuit, le 15, position : ioN”1 et -f- I2°42/, diamètre app. 4",o, mag. 5,7 ; Neptune, très voisine de p Balance se lève vers minuit, le 15, position : I4h46m et — I4°n, diamètre app.
- 2,,,4, mag. 7>8. — ÉTOILES VARIABLES : minima observables d’Algol (2m,2-3m,5) le 12 à 2h,8, le 14 à 23,h7, le 17 à 20h,5, le 20 à 1711,3 ; minima de (3 Lyre (3m,4-4m,3) le 3 à 2h,7, le 16 à lü,l, le 28 à 23E4 ; maximum de R Aigle (5m,7-i2m,o) le 20. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.) : le Ier : 8h52mi4s, le 11 : 9ïl3im40s, le 21 : iohnm5s, le 3 mars : ioh50m3is.
- Phénomènes intéressants. — Surveiller l’apparition de taches et de facules à la surface du Soleil. — Le 4, éclipse totale de Soleil, invisible en France, commencement à 2ih35m, maximum le 5 à ohi3ra, fin le 5 à 2h5im, grandeur : 1,021. — Lumière cendrée de la Lune, le soir, du 6 au 10. — Le 19, éclipse de Lune par la pénombre, invisible en France, commencement à iih8m, milieu à I3h4m, fin à i5hom, grandeur : 0,612. — Le 12, ne pas manquer l’occultation d’Aldébaran. — Le Ier, Uranus en conj. avec Régulus à I7h à o°2i/ N, profiter de ce rapprochement pour reconnaître la lointaine planète. — Observer et reconnaître les belles constellations d’hiver ; le Taureau avec Aldébaran et les Pléiades, Orion, avec Bételgeuse, Rigel et la grande nébuleuse, le Cocher avec Capella, les Gémeaux avec Castor et Pollux, le Petit Chien avec Procyon, le Grand Chien avec Sirius.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- 45
- p.45 - vue 49/551
-
-
-
- LES L I V
- NOUVEAU X
- Annual Report of the Board of Regents of the Smithsonian Institution for the year ended June 30, 1959- 1 vol. 15,5 X 23,5; 693 p., nombr. ill. Publication 4392. Smithsonian Institution, Washington, i960.
- Les rapports annuels de la grande institution savante du nouveau monde ne se bornent pas à rendre compte de l’activité de ses divers départements. On y trouve adjoints un certain nombre d’articles originaux de grande valeur. C’est ainsi que l’on notera entre autres avec intérêt un article de Léo Goldberg sur le rôle des satellites artificiels dans les études d’astronomie, une étude singulière sur les mirages par James H. Gordon, un essai sur la nature rythmique des êtres vivants par Frank A. Brown Jr, des considérations sur la physiologie des espèces animales des déserts chauds par E. B. Edney, un bel article de G. P. Dementiev, de l’Académie des Sciences de l’U. R. S. S., sur la protection de la faune dans l’Union soviétique, des comptes rendus de recherches de virologie, de nombreux rapports de fouilles préhistoriques et un essai très attachant sur la technologie sumérienne dû à Ida Bobula.
- Tables of values
- 2 1
- 1 +
- of the function W(^) dt I for complex
- „V
- -\/rrj o
- argument, par V. N. Faddeyeva et N. M. Terent’ev. Traduit du russe par D. G. Fry et B. A. Hons. Édité par V. A. Fok. i vol. 21 x 26, 280 p., 2 fig. Pergamon Press Ltd, Oxford, Londres, New York, Paris, 1961. Prix, relié : 105 sh.
- La fonction w(z) joue un rôle fondamental en physique théorique : propagation des ondes électromagnétiques, mécanique quantique, spectro-scopie et astrophysique. Cet ouvrage donne les valeurs de cette fonction avec une précision de 1 à 2 unités de la sixième décimale, pour tout point du plan complexe dans le cadrant x ^ .0, y ^ .0. On ne peut que féliciter les Pergamon Press
- de leur effort pour mettre à la portée des chercheurs du monde occidental, d’importants ouvrages comme celui-ci.
- Principes de Radiocristallographie, par Jean Barraud. 1 vol. 16,2 x 24,2, 236 p., 120 fig., 8 pl. hors-texte. Masson et Cie, Paris, i960. Prix : 42 NF.
- Très intéressant ouvrage, destiné non seulement au grand public scientifique soucieux de se tenir au courant, mais aussi aux chercheurs désireux d’aborder eux-mêmes des problèmes pratiques, et se proposant de leur exposer la diffraction des rayons X par les milieux cristallins et paracristallins, ainsi que ses applications. Après un exposé succinct des éléments de cristallographie et d’optique ondulatoire, indispensables à la compréhension des méthodes de radiocristallographie présentées, l’auteur décrit de nombreuses applications de ces méthodes tandis que, dans une quatrième partie, il étudie la structure des acides nucléiques, des protéines et des virus et considère les conséquences biologiques qui s’en déduisent. — H. G.
- Étude et détermination des systèmes hydrauliques, par M. Guillon. i vol. 16 X 25, 452 p., nomb. figures, 14 abaques. Dunod, Paris, 1961. Prix, relié : 78 NF.
- L’étude des appareils hydrauliques est réputée difficile en raison surtout du manque de linéarité des lois qui les régissent. Il est rare, cependant, que ces lois ne puissent être linéarisées de façon simple et valable autour d’un point de fonctionnement. A partir de cette considération, l’auteur a divisé son exposé en deux parties principales qui correspondent aux deux stades successifs que doit comporter l’étude d’un système hydraulique : une irc partie, intitulée étude statique, qui traite de la détermination des états de fonctionnement permanent, une 2e partie, baptisée étude dynamique, qui traite de l’étude du comporte-
- ment des systèmes hydrauliques autour d’un point de fonctionnement permanent, c’est-à-dire essentiellement des problèmes de stabilité, rapidité de réponse et précision. La 3e partie propose au lecteur quelques problèmes qui lui permettent d’éprouver les méthodes exposées. Nombreux exemples numériques. Signalons enfin une série d’abaques dont certains sont facilement reproductibles, puisque présentés sur feuilles de calque séparées, encartées dans la couverture.
- Principles of semiconductor device operation,
- par A. K. Jonscher. i vol. 15 X 23, vm-168 p., nombr. fig. G. Bell and sons Ltd, Londres, i960. Prix, relié : 30 sh.
- Le titre de cet ouvrage semble mal choisi. Il ne s’agit pas d’un nouvel exposé venant s’ajouter à la liste déjà très longue des livres consacrés aux semi-conducteurs mais d’une étude détaillée d’un aspect trop souvent négligé, à savoir le transport et la décroissance des porteurs majoritaires. Les lois du transport sont traitées de façon complète ainsi que la théorie des jonctions aux densités de courant élevées. Le dernier chapitre est consacré aux milieux hétérogènes.
- L’énergie nucléaire, par Yves Chelet. i vol.
- 12 X 18, 192 p., 100 photos et schémas. Collection Le Rayon de la Science. Editions du Seuil, Paris, 1961. Prix : 4,50 NF.
- Un effort remarquable a été fait par l’auteur pour survoler un domaine difficile et généralement peu abordable aux non-initiés. Bien des phénomènes (ainsi que les termes correspondants) pourront être compris sans trop d’effort. Un résumé historique et un index contribuent à la clarté et l’intelligibilité de l’ouvrage.
- Le péril atomique, par Nicolas Vichney. i vol.
- 13 X 19,5, 288 p. Collection Les grands problèmes, Flachette, Paris, 1961. Prix : 9 NF.
- Physicien et journaliste bien connu 5 > 1:
- Nouvelle collection - Nouvelle formule
- applications des sciences nucléaires
- publiée sous la direction du Professeu
- les auteurs :
- des enseignants spécialistes des questions nucléaires, des ingénieurs exerçant leur activité professionnelle dans les centres d’études nucléaires ou établissements analogues.
- les lecteurs :
- ingénieurs, techniciens, médecins, pédagogues, étudiants, ainsi que tout honnête homme intéressé par l’utilisation de l’énergie nucléaire.
- M. LEFORT, Faculté des Sciences de Paris
- but :
- tenir au courant un large public du développement des applications nucléaires et des bouleversements économiques qu’elles peuvent provoquer.
- agencement :
- chaque auteur s’est efforcé d’écrire un livre où le spécialiste trouvera un grand nombre de renseignements précieux et où le non-spécialiste pourra aisément s’initier à ces techniques nouvelles.
- Vol. I : M. LEFORT
- LA LIBÉRATION DE L’ÉNERGIE NUCLÉAIRE
- 120 pages, 18 figures.................................................................. 9 NF
- Vol. 2 : Dr R. DEVORET, Institut du Radium, Paris
- DANGERS DES RADIATIONS ATOMIQUES
- 148 pages, 10 fgures, 24 tableaux...................................................... Il NF
- Vol. 3 : M. de VISSCHER & C. BECKERS, Université de Louvain
- LES ISOTOPES RADIOACTIFS EN MÉDECINE
- 168 pages, 31 figures.................................................................. 13 NF
- Autres volumes en préparation
- GAUTHIER-VILLARS & Cie Éditeur
- Paris
- 46
- p.46 - vue 50/551
-
-
-
- LA GRAVURE
- Y. BRAYER. — Coucher de soleil en Camargue.
- Lithographie 7 couleurs. 220 Ex. 100 NF.
- Tous nos tirages sont limités, numérotés et signés par les artistes.
- Prix : de 45 à 250 NF
- CATALOGUE N SUR DEMANDE
- EXPOSITION PERMANENTE
- 41, Rue de Seine, PARIS VIe DANton 05-44
- OFFREZ des LITHOGRAPHIES ORIGINALES
- en couleurs des meilleurs peintres de notre époque, tels que BUFFET, CARZOU, HUMBLOT, L. FINI, LURÇAT,
- LARS-BO, etc...
- J. THEVENET. — La Salute.
- Lithographie 7 couleurs. 220 Ex. 75 NF
- sérieux de ses informations, l’auteur sYst livré, auprès des spécialistes, à une enquête approfondie et il a réuni une solide documentation. Restait à en ordonner les éléments et à fournir au lecteur les bases scientifiques et techniques indispensables ; c’est ce qu’il a fait avec beaucoup de clarté et avec talent, en se bornant à l’essentiel. Les premiers chapitres sont naturellement consacrés aux armes nucléaires, à leurs dégâts, à leurs retombées, à la détection des explosions, aux perspectives d’une guerre atomique. Viennent ensuite les réacteurs et leurs dangers, les effets des radiations sur la matière vivante, leur action à long terme sur le patrimoine génétique, etc. Il y a des risques inacceptables et des risques acceptables, que l’auteur s’attache à peser judicieusement, qui ne sauraient être les mêmes pour les techniciens atomistes et pour toute une population. Sur tout cela il importe d’être exactement renseigné, car il serait aussi préjudiciable de surestimer démesurément le danger que de le méconnaître.
- Nouveau Traité de Chimie minérale, publié sous la direction de Paul Pascal, de l’Institut. Tome XIII : Oxygène, ozone, oxydes, eau oxygénée, la combustion, soufre, sélénium, tellure, polonium, par R. Gay, M. Haïssinsky, J. Hoarau, Mlle M.-L. Josien, M. Lucquin, H. Lumbroso, P. Mondain-Monval, A. Pacault, P. Pascal, R. Pointeau, G. Sourisseau. 2 vol. 17,5 X 26, 2 148 p., 312 fig., 302 tableaux. Masson, Paris, i960. Prix, les deux fascicules : brochés, 310 NF ; cartonnés toile, 330 NF.
- Comme le souligne le professeur Pascal dans son introduction, l’oxygène joue en chimie un rôle directeur unique, déjà mis en évidence par Lavoisier et que l’accroissement de nos connaissances n’a fait qu’amplifier. La gamme de ses types de liaison avec les autres éléments, depuis l’organisation purement ionique jusqu’à l’association covalente ou coordinative, explique la multiplicité de ses combinaisons minérales et organiques. Son rôle prédominant dans la structure solide a justifié la rédaction d’un chapitre
- spécial sur la structure cristalline des oxydes et des composés oxygénés. Plus de 50 pages ont été consacrées à la combustion (explosion, déflagration, détonation) et au total l’oxygène se voit consacrer 654 pages. Le soufre a nécessité une place encore plus grande, avec 975 pages. Il en résulte que ce tome XIII consacré au sous-groupe b du groupe VI des éléments ne pouvait être scindé en deux fascicules indépendants et que les deux volumes comportent une table des matières unique. Les éléments du sous-groupe montrent d’ailleurs une gradation régulière de leurs caractères physicochimiques, gradation qui s’étend à beaucoup de leurs composés. En beaucoup de cas, elle peut être mise en rapport avec leur structure électronique, et la chimie devient ainsi une véritable science explicative. Près de 15 000 références bibliographiques.
- ----- A NOS LECTEURS ...............
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- The radiochemistry of vanadium, par J. L.
- Brownlee. 1 vol. 17,5 X 24,5, 76 p., 13 fig. National Academy of Sciences, Washington,
- 1960. Vente : The Office of Technical Services, Department of Commerce, Washington 25. Prix : 0,75 dollar.
- Nouveau volume d’une collection destinée à passer en revue la radiochimie des différents éléments. A coté de méthodes spécifiques de la chimie nucléaire, cette monographie apporte une foule de renseignements sur la chimie du vanadium : complexes, composés insolubles, extraction par les solvants organiques, comportement sur les résines échangeurs d’ions, etc. Importante bibliographie.
- The radiochemistry of mercury, par J. Roes-mer et P, Kruger. i vol. 17,5 X 24,5, 49 p., 1 fig. National Academy of Sciences, Washington, i960. Vente : The Office of Technical Services, Department of Commerce, Washington 25. Prix : 0,50 dollar.
- Monographie sur la chimie du mercure en solution axée tout particulièrement sur les applications radiochimiques. Toutefois, cet ouvrage présente un grand intérêt pour l’analyste qui y trouvera de multiples renseignements très à jour sur les réactions du mercure en solution. Importante bibliographie.
- Namenreaktionen der organischen Chemie,
- par H. Krauch et W. Kunz, i vol. 23 X 15, 592 p. Dr Alfred Hüthig Verlag, Heidelberg,
- 1961. Prix : relié toile, 46 DM.
- Depuis un certain nombre d’années, l’habitude de désigner les réactions chimiques, même peu usitées, par le nom de leur auteur s’est répandue dans la littérature scientifique. En raison du développement de cette fâcheuse tendance, il devenait nécessaire d’élaborer un dictionnaire des noms de réactions. C’est le but que se propose cet ouvrage. Plus de 500 réactions importantes de la chimie organique et de la biochimie classées par
- 47
- p.47 - vue 51/551
-
-
-
- ordre alphabétique sont décrites ainsi que leurs applications, La présentation claire des formules est faite en tenant compte des mécanismes de réactions actuellement admis. Plus de 5.000 références bibliographiques (dont certaines de i960). — R. P. -
- Léonard de Vinci, dessins anatomiques, présentés par Pierre Huard. i vol. 19,5 X 27, 208 p., 80 pl. Roger Dacosta, Paris, 1961. Prix, cart. : 58 NF.
- On trouvera dans cet ouvrage, dû à un spécialiste chevronné de l’histoire de la médecine, un choix heureux de dessins anatomiques dont certains n’avaient jamais été mis à la disposition du public. Anatomistes, artistes, historiens de la pensée et de la civilisation, simples curieux pourront ainsi connaître une des facettes multiples de ce génie hors de pair que fut Léonard de Vinci. On admirera l’exactitude du dessin, compte tenu des difficultés auxquelles se heurtait encore la dissection à cette époque. Les planches sont précédées d’une trentaine de pages de texte consacrées à la biographie de Léonard, à ses précurseurs anatomiques et artistiques, au but et surtout au bilan de ses recherches. Ouvrage matériellement irréprochable qu’on peut recommander sans aucune réserve. —- L. T.
- Colloque sur la protection acoustiqueTdes cultures et autres moyens d’effarouchement des oiseaux, par René-Guy Busnel et Jacques Giban. 1 vol. 16,5 X 24,5, 246 p., 116 illustrations et diagrammes. Institut national de la Recherche agronomique, Paris, i960. Prix : ' 25 NF.
- De tout temps, on a cherché à éloigner des cultures les oiseaux dont le pullulement est nuisible, à l’aide de moyens d’effarouchement visuels et auditifs, plus rarement de substances répulsives. On pouvait en attendre de meilleurs résultats en substituant à l’empirisme une étude scientifique.
- Cette étude a été commencée en divers pays. En France les travaux les plus remarquables, principalement sur l’effarouchement auditif, ont été réalisés par le Laboratoire des petits vertébrés (M. Giban) et par le Laboratoire de physiologie acoustique de Jouy-en-Josas (M. Busnel) (voir t Recherches acoustiques sur les Corbeaux. La Nature, février 1959, p. 50). Ce livre donne le compte rendu des réunions tenues à Jouy-en-Josas les 26 et 27 novembre 1958. Des spécialistes allemands, britanniques, néerlandais, suisses, ont confronté leurs expériences avec celles des chercheurs français.
- Fish Captures, par Ronnie Balls. i vol. 12 X 18, 144 p., 14 fig., 2 pl. hors texte. Edward Arnold, Londres, 1961. Prix, relié : 7 sh 6 d.
- Ce petit livre donne une description rapide de différentes techniques de la pêche, vues non seulement sous l’angle utilitaire, mais également sous celui de la géographie et de l’histoire. C’est ainsi que les moyens traditionnels sont confrontés avec les écho-sondeurs, les pompes à poissons et les différents procédés mécaniques utilisés par les navires modernes de pêche.
- L’Année ferroviaire 1961. 1 vol. 14 x 23, 320 p., fig. et photos h. t. Plon, Paris, 1961. Prix : 12,03 NF.
- Cette édition annuelle est toujours aussi utile : excellents exposés sur l’électrification, le tourisme ferroviaire, la MIFERMA, la coopération européenne. Habituels renseignements précis en 2e partie sur les réseaux ferrés, leur trafic, le matériel, etc.
- Charles Nicolle, par Germaine Lot. Avant-propos de Jean Rostand, de l’Académie française. 1 vol. 13,5 X 16, 224 p., photos hors texte. Collection Savants du monde entier, Editions Seghers, Paris, 1961. Prix : 6 NF.
- Charles Nicolle est universellement connu pour avoir identifié le pou comme vecteur du typhus
- exanthématique et avoir ainsi contribué à sauver des centaines de milliers de vies humaines. Mais-grand médecin et grand épidémiologiste, ce fut aussi un penseur scientifique et un écrivain de grande classe, un homme plein de courage et de modestie, une âme d’élite. Ce sont tous ces aspects de cette puissante et attachante personnalité que Mme Germaine Lot fait revivre pour nous, avec compétence et avec talent, nous introduisant même pour ainsi dire dans l’intimité du maître, montrant à l’œuvre aussi quelques membres de sa famille, tous artistes ou savants de premier ordre. Ce bon et charmant livre se clôt par un choix de textes de Charles Nicolle, en qui beaucoup découvriront avec surprise un homme de lettres qui, pour ne point atteindre à la taille de l’homme de sciences, en valait certes plus d’un autre...
- Les bêtes, nos amies : Sa Majesté le Chat,
- par le docteur Fernand Méry, de l’Académie
- vétérinaire. 1 vol. 11,5 X 18, 154 p., 20 photos
- hors texte. Editions Séquoia, Paris-Bruxelles,
- 1961. Prix : 3 NF.
- Le célèbre ami des animaux qu’est le docteur Méry ne sacrifie pas à un anthropomorphisme désuet, et son amitié ne l’aveugle pas. Bien qu’en grande partie anecdotique, et révélant à chaque page une sensibilité de bon aloi, ce livre est fondé sur une science incontestable et une sérieuse érudition. Histoire des rapports de l’homme et du chat, psychologie du chat, ses différentes races, son alimentation, ses maladies, sa reproduction, autant de chapitres écrits dans un style alerte, qui pourront retenir même l’attention des naturalistes.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- ARCHÉOLOGUE SENIOR (ARCHÉOLOGIE HISTORIQUE)
- $ 7,620-$ 8,700
- Ministère du Nord canadien et des Ressources nationales LOUISBOURG, NOUVELLE-ÉCOSSE CANADA
- Le titulaire de cet emploi devra être chargé de l’ensemble des travaux archéologiques nécessaires à l’œuvre importante de restauration exécutée au parc historique national de la forteresse de Louisbourg.
- Les qualités exigibles sont les suivantes :
- — au moins la maîtrise en archéologie ;
- — plusieurs années d’expérience de la conduite de recherches archéologiques, y compris les fouilles de ruines historiques ;
- — connaissance suffisante de l’anglais pour remplir les fonctions de l’emploi.
- Pour obtenir d’autres renseignements et les formules de demande, veuillez écrire IMMÉDIATEMENT à la COMMISSION DU SERVICE CIVIL, à OTTAWA (ONTARIO).
- Prière de demander la Circulaire d’information
- 61-2430.
- ARCHÉOLOGUE (ARCHÉOLOGIE HISTORIQUE)
- $ 5,940-$ 7,140
- Ministère du Nord canadien et des Ressources nationales LOUISBOURG, NOUVELLE-ÉCOSSE CANADA
- Le titulaire de cet emploi devra être chargé de l’ensemble des travaux archéologiques nécessaires à l’œuvre importante de restauration exécutée au parc historique national de la forteresse de Louisbourg.
- Les qualités exigibles sont les suivantes :
- — grade universitaire avec spécialisation en archéologie ;
- — environ quatre années d’expérience de la conduite de recherches archéologiques, y compris les fouilles de ruines historiques ;
- — connaissance suffisante de l’anglais pour remplir les fonctions de l’emploi.
- Pour obtenir d’autres renseignements et les formules de demande, veuillez écrire IMMÉDIATEMENT à la COMMISSION DU SERVICE CIVIL, à OTTAWA (ONTARIO).
- Prière de demander la Circulaire d’information
- 61-2433.
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : ier trimestre 1962, k° 3957. — Imprimé en France.
- IMPRIMERIE BARNÉOUD S. A., LAVAL, N° 4067. -- I-I962.
- 48
- p.48 - vue 52/551
-
-
-
- Programme Ranger : faire un trou dans la Lune
- par Nicolas Vichney
- L’étude de la Lune a constitué jusqu’ici le point faible du programme spatial américain. Alors que les soviétiques réussissaient à mettre à leur actif le premier impact sur notre satellite, puis à faire prendre par leur Station interplanétaire automatique (M. A. S.) des vues de sa face invisible, les spécialistes de l’Agence pour l’Aéronautique et l’Espace (N. A. S. A.) n’inscrivaient à leur palmarès aucun succès dans ce chapitre de l’Astronautique.
- Ce n’est cependant pas faute d’avoir négligé la question. Leur effort en effet a comporté deux phases. D’abord ils ont voulu utiliser comme véhicule porteur des fusées spatiales de la « seconde génération » : des I. R. B. M. (missiles balistiques de portée intermédiaire) Thor et Jupiter, surmontées d’engins spécialement mis au point pour cette entreprise. Mais ces fusées n’ont pu communiquer à leur charge utile des vitesses suffisantes, et quand l’une d’elles y est enfin parvenue, le pointage a laissé à désirer : l’engin qu’elle a projeté dans l’espace est passé assez loin au large de sa cible.
- Une grande publicité a entouré cette série d’essais à laquelle on a mis un terme au printemps de 1959. Si elle avait été couronnée de succès, le prestige américain s’en serait trouvé renforcé mais il est douteux que notre connaissance de la Lune en eût été sensiblement accrue : les charges utiles que l’on destinait à notre satellite étaient très faibles et, si perfectionnés qu’ils aient été, les premiers « Pionniers » n’emportaient à leur bord qu’un nombre très réduit d’instruments scientifiques.
- La seconde série d’essais, en revanche, aurait certainement permis de recueillir des données intéressantes, mais elle est passée presque inaperçue. Cela tient à ce que les spécialistes de la N. A. S. A. ont cherché alors à utiliser des fusées spatiales de la « génération intermédiaire » : il s’agissait de véhicules comprenant comme premier étage l’I. C. B. M. (missile balistique de portée intercontinentale) Atlas, et comme second étage l’engin Able déjà employé lors de la série précédente. Aussi avait-il été possible de concevoir des charges utiles sensiblement plus lourdes et, grâce au système de guidage perfectionné dont est muni Atlas, de prévoir des trajectoires particulièrement savantes. Les soviétiques avaient entre temps réussi à toucher la Lune et moins qu’à renouveler cet exploit, dont l’intérêt scientifique n’est d’ailleurs pas considérable, les promoteurs de cette seconde série d’essais se proposaient de faire graviter leur engin autour de notre satellite.
- Mais l’Atlas ne se montra pas digne de la confiance qu’on lui faisait : une charge utile notamment fut détruite sur la rampe de lancement et une fusée porteuse explosa quelques instants après sa mise à feu. Devant les défaillances du véhicule porteur et l’importance des délais qu’imposait la fabrication d’autres charges utiles, il fut décidé de ne pas pousser plus avant ce genre de tentative. C’est que déjà une troisième série d’essais était prévue qui devait, estimait-on, réunir toutes les conditions pour être couronnée de succès et permettre des observations scientifiques très poussées : c’était le « programme Ranger ».
- Expériences standardisées
- La conception du programme Ranger a été dominée par le désir de standardiser les expériences spatiales. Jusqu’alors les charges utiles étaient construites « à la pièce » ; leur agencement variait d’un tir à l’autre, en fonction des observations auxquelles on comptait procéder. De même, les véhicules porteurs étaient de types très divers et, conséquence inévitable, on ne lançait qu’un nombre réduit d’exemplaires de chaque type. Au contraire, il a été entendu dès le départ que le nouveau programme « lunaire » serait réalisé sous le signe de la série. Trois faits soulignent cette évolution.
- D’abord il a été entendu que le programme Ranger comprendrait cinq tirs : les deux premiers serviraient uniquement à éprouver le matériel et à étudier comment fonctionnait la nouvelle « procédure » imaginée pour lancer les engins en direction de la Lune. En second lieu, le véhicule porteur devait être constitué de fusées ayant déjà eu l’occasion de faire leurs preuves. Ce seraient des fusées spatiales de la « troisième génération », caractérisées par l’emploi d’un second étage de type « avancé ». En l’occurrence il s’agirait d’une fusée qui comprendrait comme premier étage un Atlas perfectionné surmonté d’un engin à hautes performances et déjà éprouvé, puisqu’il a servi à lancer tous les satellites de la série des Discoverer : l’Agena B. Enfin, la charge utile, qui a donné son nom à l’ensemble du programme, serait non seulement construite à cinq exemplaires, mais aussi conçue de manière à être utilisable pour d’autres expériences spatiales.
- Le Ranger est sans doute le plus compliqué et le mieux équipé des engins spatiaux qui ont déjà été construits à
- 49
- p.49 - vue 53/551
-
-
-
- p.50 - vue 54/551
-
-
-
- des fins civiles outre-Atlantique, et son entrée en service marque incontestablement une étape importante dans le programme spatial américain. Conçu et mis au point au Jet Propulsion Laboratory, à Pasadena (Californie), le Ranger présente une silhouette révolutionnaire : il revêt la forme d’une tour reposant sur un support hexagonal sur lequel s’articulent d’une part deux volets triangulaires et d’autre part une antenne parabolique. L’ensemble mesure 3,70 m de long et 1,70 m de large quand il est installé au faîte de l’Atlas-Agena B (fig. 2). Mais une fois l’engin livré à lui-même, les deux volets triangulaires, qui étaient repliés contre l’engin à la manière des ailes d’un papillon au repos, se disposent perpendiculairement à la plus grande dimension de l’engin, et l’antenne parabolique, couchée contre la base hexagonale, s’oriente de façon que son axe de révolution devienne en gros parallèle au plan des volets (fig. 1). Alors son envergure est de 5,70 m environ et sa longueur de 4,30 m. Pour un des techniciens qui ont travaillé à sa construction, il évoque « une Tour Eiffel munie de deux petites ailes et traînant derrière elle un parapluie »...
- Naturellement, la partie la plus importante du Ranger est le tronc hexagonal. Au Jet Propulsion Laboratory, on la qualifie de bus, et cette terminologie explique bien sa destination. C’est là que se trouvent rassemblés tous les dispositifs essentiels au bon fonctionnement de l’engin. Quant aux appareils scientifiques et aux équipements destinés à procéder aux observations et aux expériences projetées, ils se trouvent en principe rejetés vers la superstructure. Ainsi on pourra les modifier, compte tenu des objectifs poursuivis par les hommes de science, sans toucher en rien au bus : celui-ci doit donc remplir en quelque sorte le rôle de plate-forme et amener à pied d’œuvre les instruments et appareillages là où ils doivent entrer en action.
- Le rôle du « contrôleur »
- Le bus comporte pour l’essentiel six boîtes fixées sur les côtés de l’hexagone ; chacune d’elles contient des dispositifs électroniques. Celui de ces dispositifs qui remplit le rôle le plus important est sans doute le « contrôleur ». Il a pour tâche de déterminer, en se référant à une « base temps », le moment où les multiples appareillages dont le bus est muni doivent entrer en jeu, et il constitue donc, d’une certaine manière, 1’ « intelligence » de l’engin. Par exemple il a pour mission de régler le jeu des divers mécanismes d’orientation et de stabilisation qui comportent des « orienteurs » (sensors) destinés à capter le rayonnement du Soleil ou de la Terre et à orienter l’engin par rapport à ces corps célestes, par le jeu d’émetteurs de gaz comprimé. C’est le contrôleur également qui détermine l’instant où
- Fig. 1. — Le premier Ranger dressé dans le hall de montage du Jet Propulsion Laboratory, à Pasadena.
- On distingue au centre de l’appareil le « bus » porté par un cadre hexagonal et les deux volets porteurs de cellules photoélectriques. Tout en haut de cet engin, uniquement destiné à l’étude de l’espace, un magnétomètre à vapeur de rubidium, surmonté de l’antenne omni-directionnelle, destinée à servir seulement pendant la première phase du parcours. L’antenne parabolique directionnelle à haut gain se trouve au bas de l’appareil ; ici elle occupe une position intermédiaire entre celle qu’elle aura durant la phase du lancement et celle qu’elle occupera lorsqu’elle sera en service. La plus grande partie de l’engin est recouverte d’aluminium poli ou peint en blanc pour faciliter les échanges thermiques.
- Le coût de cet engin peut être évalué à environ 25 millions de dollars.
- (Photo U. S. L S.).
- l’alimentation en énergie peut être assurée par les cellules photoélectriques disposées sur les deux volets triangulaires (il y a 4 340 cellules par volet) et où il est possible, par conséquent, de mettre hors circuit la batterie argent-zinc de 41,7 kg dont le bus est aussi muni. De même, le contrôleur assure au moment voulu le débranchement de l’antenne omni-directionnelle située tout au haut de la superstructure (que l’on utilise durant la première phase du vol) et l’entrée en service de l’antenne parabolique à haut gain.
- Le poids du bus est assez considérable : sur les 337 kg que pèsent les premiers Rangers, 121 kg vont à l’équipement électronique dont la plus grande partie est concentrée dans l’hexagone, et 25 kg au dispositif de captage de l’énergie solaire. Quant à la structure métallique de l’ensemble, elle atteint 119 kg. Le tout naturellement a été soumis à des épreuves sévères qui ont pu être d’autant mieux conduites que toute une série d’engins du même type devaient être construits. On a donc pu monter d’abord un prototype, le PTM (Proof Test Model) qui a été placé dans des conditions équivalentes à celles que les bus et les structures connaîtront dans l’espace : vibrations, variations de température, vide poussé, etc.
- Une « procédure » savante avec « orbite de parking »
- Mais le programme Ranger comporte, avec la production en série, une autre innovation qui fera date : une savante « procédure » de lancement. Identique naturellement pour tous les tirs, elle comporte les phases suivantes :
- i° 280 secondes après la mise à feu de la fusée porteuse, l’Agena B, à la pointe duquel est adapté le Ranger, se sépare du premier étage ; le second étage décrit alors une trajectoire légèrement inclinée (150) sur l’horizon ;
- 20 Au lieu de poursuivre dans cette direction, l’Agena B pivote de façon que sa trajectoire devienne parallèle à l’horizon local ;
- 30 Le moteur de l’engin est allumé ; fonctionnant durant deux minutes et demie, il lui confère, ainsi qu’au Ranger, la vitesse de satellitisation ;
- 4° Le moteur est alors arrêté mais, devenu un satellite, l’Agena B toujours porteur du Ranger poursuit son vol sans perdre de sa vitesse ; la trajectoire est alors à peu près circulaire et se situe à quelque 150 km du sol terrestre (orbite dite de parking) ;
- 50 Le moteur de l’Agena B, de nouveau allumé, communique à l’engin et au Ranger une vitesse plus élevée mais légèrement inférieure à la vitesse de libération ; la trajectoire décrite par l’Agena B et le Ranger autour de la Terre se trouve ainsi modifiée une seconde fois et ils commencent à décrire une orbite très allongée en direction de la Lune ;
- 6° Un peu plus de deux minutes après avoir ainsi pris de la vitesse et modifié sa trajectoire, l’Agena B éjecte le Ranger qui est alors livré à lui-même ;
- 70 Aussitôt après avoir libéré la charge utile, l’Agena B effectue une rotation de x8o° sur lui-même et allume des rétro-fusées ; il s’engage ainsi dans une trajectoire qui l’éloigne rapidement du Ranger.
- Cette nouvelle méthode de lancement qui repose sur l’usage d’une « orbite de parking » n’est pas sans rappeler celle que les soviétiques ont déjà employée pour lancer en
- 51
- p.51 - vue 55/551
-
-
-
- , antenne
- omni-directionnelle
- télescope pour l'observation de la raie Lyman a
- détecteur de poussières cosmiques
- volet couvert de cellules photo-électriques
- RANGER
- émetteur de gaz comprimé pour la stabilisation
- AGENA-B
- analyseur
- électrostatique
- antenne à haut gain
- ATLAS
- Fig. 3. — Le premier Ranger et ses principaux organes.
- Sur la gauche de l’appareil se trouve un dispositif spécial qui doit permettre de savoir dans quelle mesure les conditions qui régnent dans l’espace interplanétaire agissent sur les propriétés des métaux. Les techniciens pensent en effet que les surfaces métalliques ont alors tendance à se coller les unes aux autres ; pour le vérifier, ils ont monté un dispositif qui doit permettre de mesurer les forces de friction qu’il faut vaincre pour faire agir dans l’espace des commandes mécaniques. On notera qu’un analyseur du champ électrostatique est porté par un long bras, replié contre l’engin durant le lancement. Parmi les autres appareils de mesure citons : six détecteurs constitués de cellules au sulfure de cadmium pour compter les particules d’énergie moyenne ; une chambre d’ionisation intégratrice pour la mesure du rayonnement cosmique primaire ; un détecteur du taux d’impact des poussières cosmiques, comprenant une capsule de magnésium, et sensible aux étincelles lumineuses produites par les impacts ; des compteurs à scintillation enregistrant l’énergie des rayons X émis par le Soleil ; un magnétomètre à vapeur de rubidium détectant la direction et l’intensité du champ magnétique interplanétaire ; etc. Autres explications
- dans le texte.
- (Document U. S. I. S.).
- Fig. 2. — Le Ranger sur son véhicule porteur.
- Le premier étage est une fusée Atlas perfectionnée — poussée au décollage : 180 tonnes —, le second étage une fusée Agena B. Tout en haut, le Ranger est recouvert de son cône protecteur, ici représenté transparent pour laisser voir l’engin. On voit que les deux volets porteurs de cellules photoélectriques sont repliés le long du grand axe de l’engin. Ce cône sera largué quand le Ranger aura quitté l’atmosphère.
- {Document U. S. I. S.).
- direction de Vénus leur seconde Station interplanétaire automatique : déjà avant de diriger leur engin vers la planète, les Russes avaient fait séjourner leur Station sur une orbite, ce qui avait fait dire, à l’époque, qu’ils étaient capables de lancer un engin interplanétaire à partir d’un satellite. Mais il ne semble pas qu’ils aient pu éviter que cette Station ne fût suivie à quelque distance par le dernier étage de la fusée porteuse.
- Encore que l’on ne connaisse pas le détail de la « procédure » imposée à l’engin et à la charge utile des soviétiques,
- p.52 - vue 56/551
-
-
-
- il apparaît que la méthode conçue par les Américains est plus élaborée. Ses avantages, en tout cas, sont les mêmes que ceux de la procédure soviétique : le recours à l’orbite de parking donne la possibilité, en choisissant le moment de la remise à feu du dernier étage de la fusée porteuse, de tenir un compte très exact des caractéristiques de la trajectoire qui leur a été imprimée par le premier étage. On peut donc escompter une plus grande précision des tirs qui se dérouleront ainsi en deux étapes. Aussi, compte tenu de la meilleure précision dont bénéficient déjà les I. C. B. M. américains, il n’est plus vain d’imaginer qu’ils puissent pointer un engin vers la Lune et faire mouche. Mais cette méthode de l’orbite de parking présente un autre avantage : l’orbite que suit l’engin n’est plus assujettie aux coordonnées géographiques du lieu où la fusée porteuse peut être lancée, puisqu’il est possible, en avançant ou en retardant le moment où l’Agena B est remis à feu, de modifier le site où s’amorcera la troisième trajectoire de l’engin, celle qui doit le diriger vers l’objectif final.
- Le dispositif de stabilisation
- C’est après cette première phase du vol, durant laquelle le Ranger joue un rôle exclusivement passif, que le « contrôleur » entre en action. La configuration du Ranger dicte les opérations dont ce dispositif doit assurer la commande et certaines des caractéristiques des appareils qu’il met en action expliquent la procédure de lancement. Ces opérations sont au nombre de dix. Sans entrer dans leur détail, disons
- ' WT: [£
- LUNE
- seulement qu’elles consistent d’abord, comme il est logique, à mettre en fonctionnement la batterie dont le bus est muni, puis les appareils scientifiques ; après quoi le contrôleur commande l’ouverture des volets porteurs de cellules photoélectriques.
- Alors commence la phase délicate de l’orientation (fig. 4). Elle se déroule en deux étapes. Les deux volets étant perpendiculaires au grand axe de l’engin, il faut, pour que les cellules bénéficient d’un éclairement maximal, que le Ranger soit pointé vers le Soleil. C’est la mission confiée à deux « orienteurs » qui sont disposés de telle manière qu’ils puissent « saisir » le Soleil quelle que soit l’orientation du Ranger dans l’espace, et qui commandent l’action des dispositifs à gaz comprimé jusqu’à ce que ce premier pointage soit mené à bien. Cette opération est longue ; elle peut durer de 15 à 30 minutes, et elle ne commence qu’après que des gyroscopes ont procédé à un travail de
- Fig. 4. — Orientation du Ranger sur sa trajectoire.
- Dans la première phase du vol, l’engin est pointé vers le Soleil tandis que l’antenne directionnelle à haut gain reste dirigée vers la Terre. Cet arrangement est bouleversé par la mise à feu de la fusée qui sert à corriger la trajectoire de l’engin lorsqu’il est parvenu à mi-distance de la Lune. Après quoi les opérations de stabilisation recommencent et le Ranger reprend la même position que lors de la première phase. Il conserve la même orientation jusqu’à ce que le moment soit venu de larguer la sphère de bois dont il est porteur. Cette sphère voit sa chute vers le sol lunaire ralentie par sa rétro-fusée, dont elle se débarrasse avant l’impact, et elle heurte notre satellite à la vitesse de 500 km/h, tandis que le Ranger s’écrase sur la Lune à 10000 km/h. Il n’a pas été précisé jusqu’à présent comment l’engin serait orienté pour prendre la Lune dans le champ de sa caméra de télévision.
- (.Document U. S. I. S.).
- SOLEIL
- TERRE
- 53
- p.53 - vue 57/551
-
-
-
- « dégrossissement ». Encore ne demande-t-on pas à ce pointage d’être parfaitement rigoureux : il est entendu que le Ranger pourra osciller autour de son axe sans toutefois s’en écarter de plus d’un degré. .A charge naturellement, pour les dispositifs de stabilisation, de maintenir ce lent balancement dans les limites fixées ; à n’entrer en jeu qu’à intervalles régubers, ils gagnent de pouvoir fonctionner plus longtemps.
- Mais dans une seconde étape, ce pointage doit être obtenu de façon rigoureuse : il doit alors permettre de diriger vers la Terre l’antenne parabolique à haut gain. Le mécanisme de contrôle d’attitude de l’engin comprend, à cet effet, six autres orienteurs. Ceux-ci doivent repérer la Terre et commander les dispositifs de stabilisation de telle manière que, du fait de l’orientation du Ranger, l’antenne à haut gain reste toujours pointée vers la Terre où est disposé un réseau de trois stations réceptrices : Goldstone, Johannesburg et Woomera. Pour effectuer ce second pointage, le contrôleur imprime à l’engin un mouvement de rotation autour de son axe durant lequel les orienteurs doivent « saisir » la Terre. On provoque alors
- l’arrêt de cette rotation et on « verrouille » l’engin dans cette position. Dès lors le Ranger est stabilisé selon deux axes, de façon d’une part à capter au maximum l’énergie solaire, d’autre part à assurer au mieux les communications radio avec la Terre.
- Divers incidents peuvent surgir durant cette seconde étape d’orientation : les orienteurs, par exemple, peuvent « saisir » non la Terre mais la Lune, et d’autre part ils pourraient être gênés dans leur recherche par le dernier étage de la fusée porteuse. C’est pourquoi la procédure de lancement prévoit que ce dernier étage doit être détourné de la trajectoire suivie par le Ranger. Quant à l’erreur qui consisterait à braquer l’antenne directionnelle vers la Lune, elle peut être corrigée par les stations du réseau terrestre qui seront tenues informées de l’orientation prise par l’engin et pourront, au vu de cette erreur, ordonner au dispositif de contrôle d’attitude de faire abandonner au Ranger sa position défectueuse et aux orienteurs de reprendre leur quête.
- Naturellement, c’est une fois cette stabilisation obtenue de façon satisfaisante que le contrôleur ordonne le débran-
- Fig. j. — Maquette simplifiée du Ranger destiné à une opération de hard landing.
- On distingue sous le magnéto-mètre la sphère de bois qui Tiendra frapper le sol de la Lune et devra résister à l’impact. Sous la sphère se trouve la rétro-fusée qui doit freiner sa chute. L’antenne directionnelle à haut gain est ici repliée sous le « bus » ; on distingue deux des six boîtes dont il est formé.
- p.54 - vue 58/551
-
-
-
- chement de la batterie et de l’antenne omni-directionnelle. Après ces dernières opérations, le Ranger peut être considéré comme étant « en régime de croisière ».
- Comme un engin ordinaire il procède alors, grâce aux instruments dont il est muni, à des observations qui sont transmises à la Terre par le bus. C’est à cette mission ainsi qu’au maintien de la stabilisation que se réduit le rôle du bus si le Ranger est seulement destiné à explorer l’espace. Telle était la mission confiée aux deux premiers engins de la série, qui devaient également permettre de mettre à l’épreuve la procédure de lancement et le bon fonctionnement des dispositifs de contrôle d’attitude. Mais ces deux essais ont été décevants : dans les deux cas des incidents sont venus marquer les dernières étapes de la phase de lancement et les Rangers sont rapidement revenus se consumer dans les couches denses de l’atmosphère.
- Sphère de bois et instruments à l’épreuve du choc
- Pour les autres lancements, le bus doit avoir d’autres fonctions à remplir. Le but du programme Ranger en effet est d’amorcer une première étude du sol lunaire, et les trois derniers engins de la série doivent être dirigés de manière à projeter sur le sol de notre satellite une charge d’instruments. C’est alors que le bus, qui jusqu’ici servait seulement de support à un lot d’instruments scientifiques, remplira pleinement son rôle de plate-forme. Il servira en effet au transport jusqu’à proximité immédiate de la Lune de l’engin qui, lui, devra la heurter... et résister au choc. Aussi devra-t-il remplir trois autres missions :
- i° Assurer à mi-course une rectification de la trajectoire de façon que l’orbite elliptique qu’il suivra vienne bien couper celle de la Lune ; cette rectification doit être commandée par les stations terrestres après analyse de la trajectoire, et effectuée à l’aide d’une fusée placée à bord de l’engin ;
- 2° Veiller à la stabilisation de l’engin quand le Ranger sera parvenu à proximité de la Lune — la « procédure » qui sera suivie à cet effet n’est pas encore connue —, mettre alors en marche la caméra de télévision logée dans la superstructure de l’engin et renvoyer immédiatement aux stations réceptrices les cent images qu’elle doit recueillir ;
- 3° Enfin larguer au moment voulu l’engin porteur des instruments qui iront étudier le sol lunaire ; le Ranger doit être, à ce moment, complètement déséquilibré et il est dès lors considéré comme perdu ; la caméra de télévision, notamment, ne doit plus être à même de saisir le sol lunaire dans son objectif et il faudra se contenter de vues prises à une certaine distance du sol lunaire. On n’en espère pas moins recueillir ainsi des documents déjà très précis.
- Finalement le Ranger doit heurter la oucface de la Lune. N’étant pas conçu pour résister au choc, il doit s’y écraser. Mais c’est alors que l’engin dont le bus a assuré le transport doit entrer en service. C’est une sphère en bois d’une trentaine de centimètres de diamètre (fig. 5). Le bois dont il est fait est le plus dur qui puisse se trouver, celui dont était fait le célèbre radeau Kon-Tiki et il est doublé d’une enveloppe métallique. La sphère est munie d’une rétrofusée qui, mise à feu sitôt l’engin largué, doit en ralentir la chute ; sitôt son carburant brûlé, la rétro-fusée est
- séparée de la sphère qui vient donc frapper le sol lunaire sans offrir à sa surface aucune discontinuité. Naturellement la sphère est creuse. Les instruments logés à l’intérieur comprennent essentiellement un émetteur radio muni d’une courte antenne directive et un sismographe à un axe ; ces appareils flottent dans un liquide, ce qui fait qu’ils prennent à tout moment la même position par rapport à la verticale du lieu où ils se trouvent.
- La trajectoire du Ranger en effet est déterminée par un impératif : la sphère doit heurter le sol lunaire perpendiculairement. Ainsi le trou qu’elle creusera en s’enfonçant dans le sol sera vertical et, du fond de ce puits, où la sphère reposera intacte (en principe), on devra (toujours en principe) apercevoir la Terre. L’antenne de l’émetteur radio sera alors, par gravité, tournée vers l’orifice de ce trou et, par la force des choses, pointée vers la Terre. Il ne lui restera plus qu’à transmettre les indications recueillies par le sismographe et les autres instruments.
- *
- * *
- La réalisation d’une telle opération peut sembler assez problématique. De multiples essais ont prouvé que la sphère était à même de résister à des impacts violents, mais on n’a encore que des idées assez peu précises sur la nature du sol lunaire et il n’est donc pas possible de prévoir quelle sera la profondeur du trou creusé dans notre satellite. Trois expériences rigoureusement analogues sont prévues, qui doivent toutes se dérouler durant l’année 1962. Les ajourner à la suite des échecs enregistrés lors des tirs préliminaires serait sans signification car le programme d’exploration de la Lune qui doit commencer avec l’exécution du programme Ranger comporte d’autres étapes déjà arrêtées, et il est prévu qu’à l’expérience de l’impact (hard landing) sur le sol de notre satellite succédera dès 1963 celle de l’allunissage proprement dit (soft landing).
- Il était impossible actuellement de véhiculer jusqu’à proximité de notre satellite des charges suffisamment lourdes pour loger à bord les dispositifs de stabilisation et de freinage indispensables à un soft landing, et c’est ce qui a déterminé les responsables de la N. A. S. A. à lancer un programme de hard landing. Les engins qui leur feront suite, déjà baptisés Surveyors, seront d’une conception tout à fait différente et d’un poids bien supérieur, mais le bus mis au point pour le programme Ranger ne cessera pas pour autant d’être utilisé. Il est prévu en effet qu’il sera employé, moyennant quelques modifications, dans les engins Mariners qui seront lancés dès l’été prochain en direction de Vénus. En outre, les principes qui ont présidé à la conception générale des Rangers recevront d’autres applications : les futurs engins spatiaux américains qui seront lancés en direction des planètes ne seront pas pointés de manière à les heurter mais, de même que les Rangers, ils transporteront jusqu’à leur voisinage des charges utiles qu’ils largueront sur elles le moment venu. Ainsi le programme Ranger inaugure, avec l’orbite de parking destinée à accroître la précision des tirs, une autre méthode pour tourner la difficulté d’un coup au but trop aléatoire, celle qui consiste à bombarder l’objectif à partir d’un engin envoyé à proximité.
- Nicolas Vichney.
- 55
- p.55 - vue 59/551
-
-
-
- Les immenses migrations des oiseaux de mer naguère insoupçonnées
- par Jean Dorst
- ON pourrait croire au premier abord que les oiseaux de mer sont plus volontiers sédentaires que les oiseaux terrestres. Si les terres émergées sont sujettes à d’importantes variations saisonnières, les mers paraissent au contraire beaucoup plus constantes dans leurs conditions écologiques. A première vue les oiseaux marins devraient donc pouvoir vivre sans quitter leur patrie, sans se livrer au moindre déplacement annuel.
- Rien n’est cependant plus faux, car les conditions du milieu sont tout aussi changeantes dans la mer que sur la terre. Les oiseaux marins sont donc eux aussi obligés de se livrer à des migrations selon un rythme annuel, tout comme leurs congénères terrestres.
- Ces déplacements commencent à peine à être connus. A part les oiseaux littoraux, tels que la plupart des Mouettes dont les déplacements saisonniers suivent plus ou moins les limites du plateau continental, le cycle annuel des autres oiseaux marins se déroule entièrement en haute mer, à l’exception de leur nidification qui a souvent pour théâtre des îlots perdus au milieu des océans ou du moins bien au large des côtes habitées. Les observations sont donc particulièrement difficiles et rares, ne serait-ce qu’en raison du peu d’ornithologistes qui sillonnent les océans. Et la simple observation d’un oiseau en un point donné n’a que peu de valeur si elle ne s’intégre pas dans une vaste synthèse basée sur d’innombrables observations semblables.
- La plupart des données acquises sur ce sujet proviennent de l’accumulation d’observations éparses, effectuées au gré de traversées maritimes par des ornithologistes qui ont consigné patiemment leurs relevés. Le baguage des oiseaux marins a lui aussi apporté des résultats fort intéressants en dépit de la proportion très faible des reprises.
- Les connaissances acquises dans les temps récents ont montré que le phénomène migratoire était en réalité beaucoup plus généralisé parmi les oiseaux de mer qu’on ne l’a cru tout d’abord. Aucun n’est véritablement sédentaire et peu se contentent d’une dispersion limitée autour de leurs points de nidification. Cela tient essentiellement aux conditions océanographiques changeantes à travers les mers au long de l’année, forçant les oiseaux pélagiques à migrer à la poursuite de leur nourriture, à l’instar de ce qui se passe dans le cas des oiseaux terrestres. Le déterminisme de ces mouvements est avant tout d’ordre alimentaire bien que d’autres éléments du milieu puissent également intervenir dans ce cycle annuel, en particulier le rythme d’éclairement quotidien ou photopériode.
- Les oiseaux marins présentent tous les intermédiaires entre sédentaires et migrateurs, en passant par ceux qui se dispersent sur une aire considérable en dehors de leur période de reproduction, leurs déplacements étant simplement plus ou moins orientés dans une direction préférentielle.
- Voyageur circumpolaires :
- Pétrel géant, Albatros, Skua,..
- Cette dispersion à vaste échelle prend parfois l’allure d’une véritable migration circumpolaire autour du continent antarctique. Tels sont notamment les déplacements qu’effectuent les Pétrels géants (.Macronectes giganteus) (fig. i), les plus grands de tous leurs congénères puisqu’ils atteignent plus de 2 mètres, d’envergure. Ces oiseaux nichent dans une longue série d’îles des mers antarctiques, notamment dans celles qui se trouvent au voisinage de l’Amérique du Sud
- Fig. i. — Un Pétrel géant sur son nid.
- Cette espèce de l’Antarctide, au bec puissant, se nourrit surtout de charognes, comme les Vautours, mais il attaque aussi les oiseaux vivants.
- {Photo P. Pauli an).
- 56
- p.56 - vue 60/551
-
-
-
- Fig. 2. — Migrations du Pétrel géant
- (Macronectesgiganteus) d’après les résultats de baguages dans l’Antarctique.
- Les oiseaux bagués à Macquarie (grand cercle) et repris en divers lieux de l’hémisphère austral sont marqués par des cercles, s’ils ont été repris au cours de leur première armée, par des points s’ils ont été repris après. Les oiseaux bagués à l’île Signy, Orcades du Sud (grand carré noir), sont marqués par des carrés évidés s’ils ont été repris au cours de leur première année, par des carrés noirs s’ils ont été repris plus tard.
- ([D’après Hitchcock et Carïuck).
- et à Kerguelen. De nombreux baguages entrepris parmi diverses colonies de nidification ont montré que les jeunes Pétrels géants se dispersent largement en direction de l’Ouest et du Nord dès qu’ils quittent le nid. Ils se laissent alors emporter par les grands vents d’Ouest qui soufflent en permanence avec violence dans ces parages, appelés depuis longtemps Roaring forties par les marins anglais.
- La vitesse de ces déplacements et leur direction montrent que les jeunes Pétrels géants se livrent à de vastes déplacements circulaires dans les mers antarctiques, et il est
- probable qu’ils tournent même plusieurs fois autour du monde avant de se fixer à nouveau dans leur île natale.
- Des reprises spectaculaires ont été enregistrées. Un jeune, bagué à l’île Signy, dans les Orcades du Sud, au S.-E. des îles Falkland, a été retrouvé 5 semaines après son envol sur la côte occidentale de l’Australie. Un autre, bagué à l’île Heard, a été repris 8 semaines plus tard à Buenos Aires.
- Les jeunes qui ont ainsi fait plusieurs fois le tour du monde et sont parvenus à l’âge adulte retournent à leur île et commencent à y nicher. Ils se sédentarisent alors plus ou moins pour le reste de leur vie et ne quittent plus les abords de la colonie dont ils font partie. Dans leur cas se vérifie ainsi une fois de plus la loi générale selon laquelle les jeunes ont une impulsion migratoire plus accusée que les adultes. La reproduction et ses exigences physiologiques lient plus étroitement ces derniers au voisinage de leurs territoires de nidification.
- Les Albatros (fig. 3 à 6) sont très certainement dans le même cas, au moins pour une partie de leurs effectifs. Des reprises sensationnelles d’oiseaux bagués ont été enregistrées et témoignent de l’ampleur de leurs déplacements
- Fig. 3. — Couple d*Albatros hurleurs aux îles Kerguelen.
- L’Albatros hurleur (Diomedea exu-lans) est le plus gros des Albatros et l’un des plus puissants voiliers de tous les oiseaux. Ses ailes peuvent dépasser 3 mètres d’envergure. On voit ici, dans une prairie à A.cœna (Rosacée) des îles Kerguelen, une femelle (à droite) sur son nid, avec son mâle. Au deuxième plan, à gauche, une autre femelle qui n’a pas trouvé de partenaire.
- {Photo P. Paulian).
- p.57 - vue 61/551
-
-
-
- Fig. 4. — De puissants voiliers, les Albatros. Les Albatros comptent parmi les plus gros oiseaux et les meilleurs voiliers. Ils se nourrissent de poissons, de crustacés et de mollusques qu’ils saisissent en se posant sur l’eau. On voit ici l’Albatros à nez jaune des mers australes (T)io?>iedea chlororynchos). A gauche, vue dorsale de l’animal en vol plané ; à droite, vue ventrale.
- (.Photos P. Paulian).
- annuels. Il en est de même du Skua antarctique (Catharacta antarctica), qui, signalons-le en passant, est sans doute l’oiseau le plus méridional de tous : Sir Edmund Hillary ne l’a-t-il pas, au cours de sa traversée du continent antarctique, rencontré à moins de 80 miles du Pôle Sud ?
- Il faut remarquer que ces migrations circumpolaires sont pour ainsi dire passives. Les oiseaux de mer sont entraînés par les vents dominants dans une direction déterminée. Ne pouvant lutter contre des vents aussi violents que ceux qui balayent les océans antarctiques, ils n’ont qu’à se laisser emporter par eux, faisant ainsi le tour du monde.
- De l’extrême Nord à l’extrême Sud : la Sterne arctique
- D’autres oiseaux marins ont des migrations d’un type très différent : débordant nettement du cadre d’une simple dispersion, elles sont au contraire orientées et suivent des itinéraires plus ou moins compliqués. Le plus grand migrateur connu dans le monde est d’ailleurs un oiseau de mer : la Sterne arctique (Sterna macrurd), l’oiseau le
- plus nordique sans doute, niche le long des côtes septentrionales de l’Europe, de l’Asie et de l’Amérique, et va hiverner dans les Océans antarctiques. La question de l’hivernage de cette Sterne avait été pendant longtemps fort débattue. Il a fallu de nombreuses observations pour démontrer que la zone des glaces flottantes antarctiques (le pack des explorateurs polaires) constitue la zone d’hivernage régulière de cette Sterne venue des approches du Pôle Nord.
- Ces déplacements à énorme échelle paraissent se faire selon des voies bien déterminées, comme le prouve notamment le résultat de baguages. Les populations nicheuses dans la partie américaine de l’habitat traversent en effet l’Atlantique Nord, pour gagner d’abord les côtes européennes avant de descendre le long de celles-ci et de celles d’Afrique vers les mers antarctiques. Des individus bagués au Labrador ont été ainsi repris en France, près de Saint-Nazaire et de la Rochelle notamment, d’autres le long des côtes d’Afrique. Un individu bagué au Canada dans le Nouveau-Brunswick, en juillet 1948, fut repris dans la Province du Cap, en Afrique du Sud, en novembre de la même année. Un autre bagué sur les côtes du Groenland
- Fig. j. — Colonie de jeunes Albatros à nez jaune.
- La croissance des jeunes Albatros est très lente et, un mois avant leur envol, on les voit ici revêtus encore de leur duvet. Ile de la Nouvelle-Amsterdam, Sud de l’Océan Indien, à 2 000 km environ des îles Kerguelen.
- {Photo P. Paulian).
- 58
- p.58 - vue 62/551
-
-
-
- occidental, en juillet 1951, fut repris au Natal, à Durban, en octobre de la même année. Il avait donc parcouru près de 18000 kilomètres en ce court laps de temps. C’est le trajet le plus long qui ait été mis en évidence par le baguage.
- La Sterne arctique est inconnue de tout le Pacifique occidental ; il faut donc admettre que les nombreux individus rencontrés dans les secteurs australiens et néo-zélandais de P Antarctique proviennent de l’Atlantique, après avoir été emportés par les vents d’ouest qui balayent cette partie des mers. Certaines de ces Sternes viennent même parfois jusqu’en Australie, bien que rarement. C’est ainsi qu’un individu bagué en U. R. S. S., dans la réserve de Kandalaksha, sur la Mer Blanche, a été repris au printemps suivant en Australie, à Fremantle, soit à 14000 kilomètres du lieu de baguage, si l’on tient compte du fait qu’il a contourné l’Europe et l’Afrique avant de traverser l’Océan Indien. Ces déplacements paraissent véritablement démesurés, surtout si l’on songe à la taille relativement faible des Sternes et à leur vol hésitant, contrastant avec celui des autres migrateurs qui semblent foncer vers leur lointain objectif.
- Le tour entier du Pacifique : le Pétrel australien
- Parmi les autres migrateurs marins dont le mystère des déplacements annuels a été récemment percé figure avant tout un Pétrel australien (Puffinus tenuirostris), celui que les A'hglais appellent Short-tailed Shearwater pour rappeler la brièveté de la queue (fig. 7). Ce Pétrel, dépassant en taille notre Puffin des Anglais (Puffinus puffinus'), d’une coloration noire de suie sur le dos, brunâtre dessous, niche en troupes énormes sur quelques îlots du Détroit de Bass, entre l’Australie et la Tasmanie et le long des côtes de ces terres. Il regagne ses territoires de reproduction en bandes dont l’importance avait déjà attiré l’attention des premiers navigateurs. Le capitaine Flinders, qui explora les côtes australiennes à la fin du xvme siècle, relate la rencontre d’un vol de ces Pétrels revenant en décembre à leurs lieux de nidification ; il le décrit comme un véritable fleuve d’oiseaux mesurant de 50 à 80 mètres de profondeur, plus de 100 mètres de large et passant pendant plus d’une heure à une vitesse à peine inférieure à celle d’un pigeon. D’après les
- estimations, ce vol comprenait au moins 150 millions d’oiseaux. Des observations de ce genre ont été répétées depuis et attestent la véracité des premiers témoignages.
- Ce Pétrel si abondant a d’ailleurs une grande importance économique qu’il a conservée jusqu’à nos jours. Dans les temps passés, les jeunes comme les adultes étaient massacrés en très grand nombre. Les jeunes au nid sont très gras, et leur estomac, comme celui de beaucoup de leurs congénères, est empli d’une substance huileuse d’une grande pureté, dont le volume atteint parfois 200 cm3 pour un seul individu, utilisable dans les lampes ou comme lubrifiant. Récemment on lui a découvert des propriétés médicinales, notamment une richesse en vitamines comparable à celle de l’huile de foie de morue. Le corps des victimes est salé pour être ensuite livré à la consommation aussi bien en Australie qu’en Nouvelle-Zélande où leur chair est encore aujourd’hui très appréciée.
- Bien que cette exploitation n’ait jamais mis l’espèce en danger, elle avait lieu pendant toute la période de reproduction et risquait d’avoir de ce fait des effets fâcheux sur l’espèce. Aussi est-elle maintenant sévèrement réglementée et ne peut-elle commencer qu’à la fin de la reproduction de manière à permettre au gros du contingent de disparaître des lieux de nidification avant le prélèvement. En 1910, un demi-million de jeunes étaient encore collectés à des fins alimentaires ; comme un prélèvement aussi considérable n’occasionnait aucune diminution de la population, cela permet de juger de l’importance numérique de celle-ci. On savait bien entendu depuis longtemps que les territoires de reproduction sont désertés pendant une période de l’année. Mais on n’apprit qu’au cours des toutes dernières années que ces Pétrels se livrent à des migrations d’une envergure telle qu’elles embrassent la totalité du Pacifique (fig. 8).
- Les Pétrels quittent leurs lieux de reproduction dès le début de l’automne austral, en avril et mai. Ils survolent d’abord la partie orientale de la mer de Tasman, puis ils se dirigent vers le Nord, traversent l’Équateur et rejoignent les côtes du Japon, que le flot de migrateurs atteint environ un mois après avoir quitté la lointaine Australie. Ils ne s’y arrêtent cependant pas et continuent vers le Nord jusque dans la partie la plus septentrionale du Pacifique, du Kamtchatka aux îles Aléoutiennes. Le Détroit de Béring est même franchi, une partie des populations de ce Pétrel
- Fig. 6. — Le nourrissage du jeune Albatros. Un jeune Albatros à nez jaune (Diomedea ch/ororyfichas) est nourri par son parent sur le nid circulaire fait de terre et d’herbes sèches. Ile de la Nouvelle-Amsterdam.
- {Photo P. Paulian).
- 59
- p.59 - vue 63/551
-
-
-
- Fig. 7. — Pétrels australiens (Puffinus tenuirostris) sur leur rocher d’envol.
- {Photo John Warham, Melbourne).
- se répandant dans l’Océan Arctique. Ils y demeurent pendant tout l’été boréal, de juin à août ; ils sont alors et de loin les Pétrels les plus abondants dans ces mers.
- Puis ils repartent pour leur migration de retour qui les entraîne tout d’abord vers l’Est et le Sud-Est, le long des côtes pacifiques de l’Amérique du Nord. Puis ils obliquent à travers tout le Pacifique pour rejoindre le Nord-Est de l’Australie et redescendre vers les territoires de reproduction où ils arrivent à la fin de septembre.
- Ces migrations sont donc d’une ampleur à proprement parler incroyable ; elles embrassent la totalité du Pacifique au travers duquel elles décrivent une boucle gigantesque. Elles sont en tous points comparables à celles de divers migrateurs de l’Atlantique antérieurement connus pour l’envergure de leurs déplacements. On savait en effet déjà que les Pétrels océanites {Oceanites oceanicus), Pétrels de petite taille appartenant au groupe des Pétrels-tempête, et notamment ceux qui nichent dans le secteur américain de l’Antarctique, accomplissent des migrations en boucle à travers l’Atlantique. Remontés le long des côtes du Nouveau Monde, ils vont « hiverner » pendant les mois de juillet et août dans l’Atlantique Nord, puis reviennent vers le Sud en se dirigeant tout d’abord vers l’Europe, puis longeant les côtes africaines jusqu’en Afrique occidentale et
- rejoignant ensuite les côtes du Brésil après une rapide traversée de l’Atlantique. Les Puffins majeurs {Puffinus gravis), qui ne sont connus comme nicheurs qu’à Tristan da Cunha, dans l’Atlantique Sud, se livrent eux aussi à des migrations de ce type en décrivant une grande boucle à travers l’Atlantique Nord.
- Migrations et vents dominants
- Comme pour les migrations de leurs congénères atlantiques, les migrations des Pétrels du Pacifique paraissent s’effectuer en relation avec la situation générale des vents, à laquelle elles paraissent remarquablement adaptées, surtout si l’on considère la situation des vents dominants en chaque point de leur vaste périple à l’époque de leur passage. Ce remarquable parallélisme explique en particulier la petite boucle que les Pétrels décrivent dans la mer de Tasman. Le seul point où la situation n’est pas favorable se trouve au Nord-Est de l’Australie, à l’époque où les Puffins rejoignent leurs territoires de reproduction. Ils ont alors à vaincre des vents violents qui soufflent du Sud-Est ; les difficultés rencontrées sont mesurées par le nombre de ceux dont les cadavres sont rejetés par les flots sur les côtes de cette partie de l’Australie.
- Il serait sans aucun doute hasardeux d’affirmer que les vents constituent le déterminant des migrations de ce Pétrel. Mais tout ce que l’on connaît de l’influence du vent
- p.60 - vue 64/551
-
-
-
- sur les oiseaux de mer montre que ce facteur est dominant dans la biologie de ceux-ci. Ces oiseaux vont au-devant de catastrophes chaque fois qu’ils ont à lutter contre des vents contraires, ce que prouvent de multiples observations à travers le monde. Aussi, sans être vraiment à l’origine de ces migrations en boucle, il faut cependant admettre que les vents dominants jouent un rôle de premier plan tout au long de ces gigantesques parcours.
- Migrations et cycle de reproduction
- Les migrations du Pétrel australien sont d’ailleurs remarquables à bien d’autres points de vue. Cet oiseau est en effet le seul migrateur connu dont l’aire de reproduction jouit de températures supérieures à celles de l’aire d’« hivernage ». Il contredit une loi générale parmi les oiseaux selon laquelle un migrateur niche toujours dans l’aire qui présente les températures les plus basses de toutes celles qu’il fréquente. Les mers qui baignent le Détroit de Bass ont en effet des températures oscillant entre 140 et 170 pendant la saison de reproduction, et elles sont encore au moins à 130 au moment où les migrateurs les quittent à l’automne austral pour se rendre dans le Pacifique Nord, où on les rencontre dans des mers dont la température est de l’ordre de 3 à 70.
- Leur déterminisme paraît également fort curieux, en raison de la régularité extraordinaire du déroulement dans le temps. Les oiseaux reproducteurs arrivent en effet vers la fin de septembre sur leurs terrains de reproduction ; ils s’installent dans leurs terriers, réutilisés d’année en année, et la reprise d’oiseaux bagués a d’ailleurs montré qu’un
- même couple était fidèle à son terrier (et à son conjoint) dont il savait retrouver le site après un voyage de milliers de kilomètres et une absence de quelque six mois. Ils procèdent alors aux aménagements nécessaires après les dégâts de l’hiver, puis dès les premiers jours de novembre ils évacuent entièrement les emplacements de ponte pour se rendre en haute mer, sans quitter cependant les approches des territoires de reproduction. Ils y demeurent trois semaines environ, jusque vers le 19-21 novembre, puis l’ensemble de ces Pétrels, dont les effectifs se chiffrent par millions, reviennent dans leurs terriers et commencent à pondre. Tous les œufs sont pondus dans un délai d’une douzaine de jours, avec une fréquence maximale du 24 au 26 novembre. Ce calendrier précis favorise d’ailleurs l’exploitation, les collecteurs sachant d’année en année à date fixe quand ils peuvent se rendre sur les lieux de nidification.
- Cela suppose en tout cas un déterminisme rigoureux parmi l’ensemble de la population. Le développement testiculaire, et en particulier la production des cellules sexuelles, doit commencer dans les quartiers d’hiver au moment où les jours diminuent (on sait qu’une augmentation de la durée d’éclairement quotidien ou photopériode provoque le développement des glandes sexuelles des oiseaux, dans des conditions définies). Le départ des quartiers d’« hivernage » est sans doute lui aussi sous la dépendance du même facteur. Mais comme l’ensemble de la population occupe en « hivernage » une zone s’étendant sur une vingtaine de degrés de latitude, ce qui implique bien entendu une variation étendue dans le raccourcissement des jours, il est difficile de comprendre que l’ensemble des reproducteurs puisse présenter un tel synchronisme dans
- Equateur
- AUSTRALIE
- F I Q U E
- Fig. 8. — Migrations du Pétrel australien (Puffinus tenuirostris).
- L’aire de reproduction est marquée par des pointillés. Les points indiquent les localités où les spécimens ont été capturés. Les flèches en traits pleins marquent la direction du vol des oiseaux, les flèches en pointillés la direction des vents dominants à l’époque du passage du flot de migrateurs.
- (.D’après Marshall et Serventy).
- 61
- p.61 - vue 65/551
-
-
-
- Fig. 9. — L’envol du Puffin fuligineux.
- Le Pétrel ou Puffin fuligineux (Puffitius grisais) est une espèce des plus ubi-quistes. Ses immenses migrations le conduisent de l’Antarctique aux zones septentrionales du Pacifique ou de l’Atlantique.
- (Photo John Warham).
- la maturation des glandes sexuelles. On peut supposer que les individus reproducteurs sont en réalité concentrés dans une zone plus étroite, seuls les non-reproducteurs se dispersant plus largement, comme cela s’observe d’ailleurs chez tous les oiseaux migrateurs. Cela favoriserait alors la simultanéité du développement endocrinien des oiseaux, et d’ailleurs de l’ensemble de leur comportement migratoire et sexuel. L’accouplement intervient selon toute vraisemblance à terre, juste avant l’envol vers la haute mer, d’où les oiseaux reviennent après un délai de trois semaines, les femelles étant prêtes à pondre, comme le démontrent l’œuf unique qui gonfle leur abdomen, et les mâles entamant déjà leur période de régression testiculaire.
- Il faut remarquer par ailleurs que les non-reproducteurs accomplissent les mêmes migrations que les reproducteurs. Ces Pétrels ne paraissent commencer à nicher qu’à l’âge de 6 ans, comme le prouvent les baguages entrepris par les Australiens. Cependant, dès l’âge de 3 ans, ils accompagnent les adultes sur les territoires de reproduction de l’espèce, bien qu’arrivant plus tard et repartant plus tôt.
- Ils se tiennent dans les mers qui avoisinent les lieux de nidification, et ils y constituent une importante population fluctuante.
- Les reproducteurs s’installent dans leurs nids ; la femelle pond son œuf, que le mâle couve le premier, puis les deux partenaires se remplacent dans le nid à des intervalles de 11 à 14 jours. L’incubation dure de 53 à 55 jours ; le jeune éclôt au milieu de janvier et est nourri par les parents jusque vers la deuxième quinzaine d’avril. Les adultes quittent alors les lieux de reproduction, partant en migration et abandonnant leur poussin devenu obèse. Celui-ci parfera son plumage tout en maigrissant et suivra alors avec un certain retard les adultes sur leurs énormes voies de migration.
- On observera aussi que la mue est remarquablement adaptée aux nécessités de la migration et aux exigences du vol. Les Pétrels australiens muent une partie des plumes de leur corps dans leurs lieux de reproduction, mais ne changent les plumes voilières de leurs ailes et de leur queue qu’une fois atteint le Pacifique Nord, où certains voyageurs les ont observés posés sur l’eau et incapables de voler par suite de la perte de leurs rémiges usées et de la pousse très incomplète des nouvelles.
- *
- * *
- On peut s’interroger sur la signification des migrations dans la vie des oiseaux de mer. Leur déterminisme proche reste assez mystérieux. Leur parcours paraît selon toute vraisemblance déterminé par la direction des vents dominants, contre lesquels il serait vain et épuisant pour les oiseaux de lutter ; aussi se laissent-ils emporter sur des trajets gigantesques, à l’échelle des océans qu’ils survolent.
- Le déterminisme lointain est à certains points de vue plus compréhensible. Contrairement à ce que l’on pourrait penser au premier abord, la quantité d’aliments disponibles en un même lieu dans la mer est loin d’être constante. La « biomasse » de proies aux dépens desquelles se nourrissent les oiseaux de mer subit des fluctuations annuelles d’ampleur considérable. Aussi les oiseaux, dont les exigences alimentaires sont dans l’ensemble importantes, doivent-ils entreprendre de grands déplacements à la poursuite de leurs proies, Poissons, Crustacés et Céphalopodes pélagiques, ou même simplement plancton.
- A ce point de vue, les migrations des oiseaux de mer sont donc à placer dans le cadre de leur écologie dont elles ne représentent qu’un des aspects, tout comme d’ailleurs dans le cas des migrations des oiseaux terrestres. Tout se passe comme si une zone déterminée était incapable de subvenir tout au long de l’année aux besoins alimentaires d’une population avienne, qui doit donc au cours d’un cycle annuel osciller entre deux zones, dans l’une desquelles elle se reproduit. Pour se rendre de l’une à l’autre, elle doit résoudre un certain nombre de problèmes en relation avec le milieu. C’est en tout cas dans ce contexte qu’il convient de placer les migrations des oiseaux de mer, que l’on ne saurait toutefois expliquer par des formules rigides. Ces déplacements sont multiples dans leurs modalités, en rapport avec les exigences particulières de chacune des espèces et avec les conditions si variables du milieu marin.
- Jean Dorst,
- Sous-directeur au Muséum.
- p.62 - vue 66/551
-
-
-
- L’hydroaimant fournira-t-il un champ de 450 000 gauss ?
- par Félix Roy
- A l’heure actuelle les champs magnétiques produits par les meilleurs électroaimants ne dépassent pas 100 000 gauss pour les champs continus. De nombreuses applications, cependant, demanderaient l’emploi de champs bien plus élevés. Aussi nombre de laboratoires dans le monde poursuivent-ils des recherches en vue d’améliorer les performances des aimants. La résistance mécanique du cuivre limite le champ à 250 kilo-gau s s (250 000 gauss). A la limitation due aux énormes forces qui s’exercent sur les conducteurs s’ajoute celle qu’entraîne la nécessité d’évacuer les grandes quantités de chaleur créées dans l’aimant par le passage du courant. Un type nouveau d’aimant, baptisé « hydroaimant », permettrait, selon ses inventeurs, d’améliorer les performances des aimants classiques à ces deux points de vue et de réaliser des champs de 450 000 gauss. La conception nouvelle réside dans l’emploi d’un conducteur liquide au sein de l’aimant ; il s’agit d’une application ingénieuse d’une science récemment développée : la magnêtohydro-dynamique.
- La magnéiohydrodynamique traite de la dynamique des fluides conducteurs de l’électricité en présence d’un champ magnétique. Deux autres domaines où cette science s’applique sont respectivement les pompes magnétiques pour métaux fondus, utilisées dans certains réacteurs nucléaires, et surtout l’étude théorique des machines où l’on cherche à réaliser la fusion contrôlée des atomes légers (machines thermonucléaires) ; on sait que dans ces machines la fusion doit se produire au sein d’un plasma (gaz ionisé, donc conducteur) que l’on soumet à de puissants champs magnétiques, tant pour maintenir le plasma à distance des parois de l’appareil que pour le porter à haute température.
- C’est l’utilisation de métaux liquides (sodium à i5o°C, ou argent à 1 ooo° C) qui fait l’originalité de l’hydroaimant. L’utilisation de conducteurs liquides permet ici de mieux répartir les forces électromécaniques en les faisant supporter par des parois que l’on peut réaliser en un alliage très résistant ; elle facilite aussi l’évacuation de la chaleur qui se fait grâce au métal liquide en circulation.
- Avant d’en venir à l’hydroaimant proprement dit, que nous décrirons d’après MM. H. H. Kolm et O. K. Mawardi (Journal of Applied Physics, New-York, juillet 1961), rappelons quelques relations physiques élémentaires entre champ magnétique et courant électrique :
- i° Un courant électrique crée un champ magnétique. C’est évidemment sur ce phénomène qu’est fondée la
- i. Le gauss est en réalité une mesure d’induction magnétique et non de champ. Ce dernier se mesure en œrsted. Dans l’air cependant, l’induction spécifique étant égale à l’unité, l’induction et le champ ont même valeur ; d’où l’emploi fréquent, quoique incorrect, du gauss comme mesure du champ magnétique.
- Fig. 1. — Champs magnétiques (H) créés par des courants (I).
- construction des électroaimants. La figure x indique la disposition du champ et du courant dans deux cas différents, autour d’un conducteur linéaire (à gauche), et dans le plan d’un conducteur circulaire.
- 20 Un champ magnétique exerce une force sur un courant (fig. 2). Sous l’effet de cette force, un conducteur traversé par un courant tendra donc à se mettre en mouvement. C’est ce phénomène qui est utilisé dans les moteurs électriques, mais c’est aussi lui qui crée les contraintes dans les bobinages des électroaimants.
- Fig. 2. — Un conducteur parcouru par un courant est soumis à une force dans un champ magnétique.
- 30 Réciproquement, un conducteur en mouvement dans un champ magnétique est le siège d’une force électromotrice, c’est-à-dire qu’un courant pourra s’y établir si un circuit fermé lui est offert pour circuler. C’est le phénomène qu’on met à profit dans les dynamos.
- Examinons maintenant ce qui se produit dans le cas
- 63
- p.63 - vue 67/551
-
-
-
- H
- Déplacement
- Courant
- Fig. /• — Schéma de principe de l’hydroaimant.
- Le conducteur liquide est injecté dans un premier espace annulaire étroit d’où il passe par des trous dans un deuxième espace annulaire plus large ; il s’échappe de celui-ci vers le centre de l’appareil pour être évacué selon l’axe. Au sein du large espace annulaire le conducteur circule donc partout radia-lement, de la périphérie vers le centre. Sous l’effet du champ magnétique axial créé par les solénoïdes (bobines d’excitation), un courant électrique circulaire I est induit dans le liquide et ce courant crée à son tour un champ magnétique qui s’ajoute au champ initial H. Le champ initial a été « comprimé » par le flux de conducteur liquide (voir fig. 6).
- (Imité de H. H. Kolm et O. K. Mawardi, Journal of Applied Physics).
- Fig. ). — Courant créé dans un conducteur qui se déplace dans un champ magnétique.
- Explications dans le texte.
- de la figure 3, quand on entraîne le conducteur sur des rails qui permettent au courant de se refermer. Tout d’abord un courant se crée dans le circuit. Ce courant crée ensuite un champ magnétique en E par exemple, qui dans le cas de la figure 3 s’oppose au champ initial et tend donc à le diminuer. Finalement, le champ exerce sur le courant créé une force qui s’oppose au déplacement. Il faudra donc fournir un travail pour vaincre cette force afin de continuer à mouvoir le conducteur AB. Quant au champ magnétique, tout se passe dans le quadrilatère ABCD comme s’il avait été « étalé » sur une plus grande surface par l’action de déplacer le conducteur AB. Si l’on avait poussé AB dans l’autre sens, le champ aurait été augmenté en E comme si le champ magnétique avait été comprimé par le conducteur AB dans la surface ABCD. C’est ici une illustration de la tendance, étudiée en magnétohydro-dynamique, qu’ont les lignes de champ magnétique à se déplacer devant un conducteur en mouvement (fig. 4). C’est ce même phénomène qui est utilisé dans l’hydro-aimant.
- Mouvement
- Lignes de champ magnétique
- Fig. 4. — Compression du champ magnétique par un conducteur en mouvement.
- Dans ce cas on comprime le champ magnétique en injectant dans une géométrie appropriée un conducteur liquide. L’appareil (fig. 5) se compose donc de deux parties : un solénoïde dit d’excitation qui fournit le champ initial et une chambre d’écoulement où l’on canalise le fluide.
- Evacuation du
- Bobines
- d'excitation
- Arrivée du liquide
- Dans la partie centrale de la chambre l’écoulement est radial (fig. 6), dans la partie annulaire qui sert à l’évacuation, il est plus ou moins désordonné. Le champ produit par le solénoïde d’excitation est axial. D’après la troisième des lois que nous avons rappelées plus haut, le conducteur en mouvement le long d’un rayon est traversé par un courant circulaire, qui se referme après avoir parcouru l’espace annulaire de la chambre. Ce courant à son tour provoque un champ magnétique axial qui s’ajoute au champ déjà existant. En d’autres termes, l’écoulement a chassé devant lui le champ magnétique et l’a comprimé dans un espace plus restreint, augmentant ainsi sa densité. Si le champ supplémentaire est supérieur au champ initial, la machine peut être dite autoexcitée, car il est alors possible de supprimer le champ initial et la machine continue à fonctionner.
- Cette machine peut, en principe, fonctionner de façon continue, mais au stade expérimental de son développement, elle fonctionne par impulsions : on dispose d’une
- Fig. 6. — Compression d’un champ magnétique uniforme par un flux radial de conducteur liquide convergeant vers l’axe.
- Cl Q,
- S 'D 8 3<
- Champ magnétique uniforme
- Champ magnétique comprimé
- 64
- p.64 - vue 68/551
-
-
-
- Tableau I. — Calculs des caractéristiques de fonctionnement d’un hydroaimant
- L’ « entrefer » de l’appareil a les mêmes dimensions dans les cinq cas (d’après Kolm et Mawardi).
- 00 (0 (3) (4) (5)
- Champ magnétique initial (gauss) 10 000 IO OOO IOO OOO IOO OOO 60 OOO
- Débit de métal liquide (litres/minute) 2 OOO 20 OOO 2 OOO 20 COO 12 OOO
- Courant électrique produit (milliers d’ampères) 120 I 200 I 200 12 OOO 4 300
- Puissance dissipée (millions de watts) 0,05 5 5 500 70
- Pression exercée sur les parois (kg/cm2) 18 180 I 800 180 OOO 4 000
- Champ magnétique produit (gauss) 12 400 124 OOO 124 coo 1 240 OOO 450 OOO
- quantité déterminée de fluide (alliage eutectique de sodium et de potassium en fusion) dans un réservoir. Une forte pression d’azote fait passer soudain ce liquide à travers la chambre, provoquant une passagère augmentation du champ magnétique au centre. Dans ces premières expériences, qui avaient pour but de vérifier la théorie du fonctionnement, le diamètre extérieur de la chambre était de 62 mm, la hauteur de 25 mm, le champ initial était de 64 000 gauss. En chassant le mélange eutectique de sodium-potassium par une pression d’environ 40 kg/cm2, on a pu obtenir une augmentation de champ de 1 900 gauss pendant une demi-seconde. L’augmentation prévue théoriquement était de 2 300 gauss. Cet accord est assez satisfaisant pour que l’on envisage la construction d’hydroaimants beaucoup plus puissants.
- Le tableau I donne les caractéristiques de quelques-unes des possibilités envisagées pour un hydroaimant. Dans tous les cas envisagés ici, le champ serait créé dans un espace cylindrique de 2,5 cm de diamètre et de 4,5 cm de longueur. Malgré les dimensions modestes de cet « entrefer », l’appareil complet sera probablement de taille respectable.
- La première colonne correspond aux conditions minimales d’autoexcitation : champ produit légèrement supérieur au champ initial. Dans la deuxième colonne le débit a été décuplé par rapport à la première colonne. Dans la
- Monts et dômes de sels sous-matins
- Une chaîne montagneuse s’étendant sur 1 600 km vient d’être découverte au fond du Pacifique Nord par le navire-laboratoire américain Pioneer, nous apprend une information du Centre culturel américain. Elle compte 34 monts dont l’altitude va de 900 à plus de 1 800 m de haut. Son pic le plus élevé mesure près de 1 900 m et son sommet est recouvert de quelque 3 500 m d’eau. La chaîne s’étend entre le 35e et le 50e parallèle Nord, au sud de l’Alaska et des Aléoutiennes, à mi-distance entre l’Alaska et les îles Hawaii, à un endroit où les cartes existantes signalent des fonds plats !
- De leur côté, des chercheurs de l’Université Columbia ont découvert dans le Golfe du Mexique, au cours d’une expédition effectuée récemment, 20 énormes dômes de sel qui se seraient formés il y a 155 millions d’années, au cours de la période jurassique. Des dômes analogues s’élèvent sur la terre ferme, le long de la plaine côtière des États-Unis et du plateau qui borde le golfe du Mexique.
- troisième, c’est le champ initial qui a été décuplé. Dans la quatrième, débit et champ initial ont été décuplés, la pression est alors hors de toute limite pratique. La dernière colonne correspond à un compromis où débit et champ ont été multipliés par un facteur de 6. Avec ces valeurs on obtient un champ théorique de 450000 gauss et une pression de 4 000 kg/cm2. Cette pression est de l’ordre de grandeur de celle qui règne dans la chambre d’une arme à feu légère au moment de la déflagration.
- Ces chiffres donnent une idée du champ maximal qui peut être obtenu en poussant à la limite les possibilités techniques en ce qui concerne le débit et la pression. La puissance dissipée devient énorme car elle varie comme le carré du champ magnétique produit, ce qui est vrai aussi pour les aimants classiques. La puissance de 70 mégawatts envisagée ici représente une fraction importante de la puissance fournie par une centrale telle que Génissiat. Or, c’est là seulement la portion de la puissance qui est déployée dans la dissipation d’énergie en chaleur. Il faut encore faire fonctionner les pompes qui font circuler le métal liquide.
- On voit que de nombreux problèmes restent à résoudre avant que l’hydroaimant puisse produire le demi-million de gauss dont il semble capable, mais les calculs et les résultats préliminaires sont encourageants.
- Félix Roy.
- Stylographe à ultrasons
- La société Ultrasonic Industries, de Plainview (État de New York), vient de mettre au point un appareil qui, par l’utilisation des ultrasons, permet d’écrire sans encre. De la taille d’un stylo-graphe classique, l’appareil contient une petite génératrice qui produit des oscillations de fréquence élevée. La bille qui termine l’appareil vibre ainsi à grande vitesse et modifie la disposition des fibres de papier tandis qu’elle passe sur la feuille, ce qui inscrit des signes et des lettres parfaitement visibles. Cette écriture n’est sensible ni à la température, ni à l’humidité, ni à la lumière, et dure aussi longtemps que le papier lui-même. Quand on écrit sur du papier de couleur, la bille concentre la couleur sur son passage, laissant ainsi des marques visibles plus colorées que le papier. Ce nouveau type de stylographe ne demande que fort peu d’entretien et peut fonctionner dans n’importe quelle position. Toutefois, ses inventeurs en réservent l’usage, pour l’instant, aux enregistrements de graphiques industriels ou médicaux (D’après une information du Centre culturel américain).
- 65
- p.65 - vue 69/551
-
-
-
- Les hauts fonds du plateau de Rochebonne
- A 60 km au large des côtes vendéennes, au droit de l’île de Ré et au sud de l’île d’Yeu, se trouve un haut fond immergé sous moins de 4 mètres d’eau à basse mer : le plateau sous-marin de Rochebonne. Les pêcheurs et les marins le connaissent bien, et l’on sait par ailleurs qu’il fut le responsable d’un tragique naufrage, celui du paquebot Afrique, disparu corps et biens en 1920.
- Les trois sommets culminants du plateau font déferler les vagues et sont bien connus des pilotes, depuis le xvie siècle : ils constituaient en effet de sérieux obstacles pour les navires qui allaient de Nantes à Bordeaux ou pour ceux qui voulaient entrer à la Rochelle. Des sondages avaient même été effectués sur ordre de Colbert à la fin du xvne siècle ; mais il fallut attendre les travaux du « père de l’hydrographie », l’ingénieur Beautemps-Beaupré, en 1824, pour voir délimiter avec quelque justesse les contours du plateau. Cependant l’état de la mer, presque toujours déchaînée sur les parages de Rochebonne, interdit alors des vérifications minutieuses.
- En 1859, le ministère de la Marine confia à l’ingénieur hydrographe Bouquet de la Grye la tâche de lever avec précision la carte des fonds de Rochebonne. Ce travail fut conduit avec méthode et en utilisant des procédés originaux (différence de temps entre la perception de l’éclair et celle du coup de canon, pour fixer la distance exacte d’un point à un autre). Mais une confusion fut opérée involontairement entre deux têtes sous-marines, et la plus occidentale, la Congrée, sur laquelle la mer ne déferlait ce jour-là que faiblement, fut « oubliée » ; Bouquet de la Grye ayant trouvé trois têtes de roches, correspondant au nombre traditionnellement admis, ne poursuivit pas ses recherches : il avait en fait, parmi les trois sommets, trouvé un haut fond de — 8 m dont l’existence n’était jusque-là pas connue.
- Tout se passa donc comme si, sur les cartes marines, la Congrée était décalée vers l’est (d’environ 3 milles marins). La vraie Congrée fut rayée des cartes, mais son nom subsista pour désigner un des trois brisants relevés par Bouquet de la Grye. La confusion qui s’ensuivit persista pendant un siècle ; les patrons des bateaux chargés à diverses reprises de baliser le plateau de Rochebonne s’étonnaient pourtant de mettre, pour atteindre la Congrée, dix minutes de plus que le temps de parcours calculé d’après la carte... Et c’est sans doute à cette erreur de carte que doit être attribué le naufrage de Y Afrique.
- 50 km
- /. de ^ Noirmoutier
- I. d'Yeu
- les: Sables-d'Oionne;
- O C
- l.de Ré
- PLATEAU DE/ ROCHEBONNE
- la Rochelle
- QUE
- l.d'OIéron
- Il fallut attendre les récentes années pour voir effectuées des opérations de vérification, à l’aide des moyens scientifiques modernes (radio-navigation, radar). Après plusieurs relevés (1953, 1957), une opération méthodique fut entreprise en i960, à partir de stations de radiolocalisation Rana, installées sur les côtes vendéennes, et charentaises : les appareils Rana sont capables de déterminer avec précision la position en mer, à 10 mètres près, de points éloignés jusqu’à 150 km des côtes. La tâche, dévolue à la Mission hydrographique des côtes de France et d’Afrique du Nord, a été menée à bien pendant l’été i960 ; des sondages nouveaux ont ultérieurement permis de lever une carte définitive des fonds du plateau de Rochebonne, en restituant sa vraie place à la Congrée.
- Ainsi le danger est enfin mieux circonscrit ; et surtout, au lieu de rester méconnu, il est exactement remis à son emplacement. Les congres géants qui hantent les rochers de la Congrée en seront-ils plus voraces sur les appâts des pêcheurs ?
- D. C.
- L’introuvable météorite de 1908
- Les recherches relatives à la météorite tombée en 1908 dans la région de Toungousk, en Sibérie, se poursuivent, fait savoir la revue soviétique Priroda. Ainsi un groupe de spécialistes explora récemment la région que la météorite avait probablement survolée avant l’impact. Ces hommes parcoururent, principalement à pied, une distance de 1 400 km et interrogèrent les habitants de la région qui auraient pu être témoins de la chute de la météorite en 1908. Ils découvrirent bien une bande de terrain, longue d’au moins 40 km et parfois large de 4 km,
- orientée vers le nord-est, où les arbres étaient déracinés et à demi calcinés. Cependant, tant l’aspect de cette bande ravagée que les déclarations des témoins semblent indiquer qu’il s’agit là de ravages exercés par un ouragan ordinaire. Les témoins affirment, en effet, que les arbres auraient été déracinés par l’un des ouragans (l’un entre 1904 et 1912 et l’autre entre 1923 et 1928) qui avaient dévasté la région. Quant aux troncs calcinés, ils seraient la conséquence d’un incendie de forêt ultérieur aux deux ouragans.
- 66
- p.66 - vue 70/551
-
-
-
- Les oscillations des climats
- de la zone aride dans le dernier million d’années
- Poursuivant la collection où sont traités les divers problèmes scientifiques de la zone aride (16 ouvrages étaient déjà en librairie), PUnesco a récemment fait paraître un 17e volume, sous le titre Histoire de /’utilisation des terres en t(one aride. Selon l’aimable proposition qui nous en a été faite, nous résumerons dans cet article un des principaux chapitres de cet ouvrage, rédigé par K. W. Butzer, professeur assistant de géographie à l’Université du Wisconsin. De cette remarquable étude, consacrée à la paléoclimatologie de la zone aride, nous avons prélevé plus particulièrement ce qui concerne les régions les mieux connues, c’est-à-dire l’Afrique du Nord et le Proche-Orient.
- Il nous faut au préalable, pour la compréhension de ce qui suit, indiquer les causes qui, selon K. W. Butzer, ont déterminé l’existence des déserts, des steppes et en général des zones où les précipitations atmosphériques sont minimales.
- Un phénomène doit tout d’abord être mis en lumière : c’est l’effet d’écran produit par les reliefs montagneux à l’égard des vents chargés d’humidité. L’exemple caractéristique est celui du désert du Turkestan dont la position « sous le vent » des hautes chaînes situées à l’Ouest et au Sud explique son extrême sécheresse.
- Le deuxième facteur qui détermine la formation de zones arides est la circulation générale des vents au-dessus des deux hémisphères. Ce mouvement « ample et constant » de l’atmosphère est dû à l’échange de chaleur entre l’équateur et les pôles, échange qui se traduirait en théorie par un écoulement du Sud vers le Nord (dans le cas de l’hémisphère boréal). Mais la rotation du globe et la résistance de frottement entre terre et atmosphère interviennent, créant un flux de vents d’ouest dominants en surface
- par Yves Mériel
- entre les latitudes 350 et 750, un flux de vents d’est entre les latitudes o° et 350. C’est dans une zone de contact entre les vents d’ouest et les vents d’est que s’installe un système secondaire de circulation, associé à une ceinture subtropicale de hautes pressions et à une ceinture équatoriale de basses pressions. Ce système secondaire est celui des vents alizés qui soufflent du nord-est dans l’hémisphère boréal. On a observé, au-dessus des régions soumises au régime des vents alizés, un phénomène d'inversion qui se révèle, à des altitudes variant entre 800 et . 2 000 m, par une élévation de la température et du degré d’humidité, par rapport aux couches d’air inférieures. C’est ce phénomène qui est la cause directe du très faible niveau de précipitations dans ces régions telles que l’ensemble désertique saharo-arabique, le désert de Thar en Inde et celui de la Californie en Amérique du Nord.
- La description des facteurs de l’aridité laisserait supposer que ces régions géographiquement prédestinées à jouer le rôle de déserts sont soumises à des conditions climatiques immuables. Cela serait en contradiction avec les fluctuations de faible amplitude constatées actuellement et davantage encore avec les très importantes fluctuations du passé. Sans que jusqu’à nouvel ordre ces fluctuations puissent être vraiment expliquées, elles ont été étudiées par différents auteurs (H. C. Willett en particulier) qui ont mis en relief deux séries de types de circulation atmosphérique, le type %onal et le type méridien. Le type zonal se caractérise par des ceintures de basses et de hautes pressions bien développées,
- Fig. 1. — Une scène familière en zone aride, dans la région de Goulimine (Maroc).
- (Photo Gerda Bohm, Unesco).
- p.67 - vue 71/551
-
-
-
- et par une circulation régulière des vents alizés. Le type méridien est dominé par l’existence de « couloirs » dans la haute atmosphère, par où des masses d’air polaire se déplacent vers les tropiques, tandis que des masses d’air tropical s’acheminent vers le pôle : la circulation normale des vents alizés se trouve ainsi perturbée.
- Les glissements du type zonal au type méridien et vice versa éclaireraient les variations climatiques qui vont à présent être évoquées.
- Glaciations et pluviaux au Pléistocène
- Au cours des centaines de millions d’années que représente la durée des ères primaire, secondaire et tertiaire, la Terre a connu des régimes climatiques très différents de ceux qui viennent d’être décrits. Des températures plus uniformes, un gradient thermique entre les pôles et l’équateur nettement plus faible donnaient lieu à une circulation atmosphérique beaucoup moins intense. C’est ainsi que des faunes et des flores subtropicales ont pu s’épanouir à la hauteur du cercle polaire et que des zones arides ont été retrouvées à de hautes latitudes.
- C’est seulement à partir du Pléistocène (Quaternaire) que les fluctuations du climat ont pu être définies à la lumière des données actuelles. Également à cette époque, dont la durée n’excède guère un million d’années, s’est instaurée la succession rapide (géologiquement parlant) des phases glaciaires et interglaciaires. L’intérêt que nous portons à ce stade exceptionnel de l’histoire du globe est d’autant
- plus grand qu’il coïncide avec la présence de l’homme et avec les importantes migrations qu’imposèrent à nos ancêtres les variations du climat.
- La notion de phases glaciaires et interglaciaires doit, à vrai dire, être corrigée et complétée : alors que les glaces s’accumulaient aux hautes et moyennes latitudes, le climat des basses latitudes semble avoir été généralement caractérisé par de fortes précipitations. Et c’est ainsi que le nom de pluviaux a été donné par Hull (en 1884) aux phases humides qui intéressent la zone subtropicale.
- La correspondance entre glaciations et pluviaux, présentée par G. K. Gilbert et M. Blankenhorst, semble actuellement prouvée par les oscillations « glacio-eusta-tiques » du niveau des océans : des indices géologiques incontestables démontrent que les phases dites glaciaires ont été en réalité des périodes humides où les glaciers se sont « enrichis » aux dépens des océans dont le niveau put s’abaisser en certaines périodes de plus de 100 mètres. Au cours des interglaciaires (ou interpluviaux), un phénomène inverse rétablissait le niveau qui sans doute dépassa à plusieurs reprises celui d’aujourd’hui.
- Ce schéma général ne doit pas faire perdre de vue les différences qui ont pu exister, en matière de précipitations, entre les zones semi-arides et arides.
- Zone semi-aride de latitude moyenne. — Dans des régions telles que la grande steppe eurasienne, l’Anatolie, l’Iran intérieur, la Meseta espagnole, le climat des périodes glacio-pluviales était froid, les précipitations demeurant cependant peu abondantes. Mais l’évaporation réduite, associée à des températures d’été plus basses, exerçait un effet positif sur
- !
- Fig. 2. — Sur le plateau de Zarzaïtine, au Sahara.
- Paysage typique du désert (falaises et grès) : des « gour » émergent du sable. Malgré les fluctuations climatiques du Pléistocène et de l’époque historique, il semble que la sécheresse a régné de manière permanente au cœur des grands déserts africains. Les ergs et les hamadas n’auraient été recouverts par la végétation que dans les zones marginales.
- {Photo B. R. P.).
- 68
- p.68 - vue 72/551
-
-
-
- Fig. y. — Relief de Hassi Messaoud dans la zone steppique (Sahara).
- (Photo B. R. P.).
- le bilan hydrologique. C’est ainsi que, tout en baignant des rives à l’état de steppes, la Mer Caspienne se trouvait à un niveau de 75 m plus élevé qu’aujourd’hui. Elle se déversait alors dans la Mer Noire.
- Dans des régions plus méridionales (Caucase du Sud, Anatolie, Iran) des précipitations relativement abondantes, attestées par le haut niveau des cordons littoraux des lacs, ont permis à une végétation plus dense de s’installer. Ces régions étaient partiellement recouvertes de forêts du type tempéré mixte et de forêts de conifères. La figure 4 retrace les conditions climatiques qui semblent avoir prévalu pendant une phase glacio-pluviale.
- Zones arides subtropicales. — Des indices moins nets (terrasses des oueds et sols fossiles) ainsi qu’une élévation du niveau de la Mer Morte à 240 m au-dessus du niveau actuel montrent que les phases pluviales ont été ressenties dans les déserts du Nord-Ouest de l’Inde, du Proche-Orient et de l’Afrique du Nord. « Au cours de ces périodes, écrit Butzer, l’homme paléolithique a pu errer à travers des régions qui ne sont plus aujourd’hui qu’un désert
- Fig. 4. — Reconstitution des conditions d’humidité, au cours d’une phase glacio-pluviale du Pléistocène.
- i, Rivages approximatifs desocéans (isobathes de ioo m). 2, Isotherme actuelle de x8° C. 3, Tracé approximatif de l’isotherme de 180 C, pendant une phase glacio-pluviale. 4, Zone actuellement semi-aride, mais ayant appartenu à une province humide en période pluviale. 5, Zone semi-aride en période pluviale. 6, Zone aride en période pluviale. 7, Extension des mers intérieures en période
- pluviale.
- (D'après K. W. Butzer, FUstory of land use in arid régions, Unesco, 1961).
- 69
- p.69 - vue 73/551
-
-
-
- Fig. /. — La « grande girafe ».
- Relevé à Adjéfou (Tassili), ce dessin est d’une époque indéterminée, que l’on peut situer cependant vers le début de la période historique.
- {Relevé de la mission Henri Lhote).
- stérile et il faut admettre qu’une vie animale et végétale était possible au cœur du Sahara. » Il serait cependant aventuré de décrire cette région, au Pléistocène, comme sillonnée de rivières permanentes et couverte d’une végétation luxuriante.
- Zone aride tropicale ou équatoriale. — A la hauteur des marges méridionales du Sahara et sur une partie importante de l’Afrique centrale, il apparaît que l’abaissement de la température, au cours des phases glacio-pluviales, a été pratiquement négligeable, mais l’accroissement des précipitations très appréciable. D’innombrables lacs d’eau douce existaient entre le Tibesti et l’Ennedi, ainsi qu’au sud du Hoggar. Le lac Tchad, beaucoup plus étendu qu’aujourd’hui atteignait des profondeurs de 60 m. Les principaux dépôts lacustres de la phase humide sont du Pléistocène supérieur et contemporains de la dernière glaciation, celle de Würm.
- Les indications qui précèdent pourraient laisser croire que le Pléistocène a été, dans son ensemble, une période beaucoup plus humide que la période actuelle. Il n’en est rien, car les phases pluviales, sans doute relativement brèves, ont toujours été suivies de phases interpluviales où régnait au contraire une extrême sécheresse. Ajoutons que, selon Butzer, on hésite depuis quelques années à établir une corrélation absolue entre les interglaciaires classiques et les interpluviaux. C’est ainsi que, par exemple, au Pléis-
- Fig. 6. -— Peinture rupestre d’Aouanrhet (Tassili).
- La figuration de l’hippopotame témoigne d’un climat relativement humide. Ce dessin appartient à la période bovidienne, ainsi nommée à cause de la fréquence des figurations de bœufs et de pasteurs. Elle pourrait se situer approximativement entre 4000 et 2000 avant J.-C.
- (Relevé de la mission Henri Lhote).
- tocène moyen, la glaciation de Mindel aurait été contemporaine d’un interpluvial des basses latitudes.
- Du Pléistocène à nos jours
- C’est précisément par une phase de grande aridité qu’a débuté l’Holocène (ou Actuel), avant la période historique. Alors s’amorçait une des premières civilisations néolithiques (13000 environ avant notre ère) dans les vallées du Nil, du Tigre, de l’Euphrate et de l’Indus. Par la suite, on a pu relever une succession de phases humides dont l’intensité ne peut cependant être comparée à celle des pluviaux du Pléistocène. On leur a donc donné le nom de subpluviaux.
- L’un d’eux a été. mis en relief voici trente ans par Mlles Caton-Thompson et E. W. Garden. Elle se situe entre 5000 et 2350 avant J.-C. C’est la faune du Sahara, reconstituée grâce à des dessins rupestres, qui démontre l’humidité relative qui régnait à cette époque.
- Mettant à part l’antilope, la gazelle et l’autruche, on peut
- 70
- p.70 - vue 74/551
-
-
-
- 250km
- Fig. J. — Répartition des précipitations dans le Sahara oriental.
- Cette carte fait ressortir les différences évaluées entre les précipitations actuelles et celles de la période néolithique (5000 à 3000 avant J.-C.). Les isohyètes actuels, en millimètres, sont représentés par des lignes pleines, les isohyètes néolithiques en lignes poin-tillées. La ligne en traits gras interrompus (1) marque la frontière actuelle entre la zone des pluies d’hiver et celle des pluies d’été prédominantes.
- (.D'après K. W. Butzer, op. cit.).
- FAYOUM
- TRI POLI TAINE
- GILF KEBIR
- UWEINAT
- TIBESTI
- EN N ED!
- TCHAD•
- citer, parmi les animaux témoins, Véléphant, dont les besoins en fourrages verts sont énormes et qui exige une réserve permanente d’eau. Il en est de même pour le rhinocéros, et surtout pour Y hippopotame, généralement confiné dans son milieu aquatique. La girafe se rencontre rarement dans les zones sans arbres. Le crocodile n’a survécu qu’à de rares exemplaires dans les gueltas, petites mares permanentes. Une espèce disparue de buffles, Bubalis antiqms, témoigne
- également d’un climat relativement humide, sous lequel la zone désertique actuelle devait avoir l’allure des zones de « parc » ou de savane qu’on retrouve aujourd’hui en Afrique centrale.
- C’est sur la base de ce matériel paléozoologique qu’a été établie la carte des précipitations de cette époque (5000 à 3000 avant J.-C.) (fîg. 7). On a admis, pour le tracé des isohyètes (courbes d’égale humidité), une préci-
- Fig. 8. — Autruches et antilopes au Tassili des Ajjer. Cette peinture rupestre, comme celles des figures 5, 6 et 9, a été relevée par la mission Henri Lhote dans le Tassili des Ajjer. Trouvé à Adjéfou, ce dessin appartiendrait à la période dite des têtes rondes, probablement antérieure au 3e millénaire avant J.-C. L’autruche, témoin d’un climat relativement humide, coexiste avec l’antilope qui supporte des climats secs.
- 71
- p.71 - vue 75/551
-
-
-
- Fig. Çf. — Combat de girafes.
- Ce dessin représente incontestablement une scène de rivalité entre deux girafes mâles pour la possession d’une femelle. On y voit aussi une autruche et des antilopes. Période bovidienne.
- (Relevé de ta mission Henri Lhote).
- pitation minimale annuelle de 150 mm pour le rhinocéros et l’hippopotame, de 100 mm pour l’éléphant, de 5 o mm pour la girafe. On constate une extension de 100 à 250 km des ceintures marginales de végétation vers le cœur du désert. Les hauts plateaux, mieux favorisés en humidité, hiver comme été, constituaient sans doute des réserves encore plus propres à la vie.
- Des preuves paléobotaniques, bien que moins nombreuses que les témoignages zoologiques, viennent confirmer ces derniers ; outre quelques vestiges de la plante aquatique Pistia stretiotes, on retrouve également en plein désert, de part et d’autre de la vallée égyptienne du Nil, de nombreuses souches d’acacia, de tamaris et de sycomore, caractéristiques d’une végétation du type savane. Cette végétation apparaît d’ailleurs dans les bas-reliefs égyptiens antérieurs à la 6e dynastie. Il semble qu’elle s’étendait principalement
- sur les régions assez élevées et n’a pas pénétré au cœur du désert de Libye.
- Des observations faites sur les confins méridionaux du Sahara (souches d’acacia) attestent, elles aussi, l’extension de la savane. Dans cette même région enfin, les nappes d’eau souterraines étaient plus abondantes, permettant le jaillissement de puits artésiens, plus tard transformés en « puits de puisage ». Ce régime assez riche de l’eau est attesté notamment, à l’oasis de Kharga, par d’immenses dépôts de tuf calcaire provenant de sources. De nombreux outils néolithiques démontrent la présence d’une population de pasteurs nomades.
- Première dessiccation historique dans le Proche-Orient (2qjo-j0 0 avant J.-Cl). — Le retour à la sécheresse commence à se dessiner au cours du quatrième millénaire avant J.-C. Peu à peu les éléphants et les girafes disparaissent des dessins rupestres. Déjà sous la quatrième dynastie (vers 2600 avant J.-C.), la faune de la savane semble définitivement oubliée. Dans les scènes de désert, aucun arbre n’apparaît. Quant aux chasses des pharaons, à partir de la 6e dynastie, elles semblent être faites dans des enclos,
- 72
- p.72 - vue 76/551
-
-
-
- Fig. io. — Palette du Musée du Louvre.
- Cet objet en schiste, décoré d’un bas-relief et dont l’utilité n’est pas exactement connue, date de l’époque thinite, qui a précédé l’époque memphite. Elle correspond à la préhistoire égyptienne. Les deux girafes ici représentées sont les témoins irrécusables de l’humidité relative qui régnait alors en Égypte.
- (Archives photographiques).
- aux dépens d’un gibier exotique, et non plus dans le désert. C’est ce qui ressort d’un examen des bas-reliefs.
- En se référant à 990 dessins étagés dans le temps, on a pu retracer l’évolution de la faune, où la gazelle et le bubale, animaux résistants à la sécheresse, prennent une importance relative de plus en plus grande, alors que le rhinocéros, l’éléphant et la girafe ont disparu après la ire dynastie, et que les félins se sont beaucoup raréfiés.
- Ce témoignage de la faune est confirmé par un fait géologique : l’invasion des dunes qui sont venues à la même époque recouvrir les formations alluvionnaires. Ces dunes peuvent être observées actuellement à l’état fossile.
- En résumé, le premier dessèchement historique, amorcé vers l’an 2000 avant J.-C., a été extrêmement sévère, les conditions climatiques étant à cette époque plus défavorables encore que de nos jours. Éternelles fluctuations : le retour à une plus grande humidité se traduit par la sédimentation intense du Nil à partir de 500 avant J.-C. Les dunes sont recouvertes par les apports alluvionnaires, dus eux-mêmes à de fortes crues du fleuve. La hauteur moyenne enregistrée à cette époque (qui fut d’ailleurs exceptionnellement prospère) était de 9,54 m, soit un mètre de plus que la moyenne actuelle.
- Deuxième période historique : les prétendues preuves archéologiques d’une nouvelle dessiccation. — La précédente génération d’historiens et d’archéologues a répandu l’idée que les périodes gréco-romaine et byzantine ont connu des pluies abondantes, créant des réserves d’eau et des oasis nombreuses. La preuve en était fournie, croyait-on, par les villes prospères, aujourd’hui abandonnées, et les cultures
- Fig. 11. — Hippopotame en terre cuite du Musée du Louvre.
- Ce mammifère, qui est représenté avec un ornement de plantes aquatiques, daterait de l’époque du Nouvel Empire (15S0 à 1100 environ avant J.-C.). Il aurait donc été façonné à l’extrême fin de la phase humide.
- (Photo Giraudon).
- p.73 - vue 77/551
-
-
-
- florissantes également disparues, du fait de la sécheresse revenue.
- Tout porte à croire que cette interprétation climatique de la ruine qui s’est abattue sur le Levant et l’Afrique du Nord est fausse. Les cités abandonnées se trouvent en effet, maintenant encore, à l’intérieur de l’isohyète de 200 mm, certaines même reçoivent 500 mm par an. Ce n’est pas un changement de climat qui explique la désolation actuelle, mais bien l’érosion et le déboisement, conséquences d’une détérioration politique.
- L’insécurité due aux guerres entre Byzance et les Sassa-nides a poussé en particulier les Syriens à émigrer vers l’Europe au cours du 6e siècle de notre ère. Même phénomène en Arabie du Sud-Ouest où les guerres ont entraîné une « bédouinisation » progressive des oasis.
- Oscillation des nappes souterraines. — Un argument présenté par les défenseurs de la théorie d’une aggravation climatique à partir de l’époque romaine mérite d’être examiné. Les nappes souterraines, depuis cette époque, se sont abaissées : le fait n’est pas contestable dans le désert égyptien où de nombreux puits et sources ont tari. Les différences de niveau atteindraient parfois 5 5 à 60 mètres. Dans la région du Jourdain, de Palmyre et de Gaza, les indications recueillies sont moins nettes, parfois même contradictoires.
- L’interprétation selon laquelle l’épuisement de la nappe phréatique correspondrait à une diminution des pluies est assez simpliste. On lui préfère aujourd’hui une autre interprétation : les eaux souterraines des déserts seraient une relique des périodes pluviales du Pléistocène et de la subpluviale de 5000-2400 avant J.-C. Dans les zones totalement
- arides et qui le sont restées depuis lors, la nappe, faute de précipitations, s’est progressivement épuisée, par suite de pertes artificielles et naturelles. Au contraire, dans les zones où il a continué à pleuvoir, les nappes sont restées plus ou moins constantes. C’est ce qui ressort d’une carte où ont été reportées les tendances connues des eaux souterraines. La tendance à l’appauvrissement et la tendance à la stabilité se répartissent de part et d’autre de l’isohyète de 100 mm.
- ILa dernière période. — Si l’on doit s’inscrire en faux contre la théorie d’une aggravation progressive du climat dans les 2 000 années qui séparent l’apogée de la civilisation romaine et la fin du xixe siècle, il est par contre prouvé que la toute dernière période est fort sèche. Un maximum d’humidité avait été signalé dans les années 1870-1900 : niveau élevé de la Caspienne et de la Mer Morte, crues du Nil et du Sénégal. Or, on a assisté depuis 1910 à une baisse de 2 à 3 m dans la Caspienne et la Mer Morte, à une transformation en marécage du lac Jairud (Syrie), à l’abandon des pâturages dans le Tibesti, à un dessèchement du lac Akshir en Anatolie, à une diminution annuelle des eaux du Nil, atteignant 25,3 millions de mètres cubes.
- La tendance actuelle à une plus grande aridité n’est donc pas contestable. Elle ne s’est pas démentie dans la dernière décennie. Aucun retournement n’est actuellement prévu ni prévisible. Le problème écologique des zones arides des différents continents se pose, au point de vue climatique et au point de vue humain, dans toute son acuité.
- Yves Mériel.
- Un nouveau méson : le méson oméga
- En dehors des nucléons (protons et neutrons), des photons et des neutrinos, les particules connues jusqu’à présent se classent en deux catégories : les mésons, ou électrons lourds, de masse plus petite ou de même ordre que celle des nucléons, et les hypérons, de masse supérieure à celle des nucléons. Les mésons connus jusqu’ici étaient de trois types : mésons g, ou muons, dont la masse vaut 206 fois celle de l’électron ; mésons tc, ou pions (masse : 273 é) ; mésons K (masse : 967 e). Toutes ces particules ont une vie très brève : io~8 à io~9 seconde pour les divers mésons K qui se désintègrent en donnant des mésons plus légers ; 2 x io~6 s environ pour les mésons tc et g, les tc se désintégrant en mésons g, et ceux-ci en électrons. Les mésons q portent une charge électrique (égale à celle de l’électron) positive ou négative ; il en est de même pour les mésons tc et K qui, en outre, peuvent être électriquement neutres (on écrit, par exemple, selon le cas : tc+, tc- ou tc°).
- S’il n’existe pas encore de théorie qui rende compte parfaitement du rôle des mésons, on a de bonnes raisons de croire qu’ils sont responsables des forces qui s’exercent entre les nucléons au sein des noyaux d’atome et assurent leur cohésion.
- Ce ne sont pas, en effet, des forces de nature électrostatique puisque le neutron est neutre et qu’il existe pourtant, par exemple, dans le noyau de deutérium, où un neutron et un proton sont liés énergiquement. Le calcul montre que les forces de nature gravitationnelle sont io36 fois trop petites, donc pratiquement négligeables, que les forces magnétiques dues au couplage des moments magnétiques sont environ 200 fois trop faibles pour rendre compte de l’énergie de liaison intranucléaire. Devant l’impossibilité d’expliquer par ces forces classiques la stabilité des noyaux, en particulier celle du deutérium, on a imaginé un mécanisme analogue à la liaison covalente des atomes dans les molécules. Dans ce mode de liaison, où deux atomes mettent en commun deux électrons, ces électrons peuvent échanger leurs positions et on dit que les forces de cette liaison sont des forces d’échange.
- En 1935, Yukawa a proposé de considérer que dans un noyau la liaison entre deux nucléons peut, de façon analogue, se réaliser par l’échange d’une particule et c’est ainsi que les mésons ont été imaginés par la théorie avant d’être observés effectivement. Ce rôle de liaison est aujourd’hui attribué au méson tc et l’échange peut se schématiser de deux façons, également probables :
- 74
- p.74 - vue 78/551
-
-
-
- p fi- n -> ri -f n+ -f n -> ri -f- p' ; ou : p + n -» p fi- iz~ p' -> ri Jr p'.
- Dans la première formule, un proton p se transforme en neutron ri par émission d’un méson tc positif qui, transporté sur le neutron n, le transforme en proton p'. Dans la deuxième, le neutron n se transforme en proton p' par émission d’un tc négatif qui transforme le proton p en neutron ri.
- Une nouvelle découverte, celle d’un méson plus lourd que tous ceux qui étaient connus jusqu’ici, a été faite l’année dernière au Lawrence Radiation Laboratory de l’Université de Berkeley (Californie). Ce nouveau méson, baptisé méson co (oméga), a une masse qui vaut i 540 fois celle de l’électron ; il n’a pas de charge électrique ; sa durée de vie est extrêmement brève, 4 X io~23 s, et il se désintègre en donnant trois mésons tc.
- On sait qu’à chaque particule correspond une antiparticule (lorsqu’il s’agit d’une particule chargée, l’antiparticule est de signe contraire). Particule et antiparticule, quand elles se rencontrent, s’annihilent mutuellement en donnant des rayons y de grande énergie. C’est en analysant les photographies des traces laissées dans une chambre à bulles à hydrogène liquide, lors de l’annihilation d’un proton et
- d’un antiproton, que le méson oméga a été découvert, par l’apparition simultanée de trois mésons tc. En raison de la vie très courte du méson cù et du fait qu’il n’a pas de charge électrique, les physiciens ont dû, en quelque sorte, travailler à rebours, remonter de l’effet à la cause et prouver que les trois mésons iz observés provenaient de la désintégration de l’inobservable oméga. Quelque 30 000 photographies ont été analysées, grâce, notamment, à une calculatrice numérique IBM 709. Dans 90 de ces photos, l’analyse a montré que la présence d’un méson w était indispensable pour expliquer les phénomènes observés.
- Commentant leur découverte, qui vient s’ajouter à la vingtaine de particules déjà connues, les physiciens de Berkeley ont déclaré : « Niels Bohr ne fut en mesure de créer la théorie atomique moderne que parce qu’il disposait en 1913 d’une foule de données expérimentales sur les états d’excitation de l’atome d’hydrogène. Maintenant que des données analogues sur les particules élémentaires s’accumulent peu à peu, nous sommes portés à croire que la théorie générale que l’on attend depuis si longtemps est à la portée d’un physicien théoricien vivant, s’il montre la même imagination audacieuse dont témoigna Bohr en 19x3. »
- J. C.
- Acoustique des arbres
- Les diverses espèces d’arbres ne participent pas de manière égale au bruissement de la forêt. Ainsi, le murmure, plutôt sourd, du chêne, qui a surtout pour cause le choc entre les feuilles, est un son de basse fréquence, alors que le « soupir sibilant » du pin, résultat de la formation de tourbillons sur les aiguilles, se situe dans une gamme de fréquences beaucoup plus hautes. D’autre part, au printemps, lorsque les feuilles sont encore jeunes et tendres, le son qu’elles produisent est beaucoup plus doux qu’en automne.
- Des chercheurs soviétiques de Minsk se sont livrés à l’étude de cette acoustique des arbres et quelques résultats en ont été publiés dans Vriroda (Moscou). Ils ont procédé à l’enregistrement du son émis par un groupe de peupliers et par un frêne solitaire. Le microphone était placé à 2 m du sol et à 4 m du tronc dans le cas des peupliers, à 3 m du sol et dans la couronne même de l’arbre dans le cas du frêne. En même temps on mesurait la vitesse du vent ; l’anémomètre se trouvait, dans les deux cas, à la même hauteur que le microphone et à 1 m de celui-ci. La fréquence du son a été déterminée à l’aide des courbes relevées sur l’écran d’un oscillographe, après leur comparaison avec la courbe d’un générateur standard de son (il n’a pas été tenu compte des harmoniques). Comme on le voit sur la figure, la variation, avec la vitesse du vent, de la fréquence du son émis par le frêne et par les peupliers est représentée approximativement par la même ligne droite.
- D’autre part, l’analyse d’un grand nombre de films portant l’enregistrement des vibrations de feuilles d’arbre a permis de constater que la fréquence de ces vibrations
- J Frênes I Peupliers
- Vitesse du vent {mètresJ seconde)
- Fig. 1. — Influence de la vitesse du vent sur la fréquence du son émis par des arbres.
- (D'après B. I. Arabadji et S. D. Zintchyk, Minsk).
- était comprise entre 0,5 et 1,5 Hz. Les fréquences de 800 à 3 600 Hz relevées sur la courbe ci-dessus semblent donc indiquer que le bruit de la forêt est dû, non point aux vibrations propres des feuilles, mais bien aux chocs entre les feuilles (ou entre les feuilles et les branches) et à la formation de tourbillons sur les feuilles, les aiguilles (dans le cas du pin) et les branches.
- C. M.
- 75
- p.75 - vue 79/551
-
-
-
- Le vieillissement de la population
- et les aspects sociaux par Gast0„ c0hen
- de la gérontologie
- La gérontologie, science du vieillissement (ou de la sénescence) pourrait être considérée comme une des branches de la biologie, s’appliquant à toutes les espèces animales et végétales. Il se trouve cependant qu’elle a pris rang tout d’abord parmi les sciences humaines. Deux raisons à cela : la première est que la plupart des gérontologues sont en même temps des gériatres, c’est-à-dire des médecins spécialisés dans les soins donnés aux personnes âgées. La seconde raison est que la recherche gérontologique est puissamment stimulée par des problèmes démographiques dont les incidences économiques et sociales sont, à bien des égards, inquiétantes. C’est ce dernier aspect que nous devons aborder en premier lieu, avant de présenter la gérontologie proprement dite sous l’angle de l’investigation scientifique, ce que nous ferons dans un deuxième article.
- On fait assez souvent allusion, en France, au « vieillissement de la population », terme dont il importe de donner une définition précise. On peut déjà en avoir une représentation graphique en mettant en regard deux pyramides des âges tracées à deux époques différentes. Rien n’est plus frappant que de voir la différence qui existe entre la pyramide de la figure i A, massive à sa base et en son milieu, s’effilant au sommet en une courte pointe, et celle de la figure i B où la pointe est nettement plus étoffée.
- Ceci veut dire que les tranches d’âge du sommet (au-dessus de 60 ans) sont devenues proportionnellement plus nombreuses. Or ce phénomène démographique est commun à plusieurs pays d’Europe. La France fut à cet égard relativement précoce, puisqu’elle avait déjà 8 pour ioo de sexagénaires en 1788, 12 pour 100 en 1870, pour parvenir à 16 pour 100 en 1947 et 18 pour 100 en 1959. D’autres pays cependant, partant de plus bas mais obéissant à un rythme plus rapide, sont en passe de la rattraper. Tel est le cas de la Grande-Bretagne où le taux de 8 pour 100 ne date que de 1910, alors que celui de 16 pour 100 a été atteint en 1952,les prévisions pour 1980 étant de 20 pour 100. L’évolution en Allemagne s’exprime par des chiffres analogues.
- Une explication hâtive surgit immédiatement à l’esprit : la vie s’est allongée ! Or, les travaux de Bourgeois-Pichat et de Sauvy démontrent que ce n’est pas la baisse de mortalité qui est en cause, mais bien la baisse de la natalité. Il ne s’agit pas là d’une loi mais d’une constatation statis-
- tique : on a pu démontrer en effet qu’en conservant à titre de simple hypothèse un taux de fécondité constant et en bénéficiant de la baisse de mortalité observée depuis la fin du xvme siècle, la proportion des gens âgés se serait nettement abaissée. Ce qu’on tend en effet à oublier, c’est que jusqu’ici l’allongement de la vie est en grande partie fictif, car les progrès de la médecine ont joué principalement au profit des jeunes. Ces derniers ont donc été plus nombreux à atteindre la soixantaine. Dans l’hypothèse ci-dessus, ce phénomène eût été accompagné par un accroissement parallèle des tranches d’âge inférieures. La pyramide se serait amplifiée en conservant la même forme.
- Les charges croissantes de la population active
- La cause exacte du vieillissement de la population étant mieux comprise, il n’en reste pas moins que la situation démographique actuelle se traduit par une charge assez lourde qui porte sur les épaules des tranches d’âge intermédiaires. Ce sont elles en effet qui constituent le noyau principal de la population active. Cela ressort d’un calcul de Roland Pressât, divisant en i960 la population de la France en actifs et en inactifs (chiffres à multiplier par 1 000) :
- Actifs Inactifs Total
- Moins de 20 ans . 1 431 D I57 14 588
- 20 à 60 ans . 16 039 7 i65 23 204
- 60 ans et plus . 2 188 5 374 7 562
- 19 658 25 696 45 354
- Chacun des actifs supporte ainsi la charge de 1,31 inactif. On prévoit qu’en 1970, en ne tenant compte que des conditions sanitaires actuelles (susceptibles d’amélioration), la situation se sera légèrement aggravée : un actif pour 1,33 inactif. Notons que cette donnée statistique est loin de traduire la réalité économique, car on admet ici, parmi les actifs, tous les « producteurs de revenus », dont le nombre excède sensiblement celui des authentiques producteurs de richesses.
- 76
- p.76 - vue 80/551
-
-
-
- Fig. I. — Comparaison de deux pyramides théoriques des âges, toutes deux fondées sur un même taux de mortalité (celui qui a été constaté en France dans la période 1952-1956).
- La différence ne résulte que du taux supposé de la natalité : taux positif de 2 pour 100 dans la pyramide A ; taux négatif de — 0,5 pour 100 dans la pyramide B. On constate que A, image d’une population « jeune », a une forme pyramidale régulière, tandis que B (population « vieille ») rappelle davantage la meule de foin. Cette représentation graphique établit nettement que le vieillisse • ment de la population est directement fonction du taux de natalité et non pas de celui de la mortalité. La pyramide est construite en portant en ordonnées les tranches d’âge et en abscisses le nombre de personnes d’un âge déterminé dans un échantillon de 1 000 habitants correspondant rigoureusement à la moyenne de la population considérée. Exemples : la tranche 15 à 16 ans contient, dans la pyramide A, 10 individus masculins + 10 individus féminins = 20. De 69 à 70 ans, on trouve : 1,9 homme + 2,2 femmes = 4,1.
- Sexe masculin
- Sexe féminin
- Proportions pour 1000 personnes au total
- Sexe masculin I
- Sexe féminin
- 4- 2 0 0 2 4
- Proportions pour 1000 personnes au total
- Quant aux inactifs, ils groupent : i° les jeunes auxquels cependant est imposée une activité croissante, en raison de l’allongement progressif de la scolarité ; 20 des femmes de 20 à 60 ans dont l’inactivité strictement économique est compensée par les tâches importantes qui leur incombent ; 30 la majorité des personnes âgées de l’un et l’autre sexes.
- Il est clair que l’on tend à mettre l’accent sur cette troisième catégorie. Bien qu’elle ne soit pas, numériquement, la plus importante, elle se détache par le fait qu’elle n’apporte à première vue, aucune compensation dans le présent et dans l’avenir. Les économistes ont donc la tentation de déplorer la situation créée par le vieillissement de la population.
- A quoi les démographes peuvent rétorquer que ce vieillissement était en quelque sorte fatal. Dans un ouvrage récemment publié, Alfred Sauvy résume le problème en une formule lapidaire : « croître ou vieillir ». Voici sa démonstration : pour maintenir (de nouveau à titre d’hypothèse) là proportion entre personnes âgées et population totale, il eût fallu (première éventualité) que se maintînt le taux de mortalité qni a cours jusqu’ici dans les pays
- sous-développés. Notons que tous les âges sont également frappés. Deuxième éventualité : la proportion reste invariable, en dépit d’une mortalité diminuée. Cela suppose un accroissement considérable de la population : c’est ainsi qu’en France, alors qu’entre 1776 et 1950 le nombre des plus de 65 ans a été multiplié par environ 4,5, il aurait fallu que dans le même temps la population (25 6x0 000 habitants au départ) s’enflât jusqu’à un chiffre de 117 000 000 !
- Inutile d’énumérer les facteurs qui se sont opposés à une telle expansion démographique. On sait que, dans les pays où elle tend actuellement à s’instaurer, un freinage est d’ores et déjà envisagé.
- L’inconnue médicale
- Le vieillissement de la population est en définitive un fait acquis, considéré, tout au moins en Europe occidentale, comme le moindre mal. Mais peut-on continuer à envisager arithmétiquement ce phénomène selon les
- 77
- p.77 - vue 81/551
-
-
-
- Sexe masculin
- Sexe féminin
- Proportions pour 1000 personnes au total
- Age
- Annéedê
- 1860 —
- Sexe masculin
- Sexe féminin '
- f 2 2 4
- Proporfions pour 1000 habitants au total
- Fig. 2. — Comparaison de pyramides d’âges réelles (1775 et i960).
- Ici, on se trouve en présence de deux populations réelles : celles de la France en 1775 (pyramide C) et en i960 (pyramide D). La reconstitution de 1775 superpose des tranches d’âge de cinq ans, les statistiques du xviii6 siècle n’ayant sans doute pas livré des précisions suffisantes pour fonder la pyramide sur des tranches d’un an. Les chiffres sur la ligne des abscisses doivent donc être interprétés comme les moyennes d’effectifs constatées sur l’intervalle de cinq ans. La pyramide D (i960) est évidemment déformée par les conséquences de deux événements historiques. i° La guerre de 1914-1918 a d’une part « rétréci » la population masculine dépassant actuellement 60-65 ans et a déterminé d’autre part, pour les deux sexes, la profonde entaille dite des « classes creuses » (qui ont aujourd’hui entre 40 et 45 ans). Cette entaille a été partiellement compensée de 1919 à 1929 (environ) par une corniche due à une poussée de la natalité. 20 A la suite de la guerre de 1939-1940, le phénomène des classes creuses et de la natalité compensatrice s’est reproduit. Si l’on aplanit par la pensée, du côté féminin, les deux entailles et les deux corniches, on retrouve une forme similaire à la « meule de foin » de la pyramide B.
- données qui ont prévalu à partir de la seconde moitié du xixe siècle ?
- Il apparaît que la baisse de la mortalité, intéressant principalement les jeunes et par contre-coup les âges supérieurs, est due essentiellement à certains progrès de la médecine et de l’hygiène. Nous avons trop souvent mis en relief la nature exacte de ces progrès pour être tentés d’y revenir. Rappelons seulement que les découvertes successives de Jenner, Pasteur, Koch, Fleming et en général des bactériologistes ont pour ainsi dire liquidé l’ensemble des agressions infectieuses qui, précédemment, décimaient les populations. La lutte efficace qui s’est instaurée se développe non seulement sur le plan médical, mais aussi sur le plan de la prévention et de l’hygiène. L’amélioration de l’habitat, l’abondance plus grande de la nourriture et les enseignements de la diététique augmentent la résistance des organismes à l’infection. L’asepsie, parmi d’autres facteurs, concourt aux nombreux succès enregistrés par la chirurgie. Ainsi sont sauvées de nombreuses vies, et cela à différents âges.
- En regard, on est obligé de reconnaître qu’il n’y a point
- de progrès équivalents dans le domaine des maladies qui frappent électivement les personnes dépassant une cinquantaine d’années. Les maladies cardio-vasculaires, suivies à faible distance par le cancer, tiennent la tête dans le classement des causes de décès. En dépit de thérapeutiques efficaces, on les voit progresser d’année en année. C’est de leur fait que la pointe de la pyramide est amenuisée en largeur et sans doute aussi en hauteur.
- Qu’arriverait-il (on peut même dire : qu’arrivera-t-il) dans le cas de nouvelles découvertes aussi radicales que celles qui sont venues à bout de la plupart des maladies infectieuses ?
- Au stade actuel, défini par les démographes comme une victoire acquise sur les maladies exogènes et l’absence de succès marquants contre les maladies endogènes, ils peuvent simplement constater que la limite de la vie moyenne a reculé jusqu’aux environs de 70 ans. Retranchant par la pensée, non seulement le cancer, l’infarctus du myocarde, l’athérosclérose, les lésions vasculaires du cerveau, mais encore certaines causes mal déterminées de la sénescence, les démographes se heurtent à la « limite biologique »,
- 78
- p.78 - vue 82/551
-
-
-
- au plafond absolu de la vie. On ne peut, en toute conscience, se référer aux quelques exceptions que représentent actuellement les centenaires et les ultra-centenaires, pour prétendre, comme le fit Bogomoletz, que ces exceptions pourront devenir la règle (la longévité, considérée du point de vue scientifique, est d’ailleurs un des points d’interrogation de la gérontologie). Ceci n’empêche que les démographes, statistiques en mains, ont calculé que le plafond absolu (intéressant les personnes bien portantes) pourrait un jour se situer aux environs de no ans, la plupart des maladies endogènes étant supposées vaincues. Par prudence, Sauvy ramène ce plafond à ioo ans, ce qui suffit à asseoir la démonstration recherchée : en cette conjoncture, humainement souhaitable, la tranche de la population qui excède 60 ans s’établirait à 40 pour xoo du total.
- C’est là évidemment le point important et qui doit servir de base non seulement au raisonnement qui va suivre mais aux investigations entreprises sur la sénescence. La proportion de 40 pour 100 n’a bien entendu aucune valeur dans la conjoncture actuelle. Disons qu’elle est pour la médecine un objectif et pour les économistes une perspective. Et admettons qu’une évolution, plus ou moins rapide, y tendra, prenant comme origine les 18 pour xoo d’aujourd’hui. Il est alors évident que le problème du rapport inactifs/actifs va se poser avec de plus en plus d’acuité.
- Avance ou recul de l’âge de la retraite ?
- On a pu remarquer, dans un des paragraphes précédents, qu’en France 2 180 000 personnes de plus de 60 ans figurent parmi les actifs. Cet âge n’est donc pas la frontière entre actifs et inactifs qui doit être recherchée dans l’âge de la retraite, fixé pour un très grand nombre de professions à 65 ans. Il est à noter cependant qu’une tendance existe pour abaisser l’âge de la retraite jusqu’à un niveau dont bénéficient déjà certaines professions fatigantes, celles par exemple des ouvriers mineurs, des pêcheurs, etc.
- La pression qui s’exerce dans ce sens émane, selon les cas : i° des intéressés eux-mêmes qui désirent réduire leur période de travail ; 20 des jeunes qui ont hâte de voir libérer des postes occupés par leurs aînés ; 30 des employeurs dont la majorité manifestent leurs préférences pour une main-d’œuvre jeune.
- Si cette tendance prévaut, le rapport inactifs/actifs ira nécessairement en s’aggravant. Éventualité peu satisfaisante aux yeux des économistes qui considèrent avec défaveur l’amenuisement de la tranche de la population qui participe à la production. Cette opposition ne peut évidemment que se durcir si l’éventualité d’un allongement substantiel de la vie vient à se préciser.
- Des opinions catégoriques ont déjà été formulées à ce sujet. Nous lisons par exemple, dans le Préas de Gérontologie de L. Binet et F. Bourlière, les lignes suivantes écrites par Jean Daric : « Il faut souligner enfin l’arbitraire auquel donne lieu une cessation d’activité à un âge déterminé pour l’ensemble des hommes d’une certaine catégorie. Les hommes sont très différents les uns des autres, les tâches qui leur sont confiées sont inégalement lourdes ainsi que les atteintes de la vie extra-professionnelles. Vouloir régler la cessation d’activité sur des normes rigides, c’est donc aller à l’encontre du simple bon sens, c’est priver
- Fig. — Le mathématicien, philosophe et sociologue anglais Lord Bertrand Russell.
- Né en 1872, le célèbre savant a encore une grande activité physique et intellectuelle. On le voit ici recevant en 1958, à l’Unesco, le prix Kalinga pour son œuvre de vulgarisation scientifique.
- {Photo C. Bablin, Unesco).
- la communauté d’un supplément de services encore très appréciables, c’est frustrer l’individu de l’exercice légitime de ses capacités, si tel est son désir. »
- La doctrine ainsi résumée est catégorique et il semble en effet logique que la frontière soit assouplie, en fonction de facteurs individuels. Notons seulement que cette doctrine est à contre-courant de la tendance signalée. On ne saurait donc s’étonner si elle fait l’objet de vives discussions.
- Nous avons pu enregistrer certaines des objections qui sont exprimées sur un plan professionnel et social. On a signalé par exemple que, dans plusieurs industries, l’outillage se conserve trop longtemps, c’est-à-dire au delà d’une date où les industries étrangères de la même spécialité se sont déjà renouvelées : ce comportement est attribué à une certaine résistance à la nouveauté qui affecte les hommes d’âge mûr. Une ambiance plus jeune, non seulement parmi le personnel de direction et de maîtrise, mais même parmi la main-d’œuvre qualifiée, aurait fait sauter, dit-on, cet obstacle psychologique.
- Une autre objection a peut-être encore plus de valeur. Elle concerne essentiellement les techniciens. Étant donnée l’évolution très rapide des sciences et des techniques, les ingénieurs sortis de l’école voici seulement vingt ou ou vingt-cinq ans sont imprégnés de notions périmées ou incomplètes qui les empêchent de comprendre les procédés nouveaux et de s’y adapter. Cela explique la préférence accordée aux jeunes techniciens, dont la culture scientifique
- 79
- p.79 - vue 83/551
-
-
-
- est fraîche. Que dire, à l’opposé, de ceux qui ont quarante ans de métier ou davantage ?
- D’autres objections du même ordre pourraient être formulées à propos de nombreuses branches de l’activité professionnelle. Si elles sont entièrement fondées, nul doute qu’elles compliquent singulièrement le problème du maintien des personnes âgées dans la production.
- Comment cette donnée (avec tout ce qu’elle peut avoir d’approximatif) peut-elle être conciliée avec la thèse à laquelle semblent se rallier les démographes et les économistes, s’inspirant de considérations arithmétiques ? Cette thèse peut s’énoncer de manière abrupte : bien loin d’avancer l’âge de la retraite, il faut le retarder, afin de conserver (pour le moins) l’équilibre qui existe entre* actifs et inactifs.
- Nous avons vu que, tenant compte des normes et des législations actuelles, cet équilibre sera fatalement rompu, s’il intervient un allongement pur et simple de la vie. Le problème, dès lors, se pose d’une manière toute différente. Il ne s’agit certes pas de rêver à des progrès de la médecine et de l’hygiène tels que la jeunesse physique et psychologique soit intégralement sauvegardée, tout au long des carrières que l’on se propose de prolonger. Mais on peut concevoir que le processus de la sénescence, méthodiquement exploré, puisse être tout d’abord exactement défini ; après quoi il deviendrait légitime de rechercher les méthodes propres à l’étaler dans le temps.
- Tel est l’objectif essentiel que vise la recherche gérontologique. On pourrait le faire tenir dans une formule d’apparence paradoxale : « Allonger la vie de chacun sans vieillir la population. » Mais il n’y a pas là de paradoxe, car il s’agit plus encore de conserver les gens âgés en bonne santé et activité que de prolonger leur vie.
- L’adaptation du « sénescent »
- On pourrait s’en tenir à ce préambule socio-économique à la gérontologie et conclure que cette science, importante en soi, est par surcroît justifiée du fait de ses applications pratiques. Mais on a pu être heurté, chemin faisant, du caractère inhumain de l’argumentation et de la conclusion. Le corps social a été un peu considéré sous l’angle d’un « élevage » où le seul critère valable est celui de l’utilité.
- Introduisons donc le facteur qui jusqu’ici a fait défaut, à savoir les aspirations personnelles du « sénescent », intimement liées (en raison souvent de certains éléments extérieurs) à toute une série de perturbations psychologiques.
- Ces aspirations sont évidemment très variables. Il est donc nécessaire de schématiser quelque peu, en éliminant par avance les cas de réactions passives, d’acceptation ou de résignation qui, du point de vue social et personnel, présentent un moindre intérêt. Restent deux sortes de réactions actives qui se traduisent par deux attitudes différentes devant la retraite.
- Fig. 4. — Une vocation tardive : « Grandma » Moses.
- Née en 1860, Mme Anna Robertson Moses, surnommée Grandma Moses, a commencé de peindre à l’âge de 78 ans, et a conquis la notoriété aux États-Unis. Son 101e anniversaire, le 7 septembre 1961, a été un jour de fête pour l’État de New York. Elle a produit 25 toiles au cours de la dernière année de son existence, son décès étant survenu en décembre 1961.
- {Photo U. S. I. S.).
- La retraite est souvent attendue avec espoir. Les raisons de cette attitude sont trop patentes pour devoir être énumérées tout au long (répugnance pour un métier devenu monotone et lassant, désir de disposer librement de son temps, etc.). Se préparant à la retraite, l’homme mûr (ou la femme) établit un programme où figurent parfois une transplantation, parfois une activité de remplacement^ le resserrement de liens familiaux, des voyages et autres perspectives attrayantes. De très nombreuses expériences prouvent que ce programme est rarement exécuté, soit faute de moyens financiers, soit plus simplement parce que le sénescent a préjugé de ses facultés de renouvellement. Pris au piège par le mirage de la retraite, il ne tarde pas à souffrir du sentiment de son inutilité. Dans les cas extrêmes, ce sentiment déclenche un processus psycho-somatique qui aboutit rapidement à des désordres physiologiques. Cette crise peut toutefois être passagère et, grâce à une nouvelle accoutumance, la retraite ménage une transition douce vers l’extrême limite de la vie.
- Très différentes sont les incidences de l’attitude opposée qui est de vouloir maintenir l’activité à tout prix. Cette attitude est évidemment d’un intérêt gérontologique plus grand, car les sujets se prêtent spontanément à une expérience qui peut être riche d’enseignements pour l’avenir. Observons par contre que, dans l’état actuel des sociétés, ces obstinés sont plus ou moins considérés comme n’appliquant pas les règles du jeu et risquent parfois d’être mal soutenus dans leurs efforts.
- Notons brièvement les difficultés dont ils peuvent prendre conscience, alors qu’ils tentent (avec ou sans succès) d’éluder la sénescence :
- i° Vivre à /’unisson des plus jeunes exige un effort plus grand que celui déployé par ces derniers. L’activité de la jeunesse et de l’âge mûr, sauf en périodes de maladie, est libre des
- 80
- p.80 - vue 84/551
-
-
-
- contraintes ou des handicaps qui vont apparaître par la suite chez les sénescents, même vigoureux et bien portants. Ces handicaps que les gérontologues soumettront à des mesures précises sont ressentis subjectivement et empiriquement par les sénescents actifs : baisse de l’intensité et de la vitesse des perceptions, mobilité diminuée, déficits de la mémoire, utilisation obligatoire de prothèses dentaires, oculaires ou auditives, soins divers apportés à des affections bénignes, etc. Tout cela se résume en une perte globale d’efficacité, en temps perdu qu’il faut évidemment compenser par un supplément d’activité, prélevé sur les réserves physiologiques. Nous ajouterons qu’un malaise ou une série de malaises ont cessé le plus souvent d’être considérés comme transitoires. A moins de gravement s’illusionner, le sujet sait qu’ils iront en s’aggravant et alourdiront de ce fait le handicap.
- 2° Faire la balance entre Veffort et le but. Les tâches que l’on s’impose dans les premières phases de l’existence ont un but précis qui est de construire sa propre vie, sur laquelle est greffée la vie des enfants et des autres « personnes à charge ». Ce but cesse d’apparaître clairement au sénescent dont la plus grande partie de la vie s’est déjà écoulée. Son activité se trouve tempérée par la pensée, souvent évoquée, que la construction en cours risque de s’effondrer à brève échéance. Cette pensée est amère et lui inspire un repliement sur soi-même et souvent une carence affective, peu favorables à conserver le goût de la vie et persévérer dans l’effort.
- 3° Faire face à F inégalité et régler son comportement en conséquence. La perpétuelle confrontation avec la jeunesse entraîne
- Fig. /. — Un contemporain de Pouchkine (?).
- Mamsir Kiout passe pour être né avant la mort de Pouchkine (1837). Le voici, levant une corne remplie de vin à la fête de son village quelque part en U. R. S. S., en 1949, Il aurait donc été âgé, à l’époque, de 112 ans. Mais les registres de l’état civil en font-ils foi ?
- ('Photo Service soviétique d’information).
- le sénescent vers de nombreux comportements dont le plus frappant (et aussi le plus négatif) est celui des femmes vieillissantes qui se maquillent au delà de toute mesure. Mais le « fard » peut prendre des formes plus subtiles qui n’en sont pas moins de dures contraintes. Les hommes « d’un certain âge » peuvent au besoin faire abstraction de leur apparence physique, un minimum étant cependant préservé. Ils risquent par contre, s’ils n’y prennent garde, de céder à une viscosité intellectuelle qui les maintient dans des opinions rétrogrades à l’égard du mouvement littéraire, artistique, social, scientifique, etc., et creuse un fossé entre eux et les plus jeunes : nouvel effort pour se maintenir dans les normes de l’époque. Cet effort exclut les mouvements d’irritation qui seraient le signe évident de la viscosité.
- Il est encore certaines caractéristiques de l’âge avancé qu’il faut avoir notées avec soin... afin de les refouler. Tels sont les souvenirs anecdotiques trop souvent répétés, les doctrines et les marottes imposées à un auditoire peu accueillant, la critique systématique des idées qui vous sont étrangères. Le meilleur fard en définitive (mais il est ardu de l’appliquer) est de s’interdire toutes les manifestations de sclérose.
- Le sujet sénescent actif, livré à lui-même, est donc condamné à affronter en franc-tireur les paramètres de la vieillesse et à s’en tirer le plus honorablement possible. La gérontologie expérimentale, qui fera l’objet de notre prochain article, lui permettra certainement de mieux se situer et de déterminer, sur des bases plus justes, s’il doit opter pour la pleine activité ou pour la « veilleuse ».
- Gaston Cohen.
- Abondance de centenaires en U. R. S. S.
- Dans un article sur la longévité, paru dans la revue Friroda, le professeur Alpatov, de Moscou, a présenté une sorte de recensement des centenaires qui vivaient en i960 en U. R. S. S.
- Sur le territoire de la République soviétique russe, le nombre des centenaires est de 81 par million d’habitants ; il est beaucoup plus élevé dans les républiques autonomes de Yakoutie (324), de Daghestan (606), de Kabardie-Balkirie (690) et, chiffre record, d’Ossétie du Nord (699). Les centenaires sont donc plus nombreux dans les régions montagneuses. Cette longévité des montagnards est-elle due exclusivement au climat des altitudes élevées ? Le professeur Alpatov ne le pense pas. La remarquable longévité des montagnards pourrait, selon lui, être attribuée à leur régime alimentaire, particulièrement riche en protéines, à leur genre de vie, très actif, prévenant l’obésité, et aussi au niveau élevé de leur hygiène.
- Faisons remarquer que l’état civil est d’une création relativement récente dans ces régions et que, par suite, l’âge de ces centenaires est souvent difficile à préciser.
- 81
- p.81 - vue 85/551
-
-
-
- Concurrencé par les avions à décollage vertical,
- l’hélicoptère cherche des voies nouvelles
- par Jacques Spincourt
- L’hélicoptère, au cours des quinze années qui ont suivi la fin de la guerre, s’était vu confier de nombreuses tâches nécessitant des capacités de décollage et d’atterrissage sur place, mais il se voit maintenant menacé par la prochaine apparition d’avions, ayant des performances de croisière bien supérieures, tout en jouissant cependant de qualités presque équivalentes en ce qui concerne le vol à vitesse nulle. Aussi, pour ne pas disparaître, l’hélicoptère a dû évoluer vers des applications particulières, dont les plus importantes sont le transport individuel du combattant et le transport de charges lourdes sur de courtes distances (« grue volante »).
- L’hélicoptère individuel
- Dans la zone de combat, il peut être utile de donner au fantassin des moyens de se déplacer très facilement sur de courtes distances et quelle que soit la nature du terrain. C’est pourquoi l’Armée Américaine a lancé, il y a déjà quelques années, un programme d’hélicoptères portatifs, donc extrêmement légers, qui puissent être montés facilement et en un temps très court. Dans cet ordre d’idées, il faut citer en premier lieu le « Rotorcycle » de Hiller que l’on voit sur la figure i, en vol et en pièces détachées au sol ; pesant 113 kg, il peut être assemblé en moins de dix minutes.
- Ce qui différencie surtout les petits hélicoptères légers des modèles de transport courants plus volumineux, c’est leur mode de propulsion. Dans cette gamme, on ne rencontre pratiquement plus de turbines à gaz, mais plutôt des moteurs à pistons pour automobiles. Tel est le cas du Rotorcycle précédent équipé d’un moteur Porsche de 62 ch. Cet hélicoptère de 180 kg peut emporter une charge utile de 110 kg à une vitesse de 110 km/h. Bien que plus rare, la propulsion par fusée a cependant donné lieu à des réalisations intéressantes ; témoin, le plus léger des hélicoptères jamais réalisés, le « Pinwheel », qui ne pèse que 70 kg, et dont le rotor à une seule pale est entraîné par deux petits moteurs-fusées montés à chaque extrémité de cette pale (fig. 2).
- Les procédés de fabrication simples et peu coûteux tendent à se généraliser. C’est ainsi que l’on usine des pales à partir d’un nouveau matériau stratifié à base de fibre de verre et de bois. Les commandes sont réduites à leur plus
- Fig. 1. — L’hélicoptère léger « Rotorcycle » employé par la Marine des États-Unis.
- p.82 - vue 86/551
-
-
-
- volantes, dues au constructeur américain Sikorsky, apparurent il y a presque trois ans, au cours des premiers mois de 1959. Elles comportent toutes pratiquement un fuselage en forme de poutre allongée portant le poste de commande à l’avant, une poutre transversale très courte située derrière le poste de commande et qui porte les moteurs et le train d’atterrissage, et enfin le rotor de grand diamètre. Il reste alors une place très importante entre les deux jambes du train et sous le fuselage pour que vienne se loger la charge à soulever, qui peut d’ailleurs être un container préalablement préparé.
- La puissance nécessaire étant très importante, elle est généralement fournie par des turbines à gaz, qui n’ont qu’un poids spécifique assez faible. Toutefois, comme dans le cas des hélicoptères légers, il y a quelques exceptions. Citons, par exemple, un appareil proposé par Hiller et qui comporterait un rotor bi-pales entraîné par des réacteurs montés en bout de pale ; il posséderait en outre la particularité de pouvoir être transformé en avion par retournement de 180 degrés de l’une des deux pales autour de son axe longitudinal, et immobilisation du rotor dans la position perpendiculaire à Taxe du fuselage.
- Jusqu’à présent, les appareils réalisés n’ont été que des prototypes expérimentaux. Avec le Sikorsky S. 64, dont le premier vol vient d’avoir lieu, apparaît la première grue volante opérationnelle. La puissance totale disponible est de 8 000 ch (2 turbines à gaz J. F. T. 12 de 4 000 ch qui sont accolées sur le dos du fuselage). Le treuil hydraulique placé au centre de gravité de l’appareil est capable de soulever une charge de 6 800 kg sur une hauteur de 30 mètres. Le poids total est de l’ordre de 16 tonnes pour un poids à vide de 8 tonnes. Enfin, le rotor est un rotor à six pales de 22 m de diamètre.
- Fig. 2. — Le « Pinwheel », le plus petit et le plus léger des hélicoptères qui aient jamais pris l’air.
- simple expression : commande des gaz et commande de pas du rotor.
- Ces hélicoptères ne sont encore développés qu’aux États-Unis où, par suite de l’intérêt que semblent leur porter l’Armée de Terre et la Marine, un grand nombre de prototypes ont déjà vu le jour. Mais en dehors des applications militaires, certains constructeurs songent déjà à des utilisations commerciales, comme par exemple surveillance des lignes électriques et des forêts (lutte contre les incendies), saupoudrage d’insecticides ou d’engrais sur les cultures, etc. Par contre l’utilisation comme moyen de transport individuel civil n’est pas envisagée dans l’immédiat, bien que le prix de certains de ces appareils ne dépasse pas celui des plus luxueux modèles d’automobiles.
- La gtue volante
- A l’autre extrémité de la gamme des tonnages, nous trouvons des hélicoptères disposant d’une charge utile très grande, mais d’un rayon d’action fortement limité, par suite de la faiblesse de leur capacité de carburant. Ils sont utilisés comme grues, pour transporter de très lourdes charges sur de courtes distances. Les premières grues
- Les hélicoptères classiques augmentent leur vitesse
- Indépendamment de ces deux techniques extrêmes, certains constructeurs d’hélicoptères ont cherché, tout en conservant les caractéristiques fondamentales de leurs machines, à améliorer leurs performances. L’une des tentatives les plus intéressantes est celle de la Société française Dorand. Elle vise à l’application du principe du volet fluide ou jet flap aux pales de rotors.
- Fig. 3. — Schéma de principe du « volet fluide ».
- J est'l’intensité de la poussée du jet qui sort par la fente sous l’angle 0. L’augmentation de portance due au volet fluide est de beaucoup supérieure à la composante verticale de la poussée du jet J sin 0.
- Jsin 0
- 83
- p.83 - vue 87/551
-
-
-
- Rappelons d’abord brièvement en quoi consiste le principe du volet fluide. Considérons (fig. 3) un profil d’aile percé d’un orifice au bord de fuite. Si par cet orifice on souffle un jet de gaz sous pression incliné d’un certain angle 0 par rapport à la corde du profil, on note une augmentation de la portance qui s’exerce sur le profil, par suite d’un effet d’entraînement de l’écoulement d’air qui entoure ce profil. Si l’on étend ce soufflage à toute une partie du bord de fuite d’une aile, la nappe gazeuse joue exactement le rôle d’un volet mécanique, d’où le nom de volet fluide qui lui a été donné.
- L’idée de la Société Dorand est d’appliquer ce soufflage sur une portion de l’envergure des pales de rotor. On obtient alors un accroissement de la portance du rotor, mais aussi une diminution de la traînée de profil des pales. En outre la commande du rotor peut s’effectuer par une variation cyclique de l’angle de soufflage, ce qui semble plus facile à mettre en œuvre que la variation cyclique du pas
- des pales ; une telle commande ne nécessiterait que des efforts extrêmement faibles ; et en particulier elle permettrait de se passer totalement de servo-commandes. La formule la meilleure consisterait alors à associer ce système à la propulsion par réaction du rotor, en sorte que tous les gaz du réacteur soient éjectés à travers les fentes des pales. Elle va d’ailleurs être essayée sur une grande échelle à la soufflerie Ames de la N. A. S. A. à la suite d’un contrat d’étude passé par l’administration américaine à la Société Dorand.
- Le diamètre du rotor en essai sera de 12 mètres, et les gaz de propulsion seront produits par un compresseur de turbo-propulseur, à un débit de io Ag/s. En attendant les résultats de ces essais, les calculs ont montré que l’on pouvait espérer une vitesse de 400 km/h à la condition d’étudier avec beaucoup de soins la configuration aérodynamique du fuselage de l’hélicoptère.
- Jacques Spincourt.
- La déviation
- de jet des réacteurs d’avion
- et des moteurs-fusées
- Nous avons déjà abordé dans cette revue le problème du freinage des avions à l’atterrissage, et nous avions en particulier exposé le principe du freinage par inversion du jet des réacteurs dont la S. N. E. C. M. A. s’est faite la promotrice. En raison de la place de plus en plus grande prise par les avions à réaction et du rôle que l’inversion de jet peut jouer dans la mise en œuvre d’avions à décollage et atterrissage courts, il est intéressant de revenir sur cette technique, qui depuis notre premier article a d’ailleurs fait l’objet de développements et de perfectionnements nouveaux.
- Rappelons tout d’abord que pour les avions à hélice une solution très satisfaisante du problème avait été trouvée dans l’adoption de la réversibilité du pas des hélices. Dans les débuts de la propulsion par réaction, on eut recours au parachute de queue, ou aux aérofreins, volets braqués perpendiculairement à l’écoulement de l’air.
- Fig. 1. — Jet dévié par obstacle et bord de déviation.
- Principe de Vinversion du jet. — Considérons un jet gazeux s’écoulant dans une tuyère terminée par un bord convexe. Si l’on exerce sur un côté du jet une force, soit en arrêtant le jet par un obstacle mécanique (fig. 1), soit par un jet auxiliaire de soufflage débouchant transversalement dans la tuyère, on constate que le jet principal se plaque sur le côté de la paroi opposé au point où est exercée la force, et qu’il suit alors le bord convexe, qui assure ainsi une légère déviation. Pour obtenir un retournement complet, il faudrait donner au bord convexe des dimensions prohibitives. Aussi la S. N. E. C. M. A. a-t-elle associé à l’ensemble obstacle-bord de déviation une grille d’aubes circulaires montée en aval de la tuyère, et qui assure l’effet d’inversion. Sur les plus récentes réalisations, l’obstacle périphérique a été remplacé par un obstacle diamétral (fig. 2), et la déviation s’effectue en deux nappes symétriques. Cet obstacle est constitué par deux secteurs en arc de cercle, qui, lorsque l’inverseur n’est pas en fonctionnement, viennent s’escamoter le long de la paroi de la tuyère. Ces secteurs peuvent d’ailleurs prendre toutes les positions intermédiaires entre l’escamotage et la position diamétrale tout en restant symétriques l’un de l’autre, ce qui permet de régler progressivement la déviation du jet.
- L’angle d’inversion du jet dépend des caractéristiques aérodynamiques de la grille d’aubes, la déviation préalable due à l’obstacle devant simplement être suffisante pour que la grille ne soit pas placée trop en aval.
- La grille est commandée par huit vérins pneumatiques, et les obstacles par deux vérins hydrauliques.
- U inverseur de jet de la S. N. E. C. M. A. — Le premier point important est qu’il n’augmente pas dans des proportions trop grandes le poids du moteur. Pratiquement, on peut compter pour l’inverseur complet sur un
- 84
- p.84 - vue 88/551
-
-
-
- -> > )))))>
- Fig. 2. — Jet inversé par grille d’aubes après déviation.
- Deux secteurs mobiles peuvent dévier le jet vers la grille d’aubes circulaire qui produit l’inversion.
- ha déviation de jet sur les moteurs-fusées. — Bien qu’il ne s’agisse plus là tout à fait du même problème, la déviation du jet peut être utilisée pour créer des couples d’équilibrage en roulis, tangage ou lacet sur des engins, aux vitesses ou aux altitudes où les gouvernes aérodynamiques classiques sont inopérantes.
- La méthode la plus simple pour dévier le jet d’une tuyère consiste à soumettre ce jet localement à des pressions différentielles ; la déviation a alors lieu du côté où la pression est la plus faible. Pour créer ces différences de pression, la S. N. E. C. M. A. a imaginé de monter à la sortie de la tuyère des chambres limitées par des obstacles mobiles. Ainsi (fig. 3) l’obstacle fermant la chambre inférieure pénètre plus profondément vers l’axe de la tuyère que celui qui ferme la chambre supérieure, et le jet est dévié vers le haut, la pression dans la chambre inférieure étant évidemment plus élevée que celle qui règne dans la chambre supérieure.
- accroissement de poids de 2 à 3 pour 100 de la poussée développée par le moteur. Les pertes de charge, lorsque les éléments de déviation sont escamotés, sont pratiquement nulles car le jet n’est pas en contact avec eux. La contre-poussée obtenue peut atteindre 50 pour 100 de la poussée maximale et le passage du jet direct au jet inversé s’obtient en deux secondes.
- Du fait de la progressivité de son action, l’inverseur de poussée S. N. E. C. M. A. peut être utilisé non seulement pour le freinage au sol, mais aussi pour l’approche avant l’atterrissage. Le jet n’est alors dévié que partiellement, le reste étant alors éjecté normalement pour fournir la poussée nécessaire au maintien de la vitesse d’approche de l’avion.
- Le réglage de la poussée peut être effectué automatiquement par un dispositif de régulation d’approche, qui a déjà été essayé avec succès sur les avions Mirage III et Mirage IV.
- Enfin, en cas de panne d’un des éléments, l’avion ne se trouve pas placé dans des conditions de vol délicates. Si, par exemple, une panne se produit sur le circuit hydraulique de commande des obstacles en position d’inversion, le pilote, en commandant la rentrée de la grille, conservera encore une très grande partie de la poussée, puisque les obstacles ne servent qu’à fournir une déviation préliminaire. De même, si la panne affecte le système de commande de la grille, l’escamotage des obstacles conservera encore au moteur plus de 95 pour 100 de sa poussée de base. L’endurance des différents organes est d’ailleurs facilitée par le fait qu’aucun d’eux n’est en contact avec le jet de gaz chauds au cours du vol normal.
- , Tuyère
- Chambres
- Fig. ). — Sous l’effet de la pression créée ^ans la chambre inférieure par l’obstacle mobile, le jet de la tuyère se trouve dévié vers le haut.
- Les premières recherches expérimentales ont montré que la variation de la pression dans la chambre suivait très rapidement la variation de position des obstacles, c’est-à-dire leur enfoncement plus ou moins grand. Il n’y a donc pratiquement aucun retard dans la réponse du système de déviation. En outre les pertes de poussée sont très inférieures à ce qu’elles seraient dans le cas d’une déviation obtenue par des volets placés dans le jet.
- Un tel dispositif devrait être amené à rendre de grands services dans le cas de la stabilisation d’une fusée lors de son départ. Il suffit alors de concevoir quatre chambres montées en croix autour du jet, la combinaison de leurs effets pouvant assurer la déviation du jet dans n’importe quelle direction.
- J. S.
- Cinq précautions valent mieux qu’une
- Un nouveau système anti-vol pour véhicules automobiles vient d’être mis au point par des ingénieurs britanniques. Il permet d’immobiliser le véhicule, d’une part en interrompant le circuit électrique du démarrage en trois endroits, d’autre
- part en supprimant l’alimentation en carburant. Il comprend également une sonnette d’alarme qui se déclenche automatiquement si quelqu’un tente de forcer une porte ou de faire démarrer la voiture.
- 85
- p.85 - vue 89/551
-
-
-
- Un Comité de défense de la Nature veut sauver la forêt de Fontainebleau
- Le 9 décembre dernier se sont réunis au Muséum national d’Histoire naturelle, sous la présidence de son directeur, le professeur Roger Heim, membre de l’Institut, les représentants d’un grand nombre d’organisations et de sociétés scientifiques, touristiques, sportives, syndicales, ainsi que des architectes, des artistes, des médecins, des hygiénistes, des ingénieurs, tous désireux d’enrayer un des maux majeurs de notre époque, la destruction accélérée des sites naturels et des espaces verts. Ils ont décidé de constituer un « Comité de défense de la Nature » où seront représentées toutes les collectivités intéressées à des titres divers à la conservation de notre patrimoine naturel « sans cesse exposé aux atteintes souvent inconsidérées des technocrates ou aux pressions des intérêts particuliers ».
- L’unanimité s’est faite sur la nécessité de se préoccuper en première urgence de la Forêt de Fontainebleau, « survivance de la grande forêt gauloise, refuge millénaire d’une faune et d’une flore exceptionnelles, sanctuaire préhistorique, ensemble géologique d’un intérêt exemplaire, toutes richesses qui font l’orgueil des naturalistes, des forestiers, des archéologues, des géologues français, et qui livrent aux Parisiens l’un de leurs rares et encore somptueux refuges ». Le Comité demande donc.au gouvernement « d’éloigner définitivement la triple menace qui pèse sur la sauvegarde d’un monument naturel dont on a dit qu’il était aussi le poumon de la capitale, et qui ne durera que dans la mesure où aucune nouvelle atteinte ne lui sera portée ».
- Les dangers les plus graves qui menacent immédiatement la célèbre forêt sont en effet au nombre de trois : i° le tracé prévu de l’autoroute du Sud ; 20 l’exhaussement projeté du niveau de la haute Seine ; 30 les exploitations pétrolières.
- Malgré les nombreuses et vigoureuses protestations qui se sont élevées de toutes parts, malgré le contre-projet
- (plus économique !) qui lui est opposé, le projet primitif d’autoroute du Sud n’a été amendé que pour la forme, et on s’est empressé, avant que la question ne fût tranchée, de commencer des travaux qui missent tout le monde devant le fait accompli. Le trajet prévu entame le massif des Trois-Pignons, le site de Villiers-sous-Grez, les friches néolithiques de Poligny et coupe en deux tronçons la forêt dont les équilibres naturels fragiles seraient irrémédiablement compromis. On ne peut trouver de meilleur et de plus grave exemple de l’obstination qu’apportent certains techniciens à réaliser les projets qu’ils ont conçus, sans vouloir tenir compte d’aucune considération étrangère à leur spécialité, et comme s’ils s’irritaient même de toute objection qui leur est opposée dans un domaine qu’ils considèrent comme exclusivement le leur.
- L’exhaussement du niveau de la Seine (2 mètres environ), destiné à économiser la traversée d’une écluse aux péniches qui transportent du sable (pour combien de temps encore ?) provoquerait l’asphyxie des arbres dans une large portion de la forêt ; il fait planer, en outre, des dangers sérieux sur les communes riveraines.
- Quant aux exploitations pétrolières, déjà installées dans le nord de la forêt, elles provoquent des destructions irréversibles, en dépit des servitudes qui leur sont imposées et qu’elles ne respectent pas toujours. Tout cela pour une production qui paraît bien dérisoire au milieu de l’abondance actuelle des hydrocarbures. Ces exploitations paraissent actuellement limitées dans leur extension, mais une menace sérieuse subsiste pour l’avenir.
- Souhaitons que les pouvoirs publics, prenant conscience des intérêts supérieurs qui sont en cause, voudront prendre les mesures de conservation nécessaires. La loi-cadre du 23 juillet i960 (voir JLa Nature-Science Progrès, juillet 1961, p. 284-290) en fournit les moyens.
- J. G.
- Une station météorologique automatique alimentée en énergie par un S. N. A. P.
- La première station météorologique alimentée en courant électrique par une centrale atomique miniature vient d’entrer en service dans le Nord-Ouest du Canada. Elle a été conçue et construite par la Commission américaine de l’énergie atomique et le Bureau météorologique des États-Unis.
- L’originalité de cette station est qu’elle tire son énergie de la désintégration de quelque 500 g de strontium 90. Le strontium est placé dans une capsule de métal dont la surface extérieure est parsemée de thermocouples. La chaleur dégagée par la désintégration du strontium est convertie en courant continu par les thermocouples. Des dispositifs fonctionnant sur le même principe et baptisés S. N. A. P. (System for Nuclear Auxiliary Power) ont déjà été utilisés comme source d’électricité dans les satellites artificiels (voir La Nature-Science Progrès, octobre 1961, p. 422), mais c’est la première fois que ce système, considéré
- comme fort coûteux, est utilisé pour des applications purement pacifiques. La possibilité d’utiliser le strontium 90, qui est produit abondamment dans les réacteurs nucléaires et de ce fait est relativement peu onéreux, n’est pas étrangère à cette nouvelle application.
- Des signaux extrêmement clairs, captés par un récepteur à ondes courtes installé à Resolute Bay (Canada), ont annoncé le début des opérations de cette station entièrement automatique, installée sur l’île Axel Heiberg, qui doit en principe fonctionner deux ans sans que soit renouvelés la charge de strontium 90. Toutes les trois heures, la station émet des données sur la température, les vents et la pression atmosphérique qui régnent dans cette région sur laquelle les renseignements météorologiques étaient jusqu’à présent inexistants.
- R. R.
- 86
- p.86 - vue 90/551
-
-
-
- Une sphère de neuf grammes remplace les barres à caractères et le chariot des machines à écrire
- ON raconte que le 7 janvier 1714, en Angleterre, la reine Anne accorda à un certain Henry Mill le droit exclusif de vente, pour quatorze ans, « d’une machine artificielle pour l’impression de caractères ». C’est la naissance de la machine à écrire. Très vite, les « précurseurs » abondent un peu partout dans le monde, mais tâtonnent. Finalement, c’est dans une ferme du Michigan qu’un conseiller général, John Burt, dépassé par la paperasse, décide de construire un « typographer ». L’engin est bizarre ; il comporte une roue, un levier et fonctionne avec une lenteur désespérante. Indulgent cependant, le président Jackson accorde une lettre de patente. La machine, existant à un seul exemplaire, est détruite dans l’incendie du Bureau américain des Brevets, en 1836.
- Un grand pas est franchi le 6 septembtre 1833, avec la « plume typographique », née de l’imagination d’un Marseillais, Xavier Pragin. Des leviers articulés en demi-cercle, dotés de caractères et frappant le papier de haut en bas, préfigurent les futures machines. Toutefois l’écriture, pendant la frappe, n’était pas visible.
- A la même époque un Américain, Christophe Shales, 5 2e « inventeur », par un travail acharné, apporte plusieurs améliorations aux modèles existants et ses successeurs, à partir de 1873, parviennent à réaliser successivement : l’écriture visible ; la montée de la corbeille qui rend possible, sur une seule machine à écrire, la frappe des minuscules et des majuscules ; l’utilisation de l’énergie électrique ; l’espacement proportionnel enfin, qui donne à la frappe dactylographiée une présentation et une lisibilité comparables à la typographie.
- A New York, en 1881, était créé un centre d’enseignement de la dactylographie pour jeunes filles. On cria au scandale et un journal écrivait : « Six mois de cours et ce sera l’effondrement physique et mental des jeunes filles. » Pourtant, les jeunes filles ne s’effondrèrent pas ! En 1888, on comptait déjà 60 000 dactylos aux États-Unis. C’est, indirectement, le début de l’émancipation de la femme.
- Les techniques progressent ; des concours de rapidité sont organisés et la vitesse augmente. En 1926, pour stimuler la vente, le directeur d’une grande firme américaine fait parachuter dans un parc, sur une immense toile blanche, 11 000 machines. C’est l’épreuve de la solidité : il la gagne.
- Depuis lors, les progrès se sont multipliés et on assiste maintenant au développement de la machine électrique devant laquelle la machine à écrire classique cède le pas. La première machine à écrire actionnée par un moteur électrique fut inventée en 19x4 par J. F. Smather, de Kansas City. La guerre interrompit ses recherches mais, dès 1920, un modèle satisfaisant était mis au point et construit
- en série par la North East Electric Company, bientôt absorbée par I. B. M.
- Jusqu’à présent toutefois, et depuis l’invention de la machine à écrire, un air de famille existait entre tous les modèles, en dépit des améliorations successives. Mécanique ou électrique, la machine était dotée de barres à caractères et d’un chariot. Or, la firme I. B. M. vient de présenter une machine dans laquelle ces éléments ont disparu : une tête d’impression en matière plastique chromée, plus petite qu’une balle de ping-pong et à peine plus; lourde (9 grammes) les remplace (fig. 1). Le processus est assez simple. La tête d’impression, qui porte 88 caractères
- Fig. 1. — Tête d’imptession de la nouvelle machine à écrite électrique I. B. M.
- Elle est en matière plastique recouverte d’une mince couche de chrome par métallisation sous vide, ce qui lui confère un poids très faible (9 g). D’un prix peu élevé, elle peut être remplacée aisément lorsque les caractères sont usés.
- (.Photos I. B. M.).
- 87
- p.87 - vue 91/551
-
-
-
- Fig. 2. — Vue du mécanisme d’impression.
- La petite sphère est montée sur un ensemble électrique qui court sur un rail métallique.
- court sur un rail métallique. Lorsqu’on appuie sur une touche, elle pivote, s’incline et imprime le caractère correspondant. La légèreté de l’ensemble a permis de réaliser une vitesse très élevée, i ooo frappes à la minute, de sorte que, quelle que soit la dextérité de la secrétaire, la tête
- Fig. 3. — « Spherdine », nouvelle venue dans la gamme des machines à écrire électriques I. B. M.
- d’impression est toujours en avance sur elle. Il en résulte d’importants avantages. D’une part, les mélanges de barres d’impression ne sont plus à redouter et pour cause puisqu’elles sont supprimées. Il n’y a donc plus de lettres superposées, plus d’espace blanc. Quand deux touches sont déclenchées presque simultanément la vitesse d’impression est telle qu’il ne se produit plus d’interférence et aucune surimpression sur le papier. Par ailleurs, il devient très facile de changer de caractère en changeant la tête d’impression. L’opération dure 10 secondes. Quant au nettoyage de la tête, il ne demande que 15 secondes seulement. Dans un autre ordre d’idées, le ruban est devenu très facile à changer. Les deux bobines sont enfermées dans une même cartouche monobloc. Il n’est pas nécessaire de toucher au ruban ; il suffit de remettre une cartouche : les doigts ne sont plus tachés. Citons également un « retour à la marge » très rapide de la tête d’impression, l’absence de vibrations, un fonctionnement beaucoup plus silencieux qu’avec les machines traditionnelles, enfin des margeurs très accessibles, aisés à déplacer.
- R. R.
- Pour se parler en plongée
- Selon une information du Centre culturel américain, la firme Electro Voice Inc., à Buchanan (Michigan), vient de mettre au point un appareil qui permettra aux plongeurs et pêcheurs sous-marins de communiquer facilement entre eux à une distance maximale de 45 mètres et à une profondeur pouvant atteindre 36 mètres. Le masque traditionnel comporte un microphone tandis qu’un amplificateur est fixé sur la bouteille d’air comprimé. Les ondes sonores se propageant dans l’eau dans toutes les directions, le plongeur qui voudra communiquer avec l’un de ses coéquipiers n’aura pas à se tourner vers lui. Ses paroles amplifiées seront entendues de tous les plongeurs sans qu’aucun dispositif d’écoute soit nécessaire.
- Un poison contre les requins
- Une arme efficace contre les requins, un poison dont la nature n’a pas été révélée, vient d’être trouvée par un médecin australien, spécialiste des questions liées aux plongées sous-marines, le Dr Shane Watson, de Sydney. Une piqûre de cette substance, pratiquée sur un requin baleinier (Galeolamna) de 2,70 m, qui venait d’être capturé vivant, a paralysé l’animal en 20 secondes ; son cœur a cessé de battre 12 minutes plus tard. Il s’agit maintenant pour les inventeurs de mettre au point un projectile léger et pratique qui permettra aux plongeurs d’opérer la piqûre lorsqu’ils sont en danger. La classique seringue hypodermique et le tampon de coton imbibé d’éther ne semblent pas en effet être de mise dans de telles circonstances !
- 88
- p.88 - vue 92/551
-
-
-
- L’ACTUALITÉ INSTRUMENTALE
- Nouveau collecteur de fractions
- colonne a chromatographie \
- tube guide
- ¥'
- ' anneaux en acier sta/ntess
- sens du déplacement des tubes
- Fig. I. — Schéma montrant l’arrangement des tubes à essai sur la bande transporteuse du collecteur.
- La firme anglaise Baird et Tatlock, représentée en France par les Établissements F. C. Dannatt, vient de mettre au point un nouveau collecteur de fractions dont chacun des éléments semble avoir été particulièrement bien étudié. Les tubes destinés à recevoir les fractions sont montés sur des anneaux flexibles analogues à ceux qui enserrent les balles d’une bande de mitrailleuse (fig. i). Le déplacement de la bande est assuré par la rotation de deux cylindres sur lesquels elle est enroulée. Le système donne à l’ensemble une grande souplesse : les tubes peuvent être enlevés à n’importe quel moment sans avoir à interrompre le déroulement de la chaîne ; la bande étant en acier stain-less, les tubes peuvent être lavés ou stérilisés sans avoir à les détacher de leurs supports ; enfin, la capacité est importante puisqu’elle atteint 350 tubes de 20 ml ou 150 tubes de 60 ml. On peut d’ailleurs monter sur la bande des tubes de capacité variable entre 5 ml et 180 ml. Toutefois, seuls les tubes de 20 et 60 ml sont standard.
- La mesure des volumes des fractions recueillies est fondée sur un dispositif optique. Il est constitué par un tube de verre calibré (fig. 3) muni de deux valves agissant en sens inverse l’une de l’autre. Un assemblage mobile porte une source lumineuse en regard de laquelle est disposée une cellule photoélectrique et peut être déplacé le long du tube de manière à régler le volume du liquide à recueillir.
- Fig. 2. — Collecteur de fractions Baird et Tatlock.
- Dimensions : longueur, 117,5 largeur, 50 cm; Vianfp.nr ”
- p.89 - vue 93/551
-
-
-
- RAPY
- appareils électroniques de mesure
- à hautes formantes
- QUELQUES POSSIBILITÉS :
- Tensions : 100 U V à 50 kV R d'entrée 10*“* (1
- Intensités : 10"'5 à 10-i ampère • R. d entree
- nulle
- Résistances : 10*7 0 à 100 p fl R. d'entrée
- nulle
- Capacités : 0,1 pF à 10 000 pF - R, d'entrée
- nulle
- Champs : 0,1 gauss à 10 000 gauss.
- Electrisations : 10 pico-coulombs à 1.000
- coulombs.
- Pertes en watts des tôles : 0,5 à 5 W. Fluctuations de tension :
- depuis 1 mV 1.000 ou 2.000 V, Intégration : (analogique)
- 1 seconde à 60 minutes 1 à 20 voies. Conductivité : 1 fl à 1.000 M 11 (mesure à
- distance)
- FONDE EN 1915
- I EM OU Z Y.
- Fournisseur de 1.900 laboratoires officiels et privés toutes industries
- 63, rue de Gharenton, Paris 12e . Tel. D1D. 07-74
- LE
- NOYAU ATOMIQUE
- PAR
- R. D. EVANS
- Professeur de physique au Massachusetts Institute of Technology
- TRADUIT DE [L’AMÉRICAIN PAR
- A. BUSSIÈRE, C. STEPHAN, J. VERNOTTE
- Licenciés ès Sciences
- xiv-752 pages 16 x 25, avec 257 figures. 1961. Relié toile sous jaquette ... 84 NF
- En vente dans toutes les bonnes librairies et chez
- DUNOD, Éditeur, 92, rue Bonaparte, PARIS-6e. DAN. 99-15. C.C.P. PARIS 75-45
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Püris-4e. — ODE 54-83
- Préparations aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation àux diplômes d’État. Brevets de Techniciens d’Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignemént " à domicile "
- (Joindre timbre pour notice)
- --- VIENT DE PARAITRE -------------------------
- COHHEHÏ
- POSER ET RÉSOUDRE UN PROBLÈME
- Mathématiques, Physique, Jeux, Philosophie
- PAR G. POLYA
- TRADUIT DE L’AMERICAIN PAR C. MESNAGE PREFACE DE G. DARMOIS
- xx-240 p. 15 x 21, avec 31 fig. 2° édition. 1962. Broché sous couverture illustrée ............ 14 NF
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6*. DAN 99-15.
- 90
- p.90 - vue 94/551
-
-
-
- colonne à chromatographie
- Fig. 3. — Schéma du dispositif de jmesure des volumes des fractions collectées.
- ___soléno/de
- déversoir de sécurité
- supérieure _____tube calibré
- ----fii métallique
- — détecteur
- source
- lumineuse
- valve
- 'inférieure
- vers le tube à essai
- Lorsque le niveau du liquide dans le tube calibré attein la valeur choisie, le faisceau de lumière est dévié et ne vient plus frapper la cellule photoélectrique. Il en résulte un signal qui, par l’intermédiaire d’un relais, fait s’ouvrir la valve inférieure. Le liquide coule alors dans le tube. En même temps, la valve supérieure se ferme et retient le liquide qui arrive de la colonne à chromatographie. Après un temps suffisant pour l’écoulement du liquide, la valve inférieure se ferme tandis que la valve supérieure s’ouvre ; par ailleurs, la bande métallique portant les tubes avance d’un cran et un tube vide vient prendre place sous le collecteur. Au cours du passage du liquide de la colonne au tube à essai, celui-ci n’a été en contact qu’avec du verre, du téflon et de l’acier stainless. Le volume des fractions recueillies peut être réglé de 1 à 180 ml.
- Par ailleurs, il existe aussi un dispositif à comptage de gouttes qui permet de recueillir des fractions constituées d’un nombre de gouttes calibrées déterminé. Il utilise le même dispositif optique, mais cette fois c’est le fait que le faisceau lumineux est obturé par le passage des gouttes qui est utilisé pour commander l’ouverture des valves lorsque le nombre voulu de gouttes s’est écoulé de la colonne (le nombre maximal de gouttes qui peuvent être comptées est de 9 999, à une vitesse de 10 gouttes par seconde au Plus).
- Le châssis de l’appareil est enrobé de nylon de manière à résister aux solvants et autres produits chimiques. Des couvercles en plexiglas évitent que des poussières ne tombent dans les tubes à essai.
- Micropompe pour chromatographie
- Fig. 4. — Micropompe pour chromatographie « Miniflow LKB 4 500 ».
- Dimensions : 170 X 150 x 325 mm. Poids net : 2,5 kg.
- Les séparations chromatographiques exigent souvent, pour être conduites de façon satisfaisante, un débit de liquide parfaitement constant dans le temps. Or, un débit régulier est parfois difficile à réaliser : par exemple, si la colonne est remplie d’un échangeur d’ions à grains fins, la résistance à l’écoulement opposée par le système peut être importante et on ne peut la vaincre qu’en alimentant la colonne sous pression ; l’utilisation à cet effet d’une pression d’air comprimé donne des résultats erratiques peu propices à un travail soigné. Dans de nombreux autres domaines se présentent aussi des opérations qui exigent un débit et un dosage précis de petites quantités de liquide. Il existe encore très peu de pompes à débit constant sur le marché, surtout pour les débits faibles ; aussi pensons-nous qu’il est utile de signaler l’apparition d’une micropompe de précision fabriquée par la firme suédoise LKB-Produkter et distribuée en France par la Société Jarre-Jacquin.
- Il s’agit d’une pompe à pistons dont les parties essentielles sont entièrement en verre et qui peut donc être utilisée pour le pompage de la plupart des liquides minéraux ou organiques. Les deux pistons, entraînés par un moteur synchrone, se meuvent en sens inverse dans les deux corps de pompe de sorte que l’on obtient un flux de liquide pratiquement sans pulsation. Des engrenages facilement interchangeables permettent de régler le débit horaire aux valeurs suivantes : 3, 6, 12,5, 25 et 50 cm3/h (pour une fréquence du courant d’alimentation de 50 hertz), ou 3,6,
- p.91 - vue 95/551
-
-
-
- 7,2, 15, 3° et 6° cm3/h (fréquence de 6o hertz). Avec des engrenages supplémentaires, fournis sur demande, on peut obtenir les débits suivants : 4,2, 8,5, 17,7 et 35,4 cm3/h (à 50 Hz), ou bien 5,1, 10,2, 21,2 et 42,5 cm3/h (à 60 Hz). La pression de refoulement maximale atteint 4 kg/cm2, ce qui est en général suffisant pour les opérations sur colonnes de résines échangeurs d’ions. L’étanchéité est assurée par
- des soupapes et des joints rodés avec précision. Toutes les pièces en contact avec le liquide peuvent être aisément démontées pour les nettoyer ou les stériliser. Les extrémités des tubulures d’aspiration et de refoulement de la pompe sont prévues pour être raccordées à des tuyaux en matière plastique ; on peut, si on le désire, les munir de joints sphériques rodés.
- Tamiseuse électrique
- Le tamisage est une opération fréquente dans de nombreux domaines de recherches ; nous citerons, par exemple, le tamisage des réactifs solides utilisés pour des préparations ou des synthèses, l’analyse granulométrique des terres, des catalyseurs, des résines échangeurs d’ions, etc.
- La tamiseuse électrique de la Société Paris-Labo reproduit mécaniquement le geste d’un manipulateur se conformant au mode opératoire traditionnel, c’eàt-à-dire faisant exécuter au tamis un mouvement circulaire lent et continu, en même temps qu’il lui imprime une série de secousses horizontales et verticales. Le premier mouvement sert à étaler le produit déposé à la surface du tamis, de manière à offrir aux grains le maximum de chances de passer à travers le crible. Le second mouvement, qui remplace les chocs manuels, a pour effet d’obliger à passer les grains que leurs dimensions voisines de celles de la maille retiendraient à la surface du tamis. Les principaux avantages de cet appareil résident dans le fait qu’on peut obtenir simultanément jusqu’à dix sélections de grains différents (en utilisant des tamis de 25 mm de hauteur ; cinq classements avec des tamis de 50 mm de hauteur) alors que, manuellement, on ne peut guère en obtenir plus de deux ou trois ; de plus, les essais sont rendus indépendants de l’opérateur et les résultats obtenus sont toujours comparables ; enfin une minuterie d’arrêt enlève tout souci de surveillance à l’opérateur qui peut ainsi vaquer à d’autres travaux pendant le tamisage.
- L’intensité du mouvement est commandée par un régulateur d’impulsions incorporé, ce qui permet de régler l’amplitude des vibrations suivant les caractéristiques des matières à analyser. Des tamis de 200 mm de diamètre, équipés de toiles en acier inoxydable ou en bronze phosphoreux et présentant des vides de maille s’échelonnant entre 0,025 et 25 mm (42 dimensions de mailles différentes) peuvent être livrés avec la tamiseuse. Des billes de caoutchouc sont susceptibles, dans certains cas, d’aider à tamiser les produits denses ou s’agglomérant aisément.
- Disons pour terminer qu’il existe deux variantes de l’appareil, une pour le tamisage par voie sèche, une pour le tamisage par voie humide (en milieu liquide), ce qui
- Fig. j. — Tamiseuse électrique de la Société Paris-Labo.
- présente parfois un très grand intérêt : tamisage des résines échangeurs d’ions par exemple. Dans ce cas, le couvercle normal est remplacé par un couvercle à douche qui permet d’asperger d’eau le produit à tamiser, et le fond de la tamiseuse par un fond avec goulette d’évacuation d’eau.
- R. R.
- Soudage des plastiques par ultrasons
- Un appareil de soudage rapide des pellicules de matière plastique et des tissus synthétiques vient d’être mis au point par une société américaine, nous apprend une information du Centre culturel américain. Baptisé « soudeur ultrasonique », il procède à un véritable « martelage » par ultrasons des surfaces en contact, ce qui crée une soudure résistante entre les deux matériaux.
- Les produits justiciables de cette technique sont très variés : feuilles de polyéthylène, de polypropylène, de cellophane, tissus synthétiques tels que le nylon, l’orlon et le dacron. L’appareil est utilisé notamment pour l’emballage des produits chimiques, des denrées alimentaires, la fabrication des chaussures, des vêtements, des récipients et housses en matière plastique.
- 92
- p.92 - vue 96/551
-
-
-
- Le Ciel en Mars 1962
- SOLEIL : du Ier mars au Ier avril (à oh) sa déclinaison croît de — 7°5i/ à + 40i6' et la durée du jour de ioh57m à I2h45m ; diamètre apparent le Ier (à O11) = 32/2o",i, le 31 (à 2411) = 32'3",7. — LUNE : Phases : N. L. le 6 à P. Q. le 13
- à 4h39rn, P. L. le 21 à 7^56m, D. Q. le 29 à 4^1 lm ; périgée le 6 à ioh, diamètre app. 33^9" ; apogée le 19 à 2111, diamètre app. 29'25". Principales conjonctions : avec Saturne le 3 à 2211, à i°26' N ; avec Mercure le 4 à 1311, à 0°42/ N ; avec Mars le 5 à 2h, à o°33' N ; avec Jupiter le 5 à 311, à 004' N ; avec Vénus le 7 à iü, à i°$6' S ; avec Uranus le 18 à 1311, à o°6/ N; avec Neptune le 24 à 1911, à 3°27/ N; avec Saturne le 31 à lih, à i°7' N. Principales occultations : le 4, de Mercure (mag. o,3), immersion à i3hi6m,9 et émersion à I41124m,i ; le 11, de y Taureau (mag. 3,9), immersion à 221:i57m,4 ; le 18, de Rêgulus (mag. i,3), émersion à i5h57m,7-— PLANÈTES: Mercure, est noyé dans les brumes de l’aurore ; Vénus, se dégage des
- Amateurs d’ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- 28, rue Serpente, Paris-6’
- Vous aurez à votre disposition une importante Bibliothèque, un Observatoire, des séances mensuelles, cours, conférences, etc. Vous recevrez la revue mensuelle L’ASTRONOMIE Spécimen gratuit et conditions sur demande. Permanence au Siège social, tous les jours non fériés de 14 à 17 heures. POUR CONSTRUIRE VOUS-MEMES votre INSTRUMENT achetez l’important ouvrage :
- LA CONSTRUCTION DU TÉLESCOPE D’AMATEUR
- par Jean Texereau,
- Ingénieur du Laboratoire d’Optique de l’Observatoire de Paris.
- 2“ édition considérablement augmentée, magnifique volume 16 x 24 de 296 pages, illustré de 156 fig. et IV planches hors texte, sous reliure toile. 25,50 NF franco, réduit à 19,50 NE pour les Membres de la Société, payable à la commande : Ch. post. Paris 1733.
- ------------- ----------------------------------------
- lueurs crépusculaires dans la dernière décade du mois ; Mars, n’est pas observable ; Jupiter réapparaît un peu le matin à la fin du mois ; Saturne, dans le Capricorne est étoile du matin, se lève le 14 à 4h34m, soit ih35m avant le Soleil; Uranus au N-W de Régulus est visible la plus grande partie de la nuit, le 16, position : 9h59m et -f- I3°7'> diamètre app. 3",9, mag. 5,7 ; Neptune, près de oc Balance se lève dès la fin de la soirée, le 16, position : I4h45m et — I4°5', diamètre app. 2",5, mag. 7,7.
- — ÉTOILES VARIABLES : minima observables T Algol (2m,2-3m,5) le 7 à lh,4, le 9 à 22h,3, le 12 à I9h,i, le 29 à 23^,9; minima de [8 Lyre (3m,4-4m,3) le 13 à 2lh,8, le 26 à 20h,i ; maximum de R Triangle (5m,7-l2m,6) le 5, de R Serpent (5m,7~ I4m,4) le 9, de R Verseau (5m,8-l îm,5) le 12, de R Cancer (6m,2-nm,8) le 13, de R Cygne (6m,5-14Itl,2) le 22, de R Hydre (4m,o-iom,o) le 26. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.) : le Ier : ioh42m38s, le 11 : nh22m3s, le 21 : I2hlm29s, le 31 : I21140m54s.
- Phénomènes intéressants : Surveiller l’activité solaire.
- — Équinoxe de Printemps le 21 à 21130m. — Lumière cendrée de la Lune, le soir, du 8 au 11. — Ne pas manquer l’observation des occultations de Mercure le 4 et de Régulus le 18, à faire en plein jour, dans une petite lunette. — Les planètes Uranus et Neptune sont commodément observables en raison de la proximité des étoiles Régulus et a Balance, leur mouvement est rétrograde. — Les belles constellations d’hiver, 'signalées le mois précédent, se couchent de plus en plus tôt.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Un procédé électrostatique d’impression
- Un nouveau procédé électrostatique d’impression vient d’être mis au point aux États-Unis par des chercheurs du Stanford Research Institute. Une électrode constituée par une grille d’acier inoxydable très fine est portée à un potentiel d’environ 1 500 volts. Derrière la grille on applique d’abord un stencil sur lequel les caractères à imprimer sont transparents tandis que le reste de la feuille est opaque, puis une feuille de papier. Enfin, on dispose à l’envers du papier une plaque de métal pleine qui est mise à la terre. Un mélange d’encre sèche et d’une résine spéciale est appliqué à la surface de la grille au moyen d’une brosse rotative qui fait pénétrer les particules d’encre à travers les mailles de la grille. Celles-ci se chargent d’électricité et sont alors
- attirées par la plaque métallique. Seules les particules qui se trouvent devant une partie transparente du stencil le traversent et vont se déposer sur le papier. Les images à l’encre sèche ainsi obtenues sont alors fixées par exposition à la chaleur.
- La grille, très fine, donnerait une netteté de caractères plus grande que celle des journaux. Selon ses constructeurs, cet appareil coûterait moitié moins cher que les presses à imprimer traditionnelles, serait moins lourd et aurait un meilleur rendement. Moyennant de légères modifications il serait même possible d’imprimer simultanément les deux faces de la feuille en utilisant deux grilles portées à des potentiels de signes opposés et en supprimant la plaque de métal pleine.
- Luminescence de la glace
- La revue soviétique Triroda a signalé un phénomène rare, observé par un voyageur d’un brise-glace, dans la mer d’Okhotsk. Les fissures produites dans la glace par l’avance du brise-glace paraissaient luire d’une lumière bleu verdâtre, très douce. Cette luminescence ne se produisait qu’en avant du brise-glace, à l’intérieur d’un angle de 90° environ (±45° par rapport à la direction du navire). Elle semblait particulièrement vive au
- moment de l’apparition des fissures, puis elle s’évanouissait rapidement. Aucune luminescence n’apparaissait au voisinage immédiat des bords du brise-glace. Pour expliquer cette luminescence de la glace, on ne peut recourir qu’à des hypothèses plus ou moins plausibles. Il se peut, par exemple, qu’elle ait été due à la rupture du contact entre l’eau et la glace, qui aurait été électrisée pendant le processus de cristallisation.
- 93
- p.93 - vue 97/551
-
-
-
- LES LIVRES NOUVEAU X
- Annuaire pour l’An 1962, publié par le Bureau des Longitudes. 1 vol. 13 X 19, 746 p., nombr. illustrations et dépliants. Gauthier-Villars, Paris, 1961. Prix : 45 NF.
- Comme tous les ans le célèbre annuaire fournit de copieuses généralités sur l’astronomie, les prédictions pour l’année (phénomènes astronomiques, marées, etc.), temps légaux et fuseaux horaires, études sur le Soleil, la Lune, les planètes, comètes, constellations, et en supplément les principales prédictions pour 1963. D’autres articles ne paraissent que tous les deux ou tous les quatre ans. Cette année : météorologie, spectres solaires, nombres et unités de mesure, données physiques et chimiques (avec un dépliant sur les familles radioactives), rayonnement cosmique, houle et vagues. En outre, quatre notices : liste générale des comètes de 1949 à i960 ; l’amiral Durand-Viel ; Jean Cabannes ; tables des notices de 1939 à 1962.
- Dictionnaire-Agenda-Annuaire atomique 1962,
- 1 vol. 17 X 24, 360 p. Éditions René Kister, Genève ; Éditions de la Grange-Batelière, Paris, 1962. Prix, relié : 18 NF, 16 F suisses, 175 F belges.
- Le succès remporté l’année dernière par le dictionnaire-agenda 1961 a amené les éditeurs de la revue Industries atomiques à renouveler cette publication. Il s’agit cette année d’un volume qui comprend notamment : un agenda de 108 pages, des calendriers, un répertoire à jour des fournisseurs en matière nucléaire, une table de conversion d’unités courantes en unités Giorgi, les caractéristiques des centrales nucléaires existantes ou en projet, la description de la structure et des activités des organisations atomiques internationales, les adresses des organismes officiels dans le domaine nucléaire et, surtout, un dictionnaire de physique nucléaire dû à M. Jean Combe et Mlle Marie-José Weill qui contient plus de 600 mots et couvre de ce fait l’essentiel de la science nucléaire. Par ailleurs, chaque mot est suivi de sa traduction en anglais, allemand et russe. Excellente initiative donc qui évitera bien des pertes de temps à tous ceux qui, par profession, s’intéressent de près ou de loin à l’énergie nucléaire.
- Dictionnaire français-anglais (Electronique, Physique nucléaire et Sciences connexes), par G. G. King, i vol. 14 X 22, 408 p. Dunod, Paris, 1961. Prix, relié : 38 NF.
- Ce dictionnaire contient 25 500 termes, recueillis par l’auteur au cours de ses traductions industrielles et scientifiques. Étant donné le rôle toujours croissant de l’électronique et de la physique nucléaire, il ne peut manquer de rendre les plus grands services aux ingénieurs et aux chercheurs, souvent obligés de s’exprimer et de rédiger en français et en anglais.
- Les sextils, nouvelle méthode de calcul graphique, par P. Dejussieu-Pontcarral, ingénieur E. S. E. 1 vol. 21 X 27, 48 p., 11 planches de graphiques. Chiron, Paris, 1961. Prix : 12 NF.
- Deux raisons, selon l’auteur, ont limité jusqu’ici la généralisation de l’emploi du calcul graphique. D’une part les traités s’adressent à des spécialistes et l’utilisateur est rebuté par « un maquis où le choix est très difficile » ; d’autre part « il est exaspérant d’acheter un lot d’abaques pour en utiliser un, en l’adaptant à son cas ». La méthode des « sextils » met à profit une propriété des triangles équilatéraux et propose « un fond simple sur lequel la mise en place des graduations est une opération facile ». Dix exemples montrent en détail l’application de la méthode à des cas variés.
- La connaissance de l’Univers, par Jean E. Charon. 1 vol. 12 X 18, 192 p., 71 fig. Éditions du Seuil, Paris, 1961. Prix : 4,50 NF.
- Selon la formule adoptée par la collection Le Rayon de la Science à laquelle il appartient,
- cet ouvrage s’est donné pour objectif de condenser sous une forme attrayante les notions essentielles concernant l’Univers, depuis ses structures (macroscopique et microscopique) jusqu’à son « psychisme » et son évolution. Il n’est pas certain que, ce faisant, l’auteur se soit cantonné dans les limites de la science authentique.
- Unsteady transonic flow, par Marten T. Lan-dahl. i vol. 15,5 X 23,5, 134 p., nomb. fig. Pergamon Press, Oxford, Londres, New York, Paris, 1961. Prix, relié : 60 sh.
- La quasi-totalité de l’ouvrage traite du comportement des surfaces portantes dans les écoulements transsoniques, sujet auquel l’auteur a largement contribué. Un chapitre est consacré aux résultats expérimentaux, rassemblés d’après les données de la littérature technique.
- La luminescence, par Roger Bernard, chargé de cours à la Faculté des Sciences de Lyon. 1 vol. 11,5 X 17,5 de la collection Que sais-je ?, 128 p., 43 fig. Presses Universitaires de France, Paris, 1961. Prix : 2,50 NF.
- Phosphorescence, fluorescence, luminescence, incandescence, autant de termes passés dans le langage courant sans que le profane en comprenne bien la signification exacte. Ce petit livre clair lèvera cette incertitude. On aura même un aperçcu des bases d’une théorie de la luminescence, puis on apprendra ce qu’est au juste l’éclairage fluorescent, l’électro- et la cathodoluminescence, avec quelques applications diverses.
- Œuvres scientifiques complètes de Frédéric et Irène Joliot-Curie. 1 vol. 16,5 X 25,5. 916 p., 10 pl. hors texte, 230 fig. in texte. Presses Universitaires de France, Paris, 1961. Prix, relié : 100 NF.
- L’œuvre des deux grands savants, dispersée en de nombreux articles et communications, a été assemblée, grâce au dévouement d’amis et d’anciens élèves. On peut ainsi reconstituer chronologiquement la suite de leurs recherches et en mesurer l’extrême étendue. C’est ainsi que l’on voit ces recherches se développer de 1920 à 1932 vers la chimie des radioéléments, le polonium, les rayonnements oc, les propriétés radioactives de certains isotopes et les rayons de recul. La période 1932-1935 est dominée par les recherches sur le neutron et la radioactivité artificielle qui vont donner lieu, dans la période cruciale 1935-1940, à la mise en lumière de la fission de l’uranium. On se souvient que c’est à partir de la célèbre expérience de 1939 qu’a été prouvée la rupture explosive des noyaux d’uranium et de thorium sous l’action des neutrons. Inutile de rappeler les incalculables conséquences scientifiques et historiques de cette expérience. La dernière période de la vie des deux savants est encore riche de recherches diverses,
- --- A NOS LECTEURS -----------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- se tient à la disposition des lecteurs de LA NATURE pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- ralenties cependant pas les tâches d’enseignement et d’administration qui leur furent imposées, alors que s’épanouissaient les sciences et les techniques nucléaires qu’ils avaient largement contribué à faire naître.
- Génie chimique et Traitement du gaz, par
- A. Bolzinger. 1 vol. 22 X 27,5, 220 p. Journal des Industries du GaParis, 1961. Prix, relié toile : 39 NF.
- A une époque où, à juste raison, le génie chimique trouve une audience de plus en plus grande , nous ne saurions trop recommander la lecture et l’étude de cette réédition du cours professé à l’École d’application des techniques gazières et à l’École des cadres d’Électricité et Gaz de France, où l’auteur examine, précisément à propos du traitement du gaz de houille, les principales opérations types du génie chimique. Au lieu de traiter celles-ci d’une façon universelle, mais théorique, l’auteur nous montre dans des cas concrets et complets, c’est-à-dire allant de la théorie à l’application précise, comment se posent et se résolvent les problèmes de transmission de chaleur, d’absorption, de réaction entre gaz et solides, et d’adsorp-tion, d’élimination des aérosols et de pompages (étude des extracteurs). — H. G.
- Radioactive contamination of materials used in scientific research, par James R. De Voe.
- 1 vol. 17,5 X 25, vm-142 p., 7 fig. National Academy of Sciences, Washington, 1961.
- Résultats d’une enquête menée aux États-Unis auprès de plusieurs centaines de spécialistes (chercheurs, constructeurs d’appareils, fabricants de produits chimiques, etc.) pour déterminer la contamination radioactive des matériaux les plus divers : produits chimiques, etc. Tous ceux qui se préoccupent de la mesure des très faibles taux de radioactivité y trouveront de multiples renseignements sur la contamination naturelle des matériaux et produits qu’ils sont susceptibles d’utiliser. Essai de prédiction de la radioactivité future des produits courants, méthodes pour se prémunir contre cet inévitable phénomène, etc.
- Le soufflage du verre au laboratoire, par M. Gillois. 1 vol. 16 X 25, 288 p., 390 fig. Dunod, Paris, i960. Prix, relié toile sous jaquette 39 NF.
- L’auteur rappelle d’abord les propriétés physicochimiques des verres et décrit l’outillage nécessaire au souffleur, puis il expose les techniques du métier : étirage, courbures, soufflage, soudures tant en verre qu’en pyrex. La 3 e partie a pour objet la fabrication des appareils classiques, tubes, séparateurs, colonnes, réfrigérants, trompes, manomètres, etc., avec des considérations sur la recuisson, la dévitrification, le dégazage. On traite ensuite des rodages et des robinets, puis de la soudure du verre et de divers métaux. Précieuses indications sur le travail du cristal et quantité de tours de main touchant à l’emploi des abrasifs, la gravure, la métallisation, maintes recettes de ciments, cires et colles. Guide très précieux pour le technicien et le chercheur.
- Physiologie végétale, par R. Bastin, maître de conférences à l’Université catholique de Louvain. 1 vol. 16 X 25, 324 p. Albert Blanchard, Paris, 1961. Prix : 30 NF.
- Ce livre présente pour' les étudiants un tableau d’ensemble assez bien coordonné des connaissances acquises sur les processus d’élaboration des substances organiques dans les végétaux, sur leurs transformations au sein de la cellule, sur le mécanisme de tous les grands phénomènes physiologiques : perméabilité cellulaire, respiration, circulation de l’eau et de la sève, croissance et morphogenèse (substances de croissance et de freinage, etc.). Cependant, la place lui ayant sans doute été mesurée,. l’auteur ne décrit aucune méthode expérimentale et se borne à faire état des résultats les plus sûrs. Ceux qui savent de la chimie profiteront des raccourcis qu’il leur offre et le
- 94
- p.94 - vue 98/551
-
-
-
- livre sera surtout utile à ceux qui pourront avoir accès à des exposés plus détaillés sur chacun des grands sujets qu’il aborde.
- Guide du naturaliste dans le Midi de la France, par Hervé Harant et Daniel Jarry. Préface du professeur Grassé, membre de l’Institut. I. Le littoral ; les étangs, i vol. 12,5 X 19,5, 214 p., nombreuses illustrations en noir et en couleurs. Delachaux et Niestlé, Neuchâtel-Paris, 1961. Prix, cartonné toile : 25 NF.
- Tous les naturalistes amateurs qui parcourront nos côtes méditerranéennes devront avoir dans la poche cet excellent petit livre qui appelle leur attention sur tout ce qui est à voir et à comprendre sur le bord de la mer et des étangs. Un chapitre sur les limites et caractéristiques du milieu méditerranéen fournit les données générales essentielles, géographiques, géologiques et pédologiques, climatiques, hydrologiques, humaines, puis on aborde l’étude du milieu vivant, végétal et animal, dans ses adaptations, ses associations, ses évolutions, avant de parcourir les grands domaines : la mer, le littoral rocheux, la plage et la dune, l’étang littoral et la sansouine. Excellents dessins qui permettent quelques premières identifications. Index général. Bibliographie limitée mais utile.
- Chouettes et hiboux, par Roger Pecheyrand. Illustrations de J.-M. Fonteneau. i vol. 13,5 X 18, 64 p., 13 fig. Crépin-Leblond, Paris, 1961. Prix : 6,45 NF.
- Description et mœurs de onze rapaces nocturnes de nos régions : Grand Duc, Hibou commun, Petit Duc, Hibou Brachyote, Chat-Huant, Chevêche, Chevêchette, Chouette de Tengmaln, Effraie, Chouette Épervière, Chouette Harfang. Ce petit livre achèvera de convaincre que toutes ces espèces sont utiles et méritent d’être protégées.
- Les thérapeutiques modernes, par A. Galli et R. Leluc. 1 vol. xi X 17,5, 128 p. Collection Que sais-je ? Presses Universitaires de France, Paris, 1961. Prix : 2,50 NF.
- La médecine est abordée ici sous l’angle du médi-
- cament, c’est-à-dire à l’inverse des modes d’exposition habituels, où anatomie, physiologie, pathologie et thérapeutique se succèdent dans un ordre apparemment logique. Ce livre peut rendre service à tous ceux qui, possédant quelques lumières sur la Science médicale, ont besoin de rechercher l’information directe concernant les traitements chimiques des affections nerveuses, vasculaires, endocrinales, infectieuses et rénales (selon le classement adopté).
- Advances in Thyroid Research, édité par Rosalind Pitt-Rivers et collaborateurs. 1 vol. 15,5 X 23,5, xxviii-537 p., 219 fig. Perga-mon Press, Oxford, Londres, New York, Paris 1961. Prix, relié : 126 sh.
- Communications présentées à la 4e Conférence internationale sur le goitre qui s’est tenue à Londres en juillet i960. L’intérêt en fut attesté par le nombre de personnalités (600) qui y ont assisté. Chaque problème partiel concernant la glande thyroïde a été abordé sous l’angle physiologique, histologique, pathologique, etc. On notera en particulier les études sur l’hyperthyroïdisme, l’hypothyroïdisme, les moyens d’exploration par radioéléments, les cancers de la thyroïde.
- Pharmacologie et psychologie, par Jean Del-phaut, professeur à la Faculté de Médecine et de Pharmacie de Marseille. 1 vol. 11 X 16,5, 182 p. Collection Armand Colin, Paris, 1961. Prix : 5,70 NF.
- Les drogues « psychotropes » ont pris depuis quelques années une importance grandissante ; elles suscitent de grands espoirs dans le traitement des maladies nerveuses et mentales, mais aussi des inquiétudes. De cette grande question ce petit livre traite surtout l’aspect pharmacologique, c’est-à-dire l’étude des médicaments sur l’animal. Après un rappel indispensable sur le système nerveux central, on décrit les méthodes expérimentales de la psycho-pharmacologie, puis les différents médicaments : neuroleptiques et tranquillisants ; psychoanaleptiques et neurostimulants ; hallucinogènes. La thérapeutique est envisagée dans un dernier chapitre. On louera la prudence des conclusions de l’auteur.
- Niveaux de tension et contrôle de l’activité, par R. Perron, i vol. 16 X 24, 204 p., 46 fig. Monographies françaises de psychologie, noa 5-6. Éditions du Centre National de la Recherche Scientifique, Paris, 1961. Prix : 18 NF.
- Cet ouvrage consiste essentiellement en la description de plusieurs séries d’expériences, réalisées dans le cadre des études du comportement. La notion de tension a été préalablement
- ÉLÉMENTS
- DE
- PHYSIQUE
- STATISTIQUE
- PAR
- C. KITTEL
- Professeur de physique à PUniversité de Berkeley, Californie.
- TRADUIT DE L’AMÉRICAIN PAR A. DESPRÉS
- x-240 pages 16 x 25, avec 28 fig. 1961. Relié toile sous jaquette. 32 NF
- En vente dans toutes les bonnes librairies et chez bunod, Éditeur, 92, rue Bonaparte, Paris-6*. DAN 99-15.
- MONOGRAPHIES DUNOD
- ÉLÉMENTS
- DE
- MÉCANIQUE
- ANALYTIQUE
- PAR
- J. W. LEECH
- Maître de conférences de physique,
- Queen Mary College, Université de Londres.
- TRADUIT DE L'ANGLAIS PAR H. GIÉ
- Agrégé de l’Université.
- xn-177 pages 11 x 16, avec 7 figures. 1961. Relié toile souple.. 16 NF
- En vente dans toutes les bonnes librairies et chez DUNOD, Éditeur, 92, rue Bonaparte, Paris-6<!. DAN 99-15.
- 95
- p.95 - vue 99/551
-
-
-
- définie, comme exprimant une réaction des sujets en fonction des situations auxquelles ils sont soumis et de leurs possibilités individuelles. Cette réaction et l’état qui en découle sont étudiés à la lumière de données telles que la menace d’échec. Les expériences suivantes font apparaître l’action compensatrice du contrôle qui aide les sujets à surmonter la tension.
- La science et l’avenir des terres arides, par Gilbert F. White. i vol. 13,5 X 21, no p., 9 fig., 24 pl. hors texte. Unesco, Paris, 1961. On sait que la zone aride est un des domaines
- où l’Unesco a porté, depuis plus de dix ans, un effort scientifique de la plus grande envergure. Une volumineuse documentation a été accumulée pendant cette période. Mais il manquait un ouvrage de synthèse, condensant les notions déjà acquises. C’est cette lacune qui se trouve aujourd’hui comblée par le livre de G. F. White où l’on trouvera exposés avec clarté les divers problèmes posés par la mise en valeur des terres arides. Trois chapitres, consacrés au mouvement des idées, à l’enseignement et l’information, et à la recherche font ressortir les modalités de l’effort, son intérêt scientifique et ses perspectives.
- Les ressources minérales de l’Afrique, par Raymond Furon. i vol. 14 X 23, 288 p., 34 cartes et diagrammes. Payot, Paris, 1961. Prix : 29 NF,
- L’inventaire exhaustif fait par l’auteur des ressources minérales du continent africain est tout d’abord une utile mise au point. Bien des inexactitudes en effet ont été répandues sur ce sujet. La documentation fournie par R. Furon est au contraire fondée sur des sources d’information incontestables. Avec beaucoup d’opportunité le livre est divisé en trois parties : i° celle qui classe par ordre alphabétique les différents produits minéraux, une notice étant fournie pour chacun ; 20 celle où sont examinées les ressources de chaque nation ; 30 les problèmes connexes qui peuvent influencer l’exploitation de ces ressources (population, main-d’œuvre, cadres, conditions de vie).
- Paint technology manuals. Part one : Non-convertible coatings, publié sous la direction de l’Oil and Colour Chemists’ Association. 1 vol. 14 X 22,5, 326 p., 25 fig. Chapman et Hall, Londres, 1961. Prix, relié : 30 sh.
- Premier volume d’une collection destinée à rassembler les connaissances modernes en matière de revêtement des surfaces au moyen des peintures, vernis, matières plastiques, etc. 11 chapitres, rédigés par divers spécialistes traitent des dérivés cellulosiques, des plastifiants, des laques et des vernis. Ouvrage d’enseignement surtout destiné aux nouveaux venus dans ce domaine.
- Les engrais en Europe. 'Production, consommation, prix et commerce (10e étude 1958-1961). 1 vol. 27 X 21, 97 p. Publications de l’O. E. C. E., Paris, 1961. Prix : 6 NF.
- Etude annuelle sur la production, la consommation et le commerce des engrais dans les pays de l’O. E. C. E., avec des renseignements sur la Yougoslavie. Notons l’accroissement de la production et de la consommation dans l’ensemble de la zone O. E. C. E. durant les deux dernières campagnes. Quant aux consommations moyennes d’engrais utilisés et indiquées comme ayant atteint
- 20 kg d’azote, 23 kg d’acide phosphorique et
- 21 kg de potasse à l’hectare, elles résultent en fait de moyennes nationales très différentes... puisque, si nous nous limitons aux engrais azotés, cette valeur moyenne de 20 kg/ha est la résultante de consommations nationales de 1,1 en Turquie, 4,7 en Irlande, compensées évidemment par des valeurs de 93,1 aux Pays-Bas et 98,6 en Islande... La France, avec 18,3 kg/ha, n’atteint pas la valeur moyenne... — H. G.
- Dressage et utilisation du chien d’arrêt, par Jean Castaing. i vol. 13,5 X 18, 286 p. Çrépin-Leblond, Paris, i960. Prix : 12,75 NF ; franco, 13,75 NF.
- Sous forme principalement anecdotique, un sujet qui intéresse tous les chasseurs. Avec un peu de polémique, Garrigou, prête-nom de l’auteur, ne prétend d’ailleurs pas donner à ses propos une valeur universelle...
- i€cïecici BILLE
- Des millions de STYLOS à BILLE sont en service avec l’impossibilité matérielle d’en les erreurs.
- tciecÙA BILLE
- ENCRE à BILLE
- 'CcïecùA BILLE est le produit attendu par tous les comptables et tous les écoliers. Il efface l'encre à bille et comme son aîné le CORECTOR Super, enlève toutes les taches et ratures des encres ordinaires,
- 000
- MODE D'EMPLOI
- Appliquer le produit bleu. Déposerensuite le produit rouge. Attendre quelques instants. Terminer l'opération en appliquant le produit blanc.
- Attendre que le papier soit bien sec pour écrire à nouveau.
- CHEZ VOTRE PAPETIER
- PETITES ANNONCES
- (3 RF la ligne, taxes comprises. Supp ément da 1,50 NF pour domiciliation aux bureaux de la revue)
- PAPILLONS Actias Corne tes à vendre. DESCHAMPS, 65, rue Moulin-de-Pierre, Clamart (Seine).
- Le gérant : F. Dunod. — dunod, éditeur, paris. — dépôt légal : ier trimestre 1962, n° 3957. — Imprimé en France,
- IMPRIMERIE BARNÉOUD S. A., LAVAL, N° 4385. - 2-1962.
- 96
- p.96 - vue 100/551
-
-
-
- Les radio-sources trancheront-elles entre les théories cosmogoniques ?
- lointaines
- par Jacques Foucket
- A mesure que les radio-télescopes s’agrandissent et se perfectionnent, qu’il s’agisse de paraboloïdes orientables ou d’interféromètres fixes, la localisation des radio-sources lointaines se fait plus précise et donne lieu à des identifications de plus en plus nombreuses avec des objets optiquement visibles. Il est maintenant certain qu’en dehors des sources de rayonnement radio appartenant à la Galaxie (1) et qui se localisent surtout dans son plan équatorial, il existe une multitude de sources lointaines extra-galactiques dont l’abondance est sensiblement la même dans toutes les directions de l’espace. On a pu croire d’abord que les sources localisées au voisinage des pôles galactiques provenaient du halo d’étoiles isolées, de nébuleuses planétaires ou d’amas globulaires qui entourent la Galaxie. Mais une telle limitation de leur origine est apparue incompatible avec le nombre des sources découvertes. D’ailleurs l’identification de ces sources avec des galaxies voisines, et surtout avec quelques galaxies éloignées, n’a pas tardé à lever tous les doutes.
- C’est ainsi qu’on établit la coïncidence de l’une des radio-sources les plus puissantes avec une galaxie double située à 700 millions d’années-lumière dans la constellation du Cygne ; cette radio-source a donc été appelée Cygnus A (fig. 1). L’extraordinaire intensité du flux hertzien reçu de cet objet, dépassant celle de son rayonnement optique, l’avait fait attribuer à une collision entre les deux galaxies, dont les nuages de gaz et de poussières, en s’interpénétrant à grande vitesse, auraient été la source du rayonnement non-thermique observé. Rappelons que par opposition au rayonnement dit thermique parce qu’il est en relation avec la température électronique d’un gaz ionisé, on appelle rayonnement non-thermique un rayonnement hertzien de plus grande longueur d’onde, qui est considéré comme provenant de l’accélération d’électrons libres par des champs magnétiques. C’est pourquoi on le qualifie aussi de «rayonnement synchrotron», du nom des accélérateurs de particules qui émettent, à partir de faisceaux rapides d’électrons, un intense rayonnement polarisé.
- 1. Quand on parle de la Galaxie (avec un grand G), il s’agit de la galaxie à laquelle appartient le Soleil, ou Voie Lactée, nébuleuse spirale analogue à notre voisine Andromède. Les objets « extra-galactiques » sont ceux qui se trouvent au delà des limites de la Galaxie ; ce sont pour la plupart d’autres galaxies, de formes diverses, composée&gdêïdi^aines ou centaines de milliards d’étoiles, ' ‘ _______________________________________________
- baignant ou non dans d
- et de poussières.
- Fig. 1. — Cygnus A, la plus puissante des radio-sources extra-galactiques.
- La question de savoir s’il s’agit d’un objet simple ou double est controversée. Sa densité de flux radioélectrique est six fois plus grande que celle de Centaurus A ou de Virgo A malgré sa distance de 220 mégaparsecs (les photons que nous en recevons ont pris le départ à l’époque précambrienne !). Les seuls objets dont l’émission dépasse en intensité celle de Cygnus A sont le Soleil, à cause de sa proximité, et une source appartenant à la Galaxie, cataloguée Cassiopea A, qui provient apparemment des restes de l’explosion d’une supernova.
- (Photo Mount Wilson and Palomar Observatories)
- 97
- p.97 - vue 101/551
-
-
-
- Les collisions de galaxies explication insuffisante
- Depuis la localisation de la source Cygnus A, bien d’autres ont été identifiées à des galaxies lointaines et leur nombre dépasse actuellement la quarantaine. Mais on a renoncé tout récemment à les attribuer à des collisions de galaxies comme on avait cru tout d’abord devoir le faire pour la plupart d’entre elles. Seule, peut-être, une source située dans Persée a quelque chance de provenir réellement d’une collision. En effet l’objet optique qui lui correspond (NGC 1275) a bien l’aspect de deux galaxies enchevêtrées et l’on découvre dans son spectre lumineux des raies dédoublées qui proviendraient de vitesses radiales différentes caractérisant des galaxies distinctes (2). Mais il n’a pas été possible pour Cygnus A ni pour Centaurus A, source qui coïncide avec un objet encore plus spectaculaire (NGC 5128, fig. 3), de bien mettre en évidence un double effet Doppler révélateur du déplacement relatif de deux masses en collision.
- Il est d’ailleurs prouvé que des flux radioélectriques de grande densité peuvent avoir d’autres causes qu’une collision des nuages de gaz et de poussière de deux galaxies distinctes, puisqu’une galaxie isolée de la Vierge (NGC 4486 ou M 87), grâce à sa distance relativement faible (40 millions d’années-lumière), a été reconnue très tôt comme coïncidant avec une puissante radio-source (fig. 2 et 4). Cette galaxie, simplement classée « anormale » et cataloguée Virgo A en tant que radio-source, possède un étrange bras lumineux, d’un bleu brillant, qui semble s’échapper du centre et qui n’est pas composé d’étoiles : son spectre optique se présente comme continu, dépourvu de raies d’émission ou d’absorption. Or, d’après les recherches de Baade, cette lumière est partiellement polarisée, ce qui indique que les émissions optique et radioélectrique proviennent bien d’électrons rapides accélérés dans de puis-
- 2. La vitesse radiale, c’est-à-dire la vitesse par rapport à l’observateur, peut être mesurée par le décalage des raies dans le spectre (effet Doppler). Le décalage du spectre des galaxies lointaines vers le rouge permet la mesure de leur vitesse de fuite, d’autant plus grande qu’elles sont plus lointaines (expansion de l’Univers). Voir plus loin.
- Fig. 2. — La galâxie NGC 4486 vue .avec une exposition photographique
- normale.
- Le halo de la galaxie cache ici un bras lumineux qui apparaît bien au contraire dans les photos sous-exposées de la figure 4. Cette galaxie appartient au grand amas voisin de la Vierge et se trouve située à environ 40 millions d’années-lumière. Elle est formée de dizaines de milliards d’étoiles, comme toutes les grandes galaxies. De type globulaire, relativement rare, où l’on ne distingue aucune structure, elle ne contiendrait pas de quantités notables de gaz et de poussière. Les objets circulaires brillants sont des étoiles proches, appartenant à notre galaxie. Au contraire les objets diffus légèrement elliptiques, comme ceux qu’on aperçoit en bas à droite du halo, sont des galaxies lointaines, probablement de taille réelle comparable à celle de NGC 4486. Quant aux points circulaires diffus, partiellement noyés dans le halo, ce seraient des amas globulaires d’étoiles, en tous points comparables à ceux qui entourent notre galaxie.
- (Photo Mount Wilson and Palomar Observatories).
- Fig. 3. — La galaxie anormale NGC 5128 (radio-source Centaurus A).
- Cet objet étrange avait d’abord été considéré comme étant une galaxie globulaire géante en collision avec une spirale distordue par des forces de marée. On tend à penser maintenant qu’il s’agit d’une galaxie unique. La matière obscure paraît s’incurver vers la droite pour entourer le halo central. Il pourrait s’agir d’une spirale dont la ceinture de gaz et de poussières serait déformée par l’effet de projections d’origine interne. C’est une des plus puissantes radio-sources extragalactiques connues, mais aussi la plus proche : 4 mégaparsecs. (13,5 millions d’années-lumière)
- (Photo Mount Wilson and Palomar Observatories).
- p.98 - vue 102/551
-
-
-
- sants champs magnétiques. On peut penser à une projection de matière au long du bras lumineux, mais la cause profonde du phénomène reste tout à fait mystérieuse et il en serait de même pour les galaxies doubles, fortement émet-trices sur ondes métriques, qu’on croyait jusqu’ici en collision.
- Du reste, la dualité a été elle-même contestée dans le cas de Cygnus A (fig. x). Pour les astronomes soviétiques, il s’agirait d’une galaxie en voie de partition, cette hypothèse s’inscrivant dans le cadre d’une théorie qui veut que des systèmes stellaires isolés puissent eux-mêmes manifester une expansion. On peut imaginer aussi que la partition d’une galaxie provienne de phénomènes explosifs qui resteraient à définir et seraient la cause d’une intense émission radioélectrique. En revanche l’astronome américain Minkowski persiste à croire que Cygnus A correspond bien au contact de deux galaxies.
- Il semble que l’on doive se contenter de désigner comme « anormales » toutes les galaxies qui correspondent à des radio-sources puissantes, sans préjuger la cause de cette émission et par opposition aux galaxies « normales », comme M 31 (Andromède) ou notre propre Galaxie, dont le rayonnement radio est incomparablement plus faible. D’ailleurs la plupart des galaxies anormales ne présentent pas d’aspect optique particulier sinon celui d’être fréquemment doubles ou même multiples (NGC 6166). Le jet bleu de NGC 4486 (fig. 4) paraît tout à fait exceptionnel
- ainsi qu’à un degré moindre l’aspect étrange de NGC 5128 (Centaurus A), énorme galaxie globulaire partiellement barrée de nuages de matière obscure qui semblent distordus (fig- 3).
- Aux arguments négatifs qui rendaient déjà douteuse l’hypothèse de la collision, les astronomes V.A. Ambart-sumian et I.S. Chklovsky (U.R.S.S.) et G.R. Burbidge (Etats-Unis) en ont ajouté de plus sérieux. Ils font observer que les chances qu’ont les galaxies d’entrer en collision sont trop faibles pour rendre compte du nombre d’émetteurs extra-galactiques découverts par les radio-télescopes à grand pouvoir séparateur. Sans doute, vers le centre des grands amas de galaxies, des collisions pourraient se produire, mais il ne semble pas que la répartition des radio-sources soit en rapport avec celle des grands amas. D’autre
- Fig. 4. — Photos de la galaxie NGC 4486, sous-exposées pour fâire apparaître son bras lumineux.
- Un jet bleu brillant paraît s’échapper du centre de la galaxie ; on le voit en transparence dans le halo. Le spectre continu du jet, sans raies d’absorption ni d’émission, indique qu’il n’est pas de nature stellaire. Sa lumière est partiellement polarisée, à 30 pour 100 selon Baade, et l’on en déduit qu’elle provient d’électrons en déplacement rapide dans un champ magnétique (effet syncbrotron). Ces électrons seraient en même temps responsables de l’émission radioélectrique. Les plaques photographiques sont sous-exposées : autrement le bras lumineux est masqué par le halo, comme dans la figure 2. Chacun des clichés correspond à un plan de polarisation différent (télescope Haie de 5 m du Mont Palomar). Cette source apporte aux radiotélescopes un flux hertzien égal à celui de Centaurus A, quoiqu’elle soit près de trois fois plus lointaine (11 Mpc).
- (Photo Mount Wilson and Palomar Observatories).
- p.99 - vue 103/551
-
-
-
- part les calculs théoriques montrent que l’énergie engendrée par des nuages de gaz en interpénétration rapide ne serait pas suffisante pour expliquer l’intensité des rayonnements radioélectriques observés. Bien entendu cette énergie ne saurait provenir de collisions d’étoiles dont les diamètres sont beaucoup trop faibles en comparaison des distances qui les séparent : la probabilité statistique de telles rencontres est infime.
- Objection encore plus grave : non seulement les sources identifiées appartiennent souvent à des galaxies isolées, comme dans le cas de NGC 4486, mais surtout les galaxies doubles émettrices sont en très forte proportion du type elliptique. Or on sait par l’observation de galaxies elliptiques proches que les nuages de gaz et de poussière y sont à peu près absents. Comme l’interpénétration de ces nuages de matière raréfiée est l’unique source imaginable de l’énergie engendrée au cours d’une collision, puisque les étoiles elles-mêmes ont trop peu de chances d’y participer, il faut bien croire que les émissions radio anormales des galaxies elliptiques ont une cause différente. Quelle est donc cette cause ?
- Annihilation de la matière ou supernovæ en chaîne... (?)
- G.R. Burbidge a avancé récemment deux hypothèses, de caractère très différent mais qui peuvent sembler également aventurées. La première invoque des phénomènes d’annihilation réciproque de matière et d’ « antimatière ». On sait qu’à chaque particule subatomique correspond une antiparticule ; lorsqu’elles se rencontrent, particule et antiparticule s’annihilent mutuellement, leur masse se transformant en rayonnements de grande énergie. Au sein de la matière où abondent protons et électrons négatifs, antiprotons et électrons positifs ne peuvent donc avoir qu’une vie éphémère. Mais il n’est pas interdit d’imaginer des régions de l’univers peuplées de cette « antimatière », en l’absence de matière ordinaire. Burbidge suppose donc qu’une galaxie à émission radio anormale peut être le siège d’annihilations de matière, soit que l’antimatière provienne des espaces intergalactiques, soit qu’elle se trouve engendrée, par un processus inconnu, au sein de la galaxie considérée. Ainsi s’expliqueraient, peut-être, les puissants champs magnétiques et les électrons rapides responsables des émissions non-thermiques. Hypothèse actuellement invérifiable.
- La seconde hypothèse admet la possibilité d’un processus dont nous n’avons encore aucune preuve. Selon Burbidge, des explosions de supernovæ en chaîne pourraient se produire dans les régions centrales très denses de certaines galaxies, le rayonnement dégagé au cours de chaque catastrophe étant susceptible de faire exploser une étoile voisine. En effet, les centres galactiques contiennent un noyau très brillant et relativement très petit. Dans la galaxie d’Andromède, ce noyau nous apparaît presque ponctuel : l’angle de 2,5 x 1,5 secondes d’arc correspond à des dimensions linéaires de 8 et 5 parsecs (1 parsec = 3,26 années-lumière). Cette forme ellipsoïdale indique une rotation rapide, qui a été évaluée à 90 km/s à la périphérie, par mesure de l’effet Doppler. On peut en déduire la masse de la condensation centrale qui équivaudrait à 1,7 x io7 fois la masse du Soleil et serait composée d’étoiles
- d’après les recherches spectrographiques les plus récentes La densité atteindrait le chiffre relativement élevé de 100 000 étoiles par parsec-cube (alors qu’au voisinage du Soleil on compte en moyenne une seule étoile pour 20 pc3).
- Toutefois cette densité dans le noyau d’Andromède laisse encore entre les étoiles des espaces vides de l’ordre de centaines de milliards de kilomètres et une explosion de supernova a peu de chance de bouleverser l’équilibre radiatif d’une étoile à aussi grande distance de sa surface. Mais il n’est pas impossible que dans les galaxies elliptiques massives, qui se rencontrent souvent parmi les objets à émission radioélectrique anormale, le noyau central atteigne une densité bien supérieure à celle qui est observée dans Andromède. Pour prendre un cas extrême, si une explosion de supernova se produisait à la distance de Neptune (à 4 milliards et demi de kilomètres), on peut imaginer qu’elle ne serait pas sans influence sur le Soleil ; à plus forte raison s’il s’agissait d’un astre déjà instable. Une supernova est la source d’un rayonnement optique égal à celui d’une galaxie toute entière et serait par conséquent susceptible d’élever de façon notable la température de surface d’une étoile proche dont la masse s’accroîtrait en même temps par captation de matière.
- Une grave objection vient cependant à l’esprit. Dans les systèmes d’étoiles doubles ou multiples, les distances qui séparent les composantes sont souvent bien inférieures au rayon de notre système planétaire. Or, beaucoup de ces systèmes contiennent une naine blanche dont on peut penser qu’elle n’est devenue telle qu’à la suite d’importantes pertes de matière. Cependant les autres étoiles du système paraissent avoir poursuivi une évolution normale.
- Singularités des radio-galaxies
- La lumière des galaxies anormales, qu’on peut appeler radio-galaxies, présente généralement un spectre de raies d’émission révélateur d’un haut degré d’excitation des atomes. C’est le cas de la galaxie simple NGC 1068, des systèmes doubles Hercules A et Hydra A, situés respectivement à 340 et 210 mégaparsecs (1 Mpc = un million de parsecs, soit 3,26 millions d’années-lumière), des galaxies du Bouvier enfin, dont on a pu, malgré leur énorme éloignement, mesurer le déplacement du spectre vers les grandes longueurs d’onde (« rougissement » du spectre) grâce justement à leurs raies d’émission intenses. On y décèle surtout la raie interdite O-II 3727 angstrôms (voir la légende de la figure 5), visible dans une position proche de celle qui, dans un objet immobile par rapport à nous, est occupée par la raie aurorale O-I 5577 Â, c’est-à-dire décalée de l’ultraviolet jusqu’au vert I Selon Minkowski, ce déplacement du spectre révèle une vitesse de fuite voisine de 140 000 kilomètres par seconde (presque la moitié de la vitesse de la lumière). Puisqu’on admet aujourd’hui que la vitesse de fuite des galaxies croît avec leur distance de 75 km/s par mégaparsec (constante de récession), on trouve pour les galaxies du Bouvier une distance qui dépasse 6 milliards d’années-lumière. L’identification de la radio-source du Bouvier, sans doute aussi puissante que Cygnus A, avait posé un problème difficile à cause de la
- 100
- p.100 - vue 104/551
-
-
-
- Bande G
- H K
- 3727 Â
- Spectre de comparaison
- Pis- /• — Spectres de deux galaxies et du bras de matière intergalactique qui les unit.
- Les chiffres placés en haut et en bas sont les longueurs d’onde en angstrôms. La photo étant un négatif, les raies d’émission sont en noir et les raies d’absorption en clair. Entre les spectres de comparaison placés en haut et en bas, on aperçoit ceux de deux galaxies apparaissant comme des fuseaux sombres, allongés (A et B). Sur le fuseau B, un peu à droite du centre, on note parfaitement deux interruptions claires qui correspondent aux raies d’absorption H et K du calcium ionisé. Ces raies sont généralement les plus faciles à distinguer à grande distance et sont couramment utilisées pour mesurer le décalage spectral dû • à l’effet Doppler. On voit à gauche, sur le même spectre, une autre interruption claire correspondant à la bande G : c’est un complexe de raies d’absorption que l’on croyait autrefois provenir du fer et du magnésium. En réalité, la bande G est due à un radical OH, c’est-à-dire à une molécule formée d’un atome d’oxygène et d’un atome d’hydrogène. Cet état moléculaire ne subsiste qu’au-dessous de 6 ooo° ; dans le Soleil il provient surtout de la partie supérieure, moins chaude,
- de la photosphère. L’existence bien marquée d’un spectre de bande G dans une galaxie lointaine indique qu’elle contient de nombreuses étoiles plus froides que le Soleil. Dans l’ultraviolet on aperçoit, à la longueur d’onde de 3 727 angstrôms, une raie d’émission (très noire) qui appartient au bras de matière intergalactique qui unit les deux galaxies : c’est la raie interdite de l’O II (oxygène ionisé). Cette raie est dite « interdite » parce qu’elle n’apparaît que dans les conditions particulières du vide intergalactique, où les libres parcours des atomes sont considérables. La transition électronique qui est à l’origine de cette raie d’émission ne peut être produite au laboratoire à cause des collisions que subissent continuellement les atomes dans l’état de densité des gaz terrestres. Sur Terre les collisions entre atomes ont lieu à des intervalles inférieurs au millionième de seconde ; dans le vide intergalactique, l’intervalle moyen entre deux collisions peut être de deux heures. Hp, et H^, sont des raies de l’hydrogène.
- {Photo F. Zwicky, aimablement communiquée par M. Paul Couderc).
- faiblesse de l’objet optique, voisin de la limite de portée du télescope de 5 m du Mont Palomar (voir La Nature, octobre i960, p. 420).
- Une autre particularité des radio-sources puissantes est qu’elles ne paraissent pas toujours coïncider exactement avec les galaxies auxquelles on les identifie. Tantôt on trouve une zone d’émission très intense, plus petite que le halo optique de la galaxie (cas de NGC 4486), tantôt on découvre pour des galaxies doubles en contact (cas de Cygnus A) deux zones d’émission séparées par une distance très supérieure à celle des condensations optiques (85 secondes d’arc contre 2"). Ce dernier fait avait amené l’astronome soviétique Chklovsky à formuler l’hypothèse suivante : à la suite d’une collision élastique, les nuages de gaz et de poussière, générateurs d’ondes radioélectriques et appartenant à chacune des- deux galaxies, se seraient éloignés en sens contraire en se séparant de leurs amas
- stellaires. Mais si l’hypothèse de la collision cesse d’être retenue pour toutes les raisons que nous avons dites, l’écartement des deux zones d’émission de Cygnus A nous laisse doublement perplexes ; d’autant que d’autres galaxies doubles ne présentent qu’une zone d’émission unique. Il en est ainsi de Hydra A, située à une distance très comparable à celle de Cygnus A. Il est certes peu douteux qu’il s’agisse d’un rayonnement synchrotron, mais nous sommes incapables de préciser la cause des turbulences qui l’entretiennent. Il faut pour le moment se contenter de chercher à multiplier les identifications optiques.
- Renonçons donc pour l’instant à spéculer sur les causes des émissions radio dites anormales. Nous allons voir que la seule étude de la répartition de ces radio-sources a par elle-même un grand intérêt, car elle peut éventuellement nous mener à préciser la géométrie de l’espace et à choisir entre des théories cosmologiques opposées.
- 10!
- p.101 - vue 105/551
-
-
-
- Evolution de l’Univers ou création continue ?
- Le décalage du spectre des galaxies, proportionnel à leur distance, étant admis comme une preuve de l’expansion de l’Univers, on a à choisir entre deux grandes conceptions cosmologiques, théorie évolutive ou création continue.
- La théorie évolutive, qui a la faveur du plus grand nombre d’astronomes, veut que l’Univers ait connu un état de grande densité et que sa densité n’ait fait que décroître par la suite. Il en résulte alors que les galaxies lointaines doivent nous apparaître dans l’écartement qui était le leur au moment où la lumière qui nous en parvient les a quittées. Plus loin nous plongeons dans l’espace, plus le témoignage qui nous en arrive doit remonter à un passé reculé, et plus l’espace doit se montrer densément peuplé.
- Au contraire, l’audacieuse théorie de la création continue, soutenue par Hoyle, Bondi et Gold, suppose qu’au fur et à mesure que les galaxies s’écartent, leurs intervalles agrandis verraient apparaître de la matière nouvelle, de l’hydrogène littéralement sorti du néant, dont la condensation donnerait naissance à des galaxies nouvelles. Ainsi dans l’espace supposé infini, la densité moyenne de la matière ne se modifierait pas, malgré l’expansion. Aussi loin qu’on puisse plonger dans l’espace ou remonter dans le temps, l’Univers serait toujours pareil à lui-même.
- Pour trancher entre les deux théories, il faudrait donc savoir de façon certaine si la densité en galaxies croît avec la distance ou demeure approximativement constante. Des essais de dénombrement ont été tentés au moyen des télescopes optiques, en particulier par Neymann et Scott, mais il est difficile de distinguer les amas lointains de galaxies derrière les plus proches, d’autant que les télescopes de Schmidt utilisés ne pénètrent pas assez profondément dans l’espace. La situation se trouve largement modifiée si nous nous confions aux radio-télescopes pour estimer la densité de l’espace lointain. D’une part leur portée est largement supérieure, d’autre part ils ne s’adressent plus à la totalité des galaxies du ciel mais seulement à celles qui constituent des radio-sources anormales, donc relativement rares et plus aisément dénombrables.
- Dans une sphère de quelques centaines de millions d’années-lumière autour de nous, les radio-sources qu’on a pu identifier à des galaxies semblent réparties irrégulièrement ; mais il n’y a pas de raison de supposer qu’à l’échelle beaucoup plus vaste de l’Univers actuellement accessible, la distribution des radio-sources ne soit pas dans un rapport constant, statistiquement, avec celle des galaxies. Leur répartition serait en tout cas uniforme dans l’hypothèse de la création continue, qui postule un univers partout semblable.
- Malheureusement, le spectre radioélectrique ne nous permet pas de mesurer, par effet Doppler, les vitesses de récession des radio-sources lointaines afin d’en estimer la distance. L’unique région du spectre radioélectrique utilisable pour mesurer l’effet Doppler est la raie 21 cm de l’hydrogène neutre ; mais les déformations du profil de cette raie n’ont pu, jusqu’ici, être observées qu’à des distances trop faibles pour présenter un intérêt cosmologique. Seules la Galaxie, les Nuages de Magellan et les galaxies voisines M31, M33 et M51 ont été bien étudiées grâce à la raie 21 cm. Un grand espoir était né cependant en 1955
- 102
- quand Lilley et Mac Clain crurent avoir décelé cette raie en absorption dans l’intense rayonnement non-thermique de Cygnus A. Mais des expériences récentes de Hanbury Brown et de Muller, avec des appareillages plus sensibles, n’ont pas confirmé ce résultat. Nous devons donc attendre un perfectionnement notable des radio-télescopes, ainsi qu’un accroissement de leurs dimensions, pour avoir l’espoir d’évaluer directement la distance des sources lointaines.
- La seule méthode actuellement à notre portée consiste à utiliser l’intensité des radio-sources qui, statistiquement, doit diminuer proportionnellement au carré de la distance. En même temps, si la distribution spatiale est uniforme, le nombre des sources observées doit s’accroître comme le cube de la sphère d’espace considérée (fig. 6). Dans ce cas, la densité du flux hertzien S étant proportionnelle à R~2 et le nombre N des sources à R3, on peut montrer que
- 2000Mpc
- 1000 Mpc
- Fig. 6. — L’excès de sources faibles et la densité lointaine.
- Dans les angles solides A et B on a isolé artificiellement deux surfaces circulaires où les radio-sources sont figurées par des points dont la grosseur est proportionnelle à leurs éclats apparents tels que les mesure l’observateur en O. Les sources sont supposées avoir des éclats absolus égaux. Les surfaces b sont à mi-distance des surfaces c par rapport à O. En A la distribution spatiale est uniforme : il y a quatre sources en b et seize en c (4X4), leur nombre croissant comme R2 dans cette figure, tandis que leur éclat apparent varie comme R-2. En B les éclats apparents suivent la même progression décroissante avec la distance, mais le nombre des sources faibles en c' est supérieur à R2, indiquant une augmentation de la densité lointaine. En a, a', on a figuré une source proche de grand éclat apparent. Bien entendu, le nombre total des sources à l’intérieur des cônes d’espace croîtra en réalité comme R3 en B et plus vite que R3 en A. Quant à l’éclat apparent, il ne dépend que de la distance quelle que soit l’hypothèse envisagée. Le choix arbitraire de deux surfaces ne correspond qu’à une simplification de la figure.
- dans un diagramme portant en ordonnées log N et en abscisses log S les sources observées doivent s’aligner sur une droite de pente — 1,5 (Ryle, Bolton et Westfold). Les flux hertziens réels des galaxies anormales sont certes inégaux ; il en résulte une certaine dispersion des points représentatifs, mais elle n’empêche pas le diagramme d’être significatif. Or les catalogues établis à Cambridge par Martin Ryle depuis 1955 montrent que les radio-sources se distribuent sur une pente différente de — 1,5 (fig. 7), indiquant un excès de sources faibles par rapport aux plus puissantes et par conséquent un accroissement de la densité des galaxies anormales dans l’espace lointain. D’après une communication faite au début de 1961, la densité en serait 11 fois plus grande à 8 milliards d’années-lumière qu’elle
- p.102 - vue 106/551
-
-
-
- Distribution / uniforme
- Distribution obseri/ée "
- log io S
- ne l’est dans nos parages. On peut donc supposer que le nombre des galaxies normales s’accroît dans les mêmes proportions.
- Il est vrai que dans un espace ainsi plus encombré, dont l’image remonte à une époque notablement plus proche des débuts de l’expansion, la quantité de matière interstellaire non condensée en étoiles pourrait avoir été beaucoup plus considérable. La probabilité de fortes émissions radioélectriques, dues à des turbulences occasionnelles de la matière interstellaire, sans que nous puissions d’ailleurs en préciser les causes, en serait augmentée. Mais même alors, la théorie évolutive ne se trouverait pas moins confirmée puisque l’Univers nous apparaîtrait sous un aspect différent dans ce lointain passé.
- Cependant, des conclusions fondées sur la seule intensité apparente des radio-sources seraient sans doute prématurées. En premier lieu, nous ignorons dans quelle mesure les ondes radioélectriques sont absorbées par la matière intergalactique, au cours de leur long cheminement jusqu’à nous. Cette absorption pourrait ne pas être négligeable malgré le pouvoir de pénétration des ondes longues. De plus le spectre radioélectrique subit, comme le spectre optique, une déviation vers des énergies plus faibles, à mesure qu’augmentent les vitesses de récession. A cette déviation s’ajoute un effet relativiste de raréfaction des photons dont nous parlerons plus loin. Dans ces conditions l’éclat des émetteurs tend à diminuer plus vite que la racine carrée de la distance (R”'2) alors que leur nombre croît au minimum comme R3. Alors, même dans un univers de densité constante, la droite du diagramme (log N, log S) pourrait montrer une pente différente de — 1,5. Enfin et surtout, les catalogues des principaux centres de Radioastronomie ne sont pas toujours d’accord les uns avec les autres. La théorie de Hoyle de la création continue, qui nie toute ani-sotropie de la densité de l’Univers, n’est donc pas radicalement démentie. Il faut attendre un moyen plus sûr d’évaluer la distance des radio-sources lointaines.
- La raréfaction des photons
- En admettant une transparence parfaite de l’espace intergalactique, pourrions-nous déceler des sources dont la vitesse de fuite (proportionnelle à leur distance dans la théorie actuelle de l’expansion) serait très proche de la
- Fig. 7. — La méthode des pentes appliquée à la distribution des radio-sources dans l’espace.
- En ordonnées, le logarithme N du nombre des sources et en abscisses le logarithme J1 des densités de flux observées (éclats apparents). Les sources se placent sur une droite de pente différente de celle qui indiquerait une distribution uniforme.
- (D’après Pawsey et Bracewell).
- vitesse de la lumière ? Les photons, sur toute longueur d’onde, optique ou radio, nous parviennent toujours à la même vitesse (299,790 km/s) conformément à la Relativité : la vitesse de propagation par rapport à l’observateur est toujours la même, quelle que soit la vitesse de la source. Mais l’énergie reçue, qui diminue en raison du carré de la distance, est encore diminuée par la vitesse de fuite des sources, pour deux causes : effet Doppler et raréfaction des photons.
- En optique le décalage du spectre (effet Doppler) affaiblit beaucoup l’éclat des galaxies très lointaines. La courbe de lumière des galaxies elliptiques proches, par exemple, montre que l’ultraviolet est peu abondant en regard du jaune. L’ultraviolet qui nous parvient transformé en lumière visible ne remplace donc que fort mal sur la plaque photographique les radiations du visible qui elles-mêmes ont glissé dans l’infrarouge. Aux longueurs d’onde radio, l’effet Doppler produit aussi un affaiblissement de l’énergie proportionnel à la vitesse de fuite, mais l’augmentation de la longueur d’onde, en elle-même, ne doit pas gêner l’enregistrement. Il semblerait donc que les radio-sources situées aux environs de 13 milliards d’années-lumière et animées d’une vitesse de fuite proche de celle du rayonnement électromagnétique, doivent être encore décelables.
- Mais, comme l’ont montré MM. Paul Couderc et Evry Schatzman, il faut tenir compte alors d’un autre effet que fait prévoir la théorie de la Relativité : la raréfaction des photons, effet égal à l’effet Doppler, c’est-à-dire proportionnel à la vitesse de fuite. Tout se passe, comme si l’angle solide dans lequel les photons se déplacent se rétrécissait ; en d’autres termes le diamètre apparent d’une source de rayonnement diminue proportionnellement à sa vitesse de fuite. Jointe à la diminution de leur énergie individuelle par effet Doppler, cette diminution du nombre des photons par unité de temps doit aboutir pratiquement à l’extinction totale du rayonnement avant que la vitesse des sources n’atteigne celle de la lumière.
- La portée des radio-télescopes ne pourrait donc dépasser 10 à 12 milliards d’années-lumière au maximum, en admettant que la constante de récession ou constante de Hubble soit bien une constante. Il est vraisemblable que de telles distances sont atteintes ou tout près de l’être, puisque la radio-source du Bouvier a pu être identifiée à un faible objet optique situé à 6,5 milliards d’années-lumière. On peut penser que parmi les radio-sources faibles du catalogue de Cambridge, certaines se trouvent à des distances bien supérieures.
- Plus vite que la lumière...
- Une autre question qui n’a pas toujours été bien éclairée est celle de savoir si les amas de galaxies en fuite peuvent dépasser la vitesse de la lumière, qui est une vitesse-limite d’après la Relativité. M. Couderc n’hésite pas à répondre
- 103
- p.103 - vue 107/551
-
-
-
- V ^-9-----------9- .
- /
- Pb-
- /
- /
- /
- Ftg. 8. — Expansion d’un espace hypersphérique.
- L’accroissement J: R du rayon R transporte les galaxies situées sur l’arc de grand cercle AA' jusqu’en BB' où elles sont plus écartées.
- par l’affirmative. Le profane peut avoir du mal à saisir le sens des raisonnements que l’on fait à ce sujet. Disons pourtant que les vitesses de récession des objets émetteurs ne devraient pas être considérées comme des vitesses réelles, comparables, par exemple, aux déplacements relatifs des galaxies à l’intérieur d’un amas. Ces vitesses de fuite proviennent de l’accroissement du rayon de courbure d’un espace hypersphérique en expansion : elles résultent d’une métrique qui est fonction du temps.
- Diverses analogies peuvent nous aider à imaginer l’entraînement des amas de galaxies dans un gonflement de l’espace, soit qu’on compare l’Univers en expansion à une bouffée de fumée qui se dilate dans un courant d’air, soit qu’on l’assimile, comme l’a fait Einstein, à un ballon de caoutchouc dont le gonflement écarte les unes des autres les irrégularités de sa surface (fig. 8). Il faut bien se rendre compte qu’à l’échelle de l’Univers l’expansion est très lente. Elle ne prend une valeur importante qu’aux grandes distances, par addition des vitesses de proche en proche (fig. 9), et encore n’est-ce que par comparaison avec la vitesse de la lumière qui paraît très grande à notre échelle, mais dont la propagation dure des millions d’années, même entre galaxies voisines. Dans notre amas local, où l’expansion ne se fait d’ailleurs pas sentir par suite de la prépondérance des forces gravitationnelles, la plus proche des galaxies comparables à la nôtre, Andromède (M 31), est
- OA B
- •—•—•-•—1—• •—>•
- ti
- OA B
- «---•----•—--«----•---•----®---
- 1-2
- Fig. 9. — Système en expansion régulière, linéaire.
- Les points qui figurent des galaxies doublent leurs distances respectives en un temps tx t2. Mais le point B aura fait en /a six fois plus de chemin que le point A par rapport à l’observateur situé en O. Les vitesses sont donc proportionnelles aux distances ; on peut parler d’une « constante de récession ».
- située à 2,8 millions d’années-lumière d’après les estimations les plus récentes basées sur la magnitude apparente des explosions d’étoiles (novæ) qu’on y observe. Le grand amas de galaxies de la Vierge se situe à 40 000 000 a-1 et sa vitesse de récession n’est que de l’ordre de 1 000 km/s. Un observateur cosmique imaginaire, qui verrait l’Univers dans son ensemble, devrait attendre des millions d’années pour que l’expansion lui soit décelable. Une grande galaxie comme la nôtre, ayant un diamètre équatorial moyen de 100 000 a-1, se trouve à 400 diamètres d’une galaxie analogue de la Vierge. On calcule facilement que pour que cette distance augmente d’un diamètre, soit de 1/400, il faut
- Fig. 10. — Schéma d’un espace hypersphérique fermé en expansion
- linéaire.
- Un tel schéma ne peut être considéré comme ayant une valeur figurative exacte (une structure hyperdimensionnelle est limitée non par des surfaces mais par des volumes, de sorte que même une représentation dans l’espace est inadéquate). Les flèches rectilignes partant du centre O sont dirigées dans le temps et symbolisent l’expansion de l’Univers : les petits cercles sur chacune des flèches correspondent à la même galaxie à différentes époques. Il y a huit flèches et par conséquent huit galaxies seulement. Quant aux trois dimensions de notre espace euclidien, on doit imaginer qu’elles sont comprises entièrement dans la seule ligne des circonférences. La courbure de ces lignes est censée correspondre à celle de l’espace dans une quatrième dimension. La spirale S représente le chemin de la lumière dans l’espace euclidien en expansion : elle suit le pourtour d’une circonférence qui s’agrandit. La radiation partie du centre de densité maximale O, passe en E', . C', etc., par des cercles d’expansion intermédiaires pour atteindre en A notre galaxie sur le cercle d’expansion actuel. Dans cette figure plane, il y a un deuxième chemin opposé pour la lumière (ligne pointillée). Les chemins sont en nombre infini s’il s’agit d’une sphère : on atteint le centre de tous côtés au long des méridiens d’une surface sphérique en expansion. Les images de galaxies placées sur les spirales (cercles noirs)] sont seules « vues maintenant » à partir du point A « ici maintenant » ; leur radiation, faute de se propager instantanément, ne peut évidemment nous atteindre au long du cercle extérieur où elles sont en réalité déjà parvenues. C’est ainsi que la galaxie située en TC R est observée en E' alors qu’elle se trouve déjà en E sur le même cercle d’expansion que le nôtre où elle est inobservable. Elle le restera dans l’avenir parce qu’à partir d’un certain degré d’expansion, les distances deviennent trop grandes pour que la radiation puisse faire un demi-tour d’univers, les vitesses des objets émetteurs croissant proportionnellement à l’intervalle qui les sépare de l’observateur (se reporter à la figure 9). Cependant nous continuerons à atteindre dans le passé l’image de cette galaxie jusqu’à ce qu’elle soit parvenue sur le cercle d’expansion E" par exemple ; à partir de ce point, elle franchira définitivement l’horizon observable. On remarque que plus on s’approche du point O, plus les galaxies se serrent, montrant une distribution plus dense aux premiers temps de l’expansion. En A' se trouve notre propre galaxie à une époque du passé où nous pourrions théoriquement parvenir si une expansion plus lente permettait à la lumière de faire un tour complet d’univers. On notera que dans ce modèle, les distances angulaires des galaxies restent les mêmes, leurs vitesses « propres » pouvant être considérées comme négligeables.
- 104
- p.104 - vue 108/551
-
-
-
- attendre 30 millions d’années. On trouve de la même façon que l’expansion, si elle s’est toujours produite au même rythme, doit avoir commencé il y a 12 milliards d’années, dans l’hypothèse où l’Univers a été ramassé dans le plus petit volume possible (atome primitif).
- D’autre part, une vitesse de récession des galaxies lointaines dépassant celle de la lumière équivaudrait à une manière d’éclatement de l’Univers, puisqu’aucun signal ne nous parviendrait plus de ces galaxies. Toutefois, selon M. Paul Couderc, dans un espace hypersphérique de rayon R, nous pourrions encore trouver des galaxies à la distance tz R, c’est-à-dire aux « antipodes » de l’Univers (fig. xo). La lumière qui nous en parviendrait nous ramènerait à une époque où le rayon de l’hypersphère en expansion était plus petit et la courbure de l’espace plus accentuée : la lumière mettait alors moins de temps à parcourir autour de l’Univers un arc de grand cercle donné. Mais les galaxies aperçues en 7t R, dans un lointain passé, ont continué depuis à accélérer leur fuite, à mesure que se poursuivait l’expansion, de sorte qu’elles doivent atteindre, actuellement, des vitesses supérieures à celle de la lumière.
- Une autre observation peut être faite : si, dans le cas particulier de l’Univers en expansion, la vitesse de la lumière ne constitue pas une vitesse-limite, il devient inutile d’imaginer une augmentation relativiste de la masse des galaxies en récession rapide, comme on l’a avancé quelquefois. Du reste, une telle augmentation serait tout à fait indécelable.
- La courbure hypersphérique de l’espace, dont on ne
- saurait évidemment donner une représentation figurative satisfaisante, est liée aux conceptions relativistes de la structure du champ de gravitation. C’est une hypothèse supplémentaire que d’admettre la « fermeture » de cet espace sur lui-même qui dépend, dans la plupart des modèles cosmologiques, de l’estimation d’un facteur p, exprimant la densité moyenne de la matière dans l’Univers. Cette matière comprend non seulement les galaxies, mais les nuages de gaz et de poussière intergalactiques probablement répandus à l’intérieur des grands amas. Nombreux sont les exemples de galaxies reliées par des bras de matière bien visibles sur les photographies (fig. 11 et 12) et dont le spectre peut être identifié (fig. 5).
- L’estimation de p varie dans de larges proportions : de io~31 à io~28 grammes par centimètre cube, car la masse des nuages intergalactiques est inconnue. Le coefficient d’absorption de la lumière par cette matière intergalactique est donc également incertain et il en résulte une incertitude sur la distance des galaxies lointaines, qui est évaluée d’après leur éclat apparent. Cette incertitude affecte la loi de Hubble (la constante de récession ne serait plus une constante !), soit que la vitesse de l’expansion universelle varie dans le
- Fig. 11. — Un bras de matière intergalactique en spirale.
- On voit sur cette photographie en négatif trois galaxies réunies par des traînées de matière. Un de ces « ponts » vers la galaxie la plus éloignée, à gauche, a pris une forme spiralée par suite de la rotation relative des objets qu’il unit. On voit aussi les ponts se prolonger légèrement vers l’extérieur du système triple par suite de marées antipodiques.
- p.105 - vue 109/551
-
-
-
- Fig. 12. — Le système des galaxies IC 3481 et 3483.
- L’image, très surexposée, tirée en négatif, montre bien la matière intergalactique qui unit les galaxies et paraît s’étendre plus loin comme un léger brouillard. Cette matière intergalactique serait compc sée de nuages d’hydrogène et de poussière météorique, mais aussi d’étoiles isolées.
- (Photo F. Zwicky, Mount Wilson and Palomar Observatories).
- temps (Sandage), soit qu’elle se modifie au voisinage des grands amas ou groupes d’amas sous l’effet de forces gravitationnelles (Vaucouleurs).
- Si la densité de l’Univers est assez élevée, sa courbure sera positive (géométrie hyperdimensionnelle de Riemann), de sorte qu’il se refermera sur lui-même. Au contraire, une densité plus faible correspondrait à une courbure négative, hyperbolique (géométrie de Lobatchevsky) et par conséquent à un Univers ouvert et infini. Selon qu’on opte pour l’une ou l’autre de ces géométries, le nombre des objets lointains s’en trouve légèrement affecté, car ce nombre croît plus vite que R3 dans un espace à courbure négative ' alors que c’est le contraire si la courbure est positive
- * (Gamow). Mais cet effet doit se trouver masqué dans un
- modèle d’Univers en expansion parti d’un état de densité maximale, puisque les grandes distances nous ramènent à la vision d’un état très antérieur.
- C’est la radioastronomie qui nous promet d’avancer prochainement vers la solution de ces problèmes. En particulier, comme nous l’avons vu, le recensement des radio-sources dans les couches successives des profondeurs de l’espace devrait montrer une densité croissante pour confirmer la théorie évolutive, tandis qu’elle devrait rester constante pour confirmer l’audacieuse hypothèse de la création continue. Quant à l’existence d’un Univers euclidien, sans courbure, partant d’un point d’expansion central, la distribution apparemment régulière des radio-sources dans toutes les directions de la voûte céleste ne plaide guère en sa faveur.
- Les nouveaux radio-télescopes, dont quelques-uns ont été décrits récemment dans cette revue, nous aideront sans doute, grâce à leur portée considérable, à préciser la géométrie de l’espace, et peut-être à départager les diverses théories cosmologiques.
- Jacques Fouchet.
- Cœur mécanique et hibernation
- Un ingénieur de Johannesbourg, C. Bennington, vient d’achever la mise au point d’un cœur mécanique qui permet au médecin d’opérer « en état de mort contrôlée ». De la dimension d’un classeur de bureau, il est connecté au système circulatoire du patient et, grâce à des circuits de réfrigération, abaisse régulièrement la température du sang du malade. Le cerveau, le cœur et les poumons cessent de fonctionner lorsque la température tombe à i8°C. A io°C la circulation s’arrête. Les chirurgiens ont au maximum une heure pour réaliser leur intervention. Cerveau, cœur et poumons recommencent à fonctionner dès que l’on réchauffe la température du sang. Cette technique a d’ores et déjà permis des opérations qui eussent été impraticables sans elle. Des appareils de ce type sont en construction sous licence aux Etats-Unis. (Ambassade de l'Afrique du Sud).
- Drainage des marais de la Vilaine
- L’assainissement des marais de la Vilaine, en aval de Redon, est enfin entré dans une phase active. Une société interdépartementale entame les travaux de drainage ; un barrage de 180 m de long va être édifié sur le fleuve près de l’estuaire, à Arzal (en aval de La Roche-Bernard), ce qui interdira la remontée des eaux marines et formera un réservoir artificiel dont les eaux douces seront utilisables pour l’agriculture.
- . .106
- Besoins en eau des grandes villes
- On sait quels problèmes ardus posent les besoins en eau de certains pays très industrialisés, notamment des Etats-Unis (voir La Nature-Science Progrès, mai 1961, p. 218-220). La consommation d’eau ne cesse de s’accroître dans les grandes villes du monde, créant une situation souvent difficile. Le record est détenu par Chicago, avec près de 1 000 litres par habitant et par jour, suivi de Los Angeles à égalité avec la Nouvelle-Orléans (700 litres). Vient ensuite Genève, avec 6oo litres ; on note parmi les fortes valeurs également Rome (500), Buenos-Aires, où une nouvelle usine des eaux est en cours d’installation par une entreprise française (500), Rio de Janeiro (475), Sydney (400), Paris, Stockholm et Tokio (360). Londres consomme en moyenne 300 litres par habitant et par jour, Berlin et Vienne 260, Bruxelles 210, Rotterdam 200.
- Engrais à base de charbon
- Impropres à toute utilisation industrielle, les énormes réserves de charbon brun de la région d’irkoutsk (U.R.S.S.) seront peut-être utilisées comme engrais dans un proche avenir. Des essais ont été effectués dans ce sens : le charbon, d’abord finement pulvérisé, est traité par une solution d’ammoniaque puis répandu par avion sur des champs de blé. Le rendement se serait accru de 6 à 8 quintaux par hectare.
- p.106 - vue 110/551
-
-
-
- par Gaston Cohen
- Le phénomène de la sénescence soumis à l’investigation scientifique
- Ayant abordé, dans un premier article, le problème de la sénescence sous un angle démographique nous avons pu déceler ce qui, aux yeux des économistes et des sociologues, constitue le nœud de ce problème. Il ne s’agit en aucune façon de la prolongation de la vie humaine, mais plutôt de l’allongement ou des aménagements possibles de la période active. Les gérontologues s’abstiennent en général de viser de tels objectifs. Ce sont pourtant leurs études qui montreront dans quelle mesure ils peuvent être atteints. Spécifions que ces études se sont heureusement affranchies de certaines méthodes d’investigation, inspirées par l’idée qu’il existe une cause, sinon unique, du moins primordiale du vieillissement.
- Il était séduisant, bien sûr, de détecter cette cause en vue de susciter des traitements simples et que l’on espérait radicaux. Mais l’expérience a démontré successivement la vanité de ces recherches. C’est ainsi qu’on ne prête plus qu’un intérêt historique aux travaux de Brown-Séquard, Steinach et Voronov, proposant d’agir électivement sur les glandes à sécrétion interne, à ceux de Mentchikov et de Bogomoletz, centrés respectivement sur la flore bactérienne de l’intestin et sur le tissu conjonctif.
- La recherche gérontologique s’attaque aujourd’hui au processus du vieillissement dans toute sa complexité. Elle fait largement appel à l’expérimentation sur les animaux de laboratoire, chez lesquels ce processus se déroule dans un temps limité. Ainsi se trouvent complétées et éclairées les observations, nécessairement lacunaires, que l’on peut faire sur l’homme. Tel est donc l’aspect mixte (homme-animal) des travaux que nous exposerons en premier lieu. A la suite, nous décrirons une méthode de mesures physiologiques et psychologiques appliquées à des groupes humains, en vue d’établir statistiquement les normes du vieillissement.
- Données anatomiques et physiologiques
- Un fait commun aux populations humaines et aux animaux de laboratoire tels que rongeurs et drosophiles, a été mis en relief par différents auteurs américains : le taux de mortalité, à partir de l’âge mûr, pourrait être représenté, sur une courbe logarithmique, par une ligne
- i. Voir : Le vieillissement de la population et les aspects sociaux de la gérontologie, par Gaston Cohen, La Nature-Science Progrès, février 1962, p. 76-81.
- droite. C’est ainsi que, pour l’homme, ce taux est régulièrement multiplié par 2, au bout de chaque phase de 7 à 8,5 ans. On s’aperçoit, en conséquence, que de 35 à 85 ans, la probabilité de mort a augmenté 100 fois.
- Or si l’on mesure, d’un bout à l’autre de cette période, un certain nombre de fonctions rénales, respiratoires, nerveuses, etc., on ne constate que rarement des déperditions qui excèdent 35 à 50 pour 100. Cette disparité entre les deux courbes paraît signifier que les organismes cessent de pouvoir survivre lorsqu’un degré même limité de sénescence est atteint.
- Le phénomène mérite d’être étudié à différents niveaux.
- Les modifications chimiques. — En ne considérant que plusieurs organes tels que reins, foie, muscles, rate et cerveau, on observe, aussi bien chez l’homme que chez le rat, une augmentation de la teneur en certains éléments chimiques et une baisse pour d’autres éléments. Sans que ce soit une règle absolue, l’eau, le sodium, le chlore et le calcium sont en augmentation relative, alors que diminuent le potassium, le magnésium, le phosphore et l’azote. Une baisse notable de la consommation d’oxygène est également signalée.
- h Le poids des organes. — A quelques exceptions près, les organes diminuent de poids, dès qu’est dépassé l’âge adulte et que s’amorce la vieillesse. Ce processus a été constaté fort nettement chez l’homme et chez les rongeurs. Citons le cas, assez impressionnant, du cerveau humain qui pèse en moyenne 1 389 g chez les sujets masculins de 20 à 29 ans, 1 242 g chez les sujets féminins du même âge, puis régresse jusqu’à (respectivement) 1 266 g et 1 150 g pour la tranche de 70 à 79 ans.
- Le tissu conjonctif. — C’est un fait incontesté que le tissu conjonctif s’accroît dans les organismes âgés, en même temps d’ailleurs que ses caractéristiques se modifient. Dans certains tissus nobles, des cellules disparaissent, laissant la place à des éléments du tissu conjonctif.4 L’explication de ces changements a été tentée, mais il semble qu’aucune théorie cohérente n’ait pu se dessiner. Tout au plus a-t-on entrevu une série de processus bio-chimiques qui auraient lieu dans les cellules et s’apparenteraient cependant à des réactions extra-cellulaires. Le type de ces réactions est celle qui engendre l’agrégation du collagène, devenu plus dur, cristallin et moins aisément soluble. Ce phénomène s’appa-
- 107
- p.107 - vue 111/551
-
-
-
- rente aux modifications qui interviennent dans l’élastine des vaisseaux sanguins : perte d’élasticité et tendance à la fragmentation.
- On a été tenté de croire que ce durcissement du tissu conjonctif pouvait créer un obstacle aux échanges de substances nutritives. Mais à cet égard les résultats des expériences sont contradictoires : mesurant la diffusion de l’azote, de l’oxygène, de l’anhydride carbonique et du glucose à travers des tissus jeunes ou âgés, Kirk et Laursen ont dû reconnaître que le taux de diffusion était plus élevé dans le second cas que dans le premier. Il semble bien cependant qu’une résistance périphérique, qui se manifeste au cours du vieillissement, bloque dans une certaine mesure la circulation du sang à travers les tissus et réduit d’autant le rendement cardiaque. Il n’en est pas moins vrai que le phénomène de la prolifération et du durcissement du tissu conjonctif n’est pas encore pleinement élucidé.
- La reproduction. — La baisse progressive de l’activité sexuelle, à partir de l’âge de 20-29 ans Pour l’homme, va de pair avec une atrophie des glandes génitales et une excrétion diminuée des hormones sexuelles (androgènes et œstrogènes). Des recherches systématiques sur les rats n’ont pu parvenir à l’établissement d’une courbe régulière, reflétant cet aspect particulier du vieillissement que l’on a tendance, semble-t-il, à surestimer. On sait en tout cas que la longévité n’est nullement en rapport avec une prolongation, dans le temps, des fonctions sexuelles. Celles-ci ne peuvent donc pas, selon toute vraisemblance, fournir un calendrier du vieillissement global.
- Le métabolisme basal. — Les variations du métabolisme basal avec l’âge offrent une image bien plus fidèle du vieillissement. Bien que la diminution la plus spectaculaire ait lieu dans les vingt premières années de la vie, la baisse apparaît avec une grande régularité, pour les tranches d’âge successives de l’un et l’autre sexes (fig. 1). Les chiffres suivants, empruntés au Précis de Gérontologie de L. Binet et
- MOYE NIMES
- Hommes
- Femmes
- ECARTS TYPES . Hommes
- Femmes
- Age en années
- Fig, i. — Variation du métabolisme de base avec l’âge chez l’homme, dans les deux sexes.
- (D’après Boothby, Berkson et Dunn, in Binet et Bourlière).
- F. Bourlière (Masson, Paris, 1955), montrent que cette décroissance se poursuit chez les vieillards, s’amortissant cependant pour la tranche extrême du sexe féminin.
- Ages
- 70-79 ans 80-89 ans 90-99 ans
- Métabolisme (calories par m2 et par heure)
- Hommes Femmes
- 34,4 ± 3,8 34,4 ± 4,5
- 30,8 ± 4,6 32,9 ± 3,9
- — 32,5 ± 4,4
- La vitesse de cicatrisation. — Un auteur français, Lecomte du Nouy, avait mis l’accent sur le fait que les plaies cicatrisent de plus en plus lentement, à mesure que les êtres avancent en âge. Ceci correspond sans doute, grosso modo, à la réalité, mais les études statistiques faites à ce sujet sont trop sommaires pour que la vitesse de cicatrisation constitue un test rigoureux de l’âge physiologique. Une vérification, faite en 1950 sur les rats par Bourlière et Gourévitch, a montré que la cicatrisation était nettement plus rapide chez les sujets jeunes que chez les adultes, mais aucune différence significative n’est apparue entre ces derniers et les animaux séniles, âgés de 18 à 30 mois.
- Des constatations du même ordre ont été faites, en ce qui concerne le pouvoir de régénération de tissus internes. Après une ablation partielle du foie, de jeunes rats de 4 à 6 semaines régénèrent en 14 jours un volume deux fois plus important de tissu hépatique que des rats adultes de 4 à 8 mois... et que les rats séniles qui se trouvent de nouveau à égalité avec leurs cadets.
- Ces expériences s’inscrivent donc plutôt dans l’étude de la croissance des organismes jeunes que dans les données gérontologiques.
- La nutrition. — Au fil de cette revue, secteur par secteur, des processus du vieillissement, nous parvenons à une expérience fort curieuse et d’ailleurs célèbre, commencée en 1930 et poursuivie jusqu’en 1943 par Mac Cay. Il s’agissait de mettre en lumière une conception originale de cet auteur, qu’on pourrait désigner par le terme de « disponibilité de vie ». L’idée est la suivante : croître à une vitesse assez grande (correspondant au rythme normal) et parvenir donc rapidement à la maturité, c’est dépenser un potentiel qui pourrait servir par la suite à prolonger la durée de la vie.
- Les lots successifs de rats qui furent utilisés par Mac Cay ont justifié cette thèse de manière surprenante. Un groupe de rats-témoins recevaient une ration de nourriture normale, croissaient également selon les normes courantes et terminaient leur vie à l’âge de 600 à 700 jours, comme il est de règle pour leur espèce. Le groupe expérimental fut systématiquement sous-alimenté, ses rations étant fortement diminuées, mais en prenant soin toutefois de les maintenir en équilibre pour éviter toute carence vitaminique ou minérale. Les rats de ce groupe furent, de ce fait, retardés dans leur croissance. A l’âge de 330 jours un premier sous-groupe fut choisi pour prendre un nouveau départ, grâce à une alimentation devenue normale : la croissance, ainsi qu’on peut le voir sur la figure 2, reprit avec vigueur et ces rats, ayant presque rattrapé les témoins, décédèrent à peu près à la même époque. Pendant ce temps les sous-alimentés poursuivaient leur croissance au ralenti et dépassaient
- 108
- p.108 - vue 112/551
-
-
-
- largement l’âge limite des témoins : l’un d’eux survécut jusqu’à i 421 jours ! Un deuxième sous-groupe, doté à 900 jours d’une alimentation plus abondante, amorça un sursaut de croissance qui lui valut de périr avant les retardés intégraux.
- o Témoins « Retardés Retardés (330jours) + RetardésidOOjours >
- Age en Jours
- Fig. 2. — Action d’un rationnement alimentaire sur la croissance (longueur du tibia) et sur là durée de vie chez le rat.
- Les rats témoins, normalement alimentés, ont eu une croissance rapide et ont vécu 600 jours en moyenne. Les rats sous-alimentés (retardés) n’ont jamais atteint la même taille mais ont vécu plus de 1 200 jours. Des rats, d’abord retardés, puis alimentés normalement à partir du 330e jour, ont presque rattrapé les premiers et sont morts à la même époque. Ceux qui n’ont été bien alimentés qu’à partir du 900e jour (alors que tous les témoins étaient morts depuis longtemps) ont accéléré leur croissance et sont morts vers le 1 100e jour. Parmi ceux qui ont été retardés jusqu’au bout, on cite un cas de longévité extraordinaire pour un rat : 1 421 jours.
- (D’après McCay, in Binet et Bourlière).
- dire au niveau de la cellule et des réactions bio-chimiques.
- Un premier fait, dont l’importance est certainement primordiale dans l’étude de la sénescence, réside dans le non-renouvellement des cellules nerveuses. C’est là une notion classique de l’histologie : alors que les cellules des autres tissus se détruisent et se forment à nouveau, tout au long de la vie, rien de semblable ne se produit dans le tissu nerveux.
- Le déficit, dû à l’âge, peut atteindre 25 à 30 pour xoo des cellules dans certaines zones du cerveau. En même temps apparaissent certaines perturbations dans le noyau et le cytoplasme des cellules vivantes.
- Ce fait a nécessairement deux conséquences : la première est la perte générale de potentiel, ressentie par tous les organes, progressivement démunis d’une partie de l’influx nerveux. La seconde est l’affaiblissement spécifiquement cérébral qui a pu d’ailleurs être mis en lumière à la faveur de nombreux tests psychologiques.
- Une parenthèse s’impose à ce sujet : le déficit cérébral est infiniment moins grave pour les cerveaux qui continuent à travailler. Ils ne souffrent pas en effet de l’extinction, attribuée à « la routine ». Ceci n’empêche que, selon toute probabilité, les cerveaux actifs ont subi les mêmes déperditions cellulaires que les autres. Leur conservation fonctionnelle pourrait être expliquée par une sorte de transfert, comparable à celui qu’on constate chez les amputés d’un rein, d’un poumon ou de tout autre organe pair, chez qui l’ablation est compensée par un renforcement de l’organe subsistant.
- Fig. 3, — Au centre Claude Bernard de Gérontologie à Paris : mesure du métabolisme basal.
- (Photo Centre de Photographie de l’Assistance Publique).
- Empressons-nous de spécifier que cette recette de longue vie (la sous-alimentation) n’est pas nécessairement applicable à l’espèce humaine : le squelette des rats, en effet, est constitué de telle sorte que leur croissance n’obéit pas à un déterminisme aussi rigoureux que chez les mammifères dont nous faisons partie. Mais cette remarque n’enlève rien à la valeur démonstrative de l’expérience de Mac Cay. Elle se trouve d’ailleurs corroborée par ce que l’on connaît de la croissance et de la longévité des vertébrés à sang froid. Reptiles, batraciens et poissons dépensent leur potentiel vital en fonction de leur biotope. Si les conditions sont (théoriquement) défavorables, les animaux, exposés par exemple au froid et mal pourvus en nourriture, restent petits mais vivent longtemps. D’autres individus des mêmes espèces peuvent atteindre des tailles doubles ou triples grâce à un biotope plus opulent qui, en même temps, les fait mourir plus jeunes.
- Signalons encore que les vertébrés à sang froid ont, à taille équivalente, une longévité supérieure à celle des mammifères et des oiseaux. Notre homéothermie se révèle ainsi comme étant un privilège dispendieux !
- Au niveau de la cellule et des réactions bio-chimiques
- Les différentes constatations expérimentales que nous venons d’exposer devaient fatalement conduire à une investigation menée davantage en profondeur, c’est-à-
- p.109 - vue 113/551
-
-
-
- Les enzymes. — Plusieurs auteurs ont tenté d’établir une corrélation entre la sénescence et l’activité enzymatique dont les tissus sont le théâtre. Il ne semble pas jusqu’à présent qu’ils aient pu accumuler, à cet égard, des données vraiment significatives. Assiste-t-on à une diminution quantitative des enzymes ou à une simple baisse de leur activité ? Observant les cellules du rein, chez le rat sénile, Barrows, Falzone et Shock ont cru reconnaître à la fois un déficit en succinoxidase et une diminution du nombre des mitochondries présentes dans le cytoplasme des cellules. D’autres recherches situent également les baisses du métabolisme au niveau des mitochondries, mais ce n’est encore là qu’une indication superficielle qui demande à être éclairée par de plus amples investigations.
- La pigmentation. — Une voie d’exploration bio-chimique s’ouvre du côté des pigments qui apparaissent avec l’âge dans un certain nombre de tissus. Une des particularités de ces pigments est de dégager une fluorescence bleue ou jaune sous la lumière ultraviolette. La plupart des auteurs estiment qu’ils sont dus à une auto-oxydation des lipides et l’un d’eux, Harman, a exprimé l’idée que ce processus, lié à une interaction entre les lipides oxydés et les protéines, pouvait être un des facteurs du vieillissement.
- Le phénomène a pu être suivi in vitro : dans une première période, l’oxydation se déclenche, en même temps que disparaissent les anti-oxydants. Puis on assiste à la formation de péroxydes, suivis de composés carbonyles où dominent les aldéhydes. A la phase finale, on recueille des pellicules dures, insolubles, pigmentées et fluorescentes, dont les propriétés rappellent celles des cêroïdes et des lipofuchsines.
- Très peu de succès ont été obtenus en tentant d’isoler les pigments détectés dans les tissus vivants (muscles cardiaques, vaisseaux sanguins, tissus nerveux). Il est en outre difficile, jusqu’à plus ample informé, d’apprécier le rôle joué par ces pigments dans les déficiences fonctionnelles des organes. Tout au plus peut-on souligner les résultats de mesures faites par Strehler, Mark, Mildvan et Gee et selon lesquelles les lipofuchsines représenteraient 3 pour 100 du poids humide du muscle cardiaque sénile.
- Altérations d’origine thermique. — Une hypothèse attribue les modifications chimiques subies par certaines macromolécules au séjour (prolongé pendant toute une vie) dans un milieu où règne une température de 38 °C. La « dénaturation thermique » de ces macromolécules (celles en particulier de Vêlastine) serait le résultat d’oxydations et de l’hydrolyse des liaisons peptide et amide.
- On a cherché à serrer le problème de plus près en étendant cette théorie des altérations thermiques au noyau de la cellule et plus particulièrement aux gènes, formés comme on le sait d’acide désoxyribonucléique. S’appuyant sur des modifications de l’A.D.N. par la chaleur, constatées sur des souches microbiennes, des auteurs tels que Henshaw et Szilard en sont venus à décrire la sénescence sous l’aspect de mutations successives (déterminées par la chaleur ou totite autre cause accidentelle) qui altéreraient la composition biochimique des gènes. A l’appui de cette thèse, on fait ressortir la similitude qui existe entre le vieillissement en général et les effets reconnus des radiations ionisantes. Là aussi se révèlent des processus de dépérissement des tissus, avec déficit des cellules nobles et envahissement par le tissu conjonctif. Des organismes atteints par les
- radiations peuvent être considérés, de ce fait, comme passant brusquement à une tranche d’âge supérieure. Or on n’hésite plus, à présent, à affirmer que l’effet direct des radiations est de déterminer des mutations.
- Vieillissement génétique. — A cette théorie s’oppose (sans nécessairement la contredire) une opinion de caractère plutôt « évolutionniste » qui jette une lumière toute différente sur le problème de la sénescence. Rappelant la vie très brève de certains insectes, celle étroitement déterminée des plantes annuelles, plusieurs naturalistes pensent que le vieillissement, prélude à la mort des individus, est un facteur de survie de l’espèce. Dobzhansky y voit une régulation logique des générations, dont les plus anciennes se détruisent successivement pour faire place aux plus jeunes. Cette thèse (qui évoque l’aspect sociologique du problème) implique évidemment que le processus générai de la sénescence soit inscrit dans le patrimoine génétique de l’espèce.
- Il serait inexact cependant de considérer que le calendrier prédéterminé est identique pour toute l’espèce humaine, prise dans son ensemble. Cela peut paraître vrai, statistiquement, pour l’immense majorité de la population du globe, constituée à la suite d’un brassage intense des groupes ethniques. Mais si l’on aborde certains groupes isolés ou certaines familles à nombreux mariages consanguins, on s’aperçoit que la longévité héréditaire n’est nullement uniforme. C’est ce qui ressort des travaux, déjà anciens, que Pearl a consacrés à des familles où les centenaires et les nonagénaires se succédaient régulièrement d’une génération sur l’autre (fig. 4).
- CasN01255 TIAU599ans
- T O04j
- Fig. 4. — Pedigree d’un centenaire.
- Le centenaire dont il s’agit est représenté par un cercle noir (III,4 Le chiffre inscrit dans chaque cercle donne l’âge du décès. Ce pédigree est d’autant plus significatif que le père (II, 1) et la grand’mère maternelle (I, 4) sont morts d’accidents, ainsi que deux des enfants (IV, 1 et IV, 3).
- (D’après Pearl, in Binet et Bourlière).
- Radicaux libres. —- Ce déterminisme, assorti de certaines variables sporadiques, nous a écartés un moment de l’angle biochimique. Retrouvons-le avec une théorie développée par Harman et Russel : les processus de la sénescence « naturelle » comme de la sénescence due aux radiations
- MO
- p.110 - vue 114/551
-
-
-
- s’expliqueraient par des réactions où interviennent les radicaux libres. Ces auteurs mettent principalement l’accent sur l’auto-oxydation des lipides, signalée plus haut, et où ils pensent déceler l’action de radicaux carbonés et oxydés. Ces radicaux se formeraient sous l’influence de corps tels
- que certains métaux, l’hématine, le peroxyde d’hydrogène et l’oxygène lui-même.
- Théorie, somme toute, moins fataliste que d’autres, car elle n’exclut pas la perspective d’une médication spécifique, à base d’anti-oxydants.
- Exploration systématique dans une population urbaine : Le Centre Claude Bernard de Gérontologie
- Sous l’égide de l’Association Claude-Bernard a été créé, à Paris, un Centre de Gérontologie, établissement de recherches, dont la direction est confiée au professeur François Bourlière. Le but général de ce Centre est de définir les normes du vieillissement dans les tranches de population qui s’étendent de 50 à 100 ans.
- On s’aperçoit tout de suite que l’étude entreprise est nécessairement de longue haleine et que les résultats les plus significatifs ne seront acquis qu’au bout de quelques dizaines d’années, les mêmes sujets ayant pu être revus à plusieurs reprises. Ainsi pourra être tracée une courbe pleinement valable de la sénescence : mentionnons que le Centre a débuté en 1957-1958 et que c’est en 1962 que les premiers sujets examinés le seront à nouveau pour l’amorçage de cette courbe.
- Mais tenant compte des délais imposés à cette étude que les chercheurs ont coutume d’appeler longitudinale, une autre étude a démarré, dans le sens transversal, c’est-à-dire
- Fig. J. — Au Centre de Gérontologie Claude-Bernard : mesure de la force de la main au dynamomètre.
- (Photo Centre de Photographie de l’Assistance Publique).
- en comparant simultanément les individus d’âges différents, appartenant à une meme population. Cette méthode, en théorie, pourrait être d’une valeur sensiblement égale à la première si le Centre était en mesure d’examiner un très grand nombre d’individus : pour chaque âge, en effet, se dégagerait une moyenne parfaitement représentative de la population globale. Mais cela supposerait à la fois une réglementation administrative devant laquelle on reculera longtemps et des crédits de première grandeur qu’on n’a pas l’habitude d’allouer à la recherche, surtout lorsqu’il s’agit de sciences humaines.
- C’est donc sur un effectif de sujets ne dépassant pas quelques centaines par an que le Centre de Gérontologie poursuit ses investigations. Mais ce « matériel », en principe trop restreint, est valorisé, grâce à une analyse minutieuse de chaque cas : entrent en ligne, par exemple, les facteurs anthropologiques et biométriques (tels que longueurs des membres et du buste, diamètres transverse et antéropostérieur du crâne et du thorax, plis cutanés, couleur des yeux, des cheveux et de la peau, etc.), les facteurs personnels (activité physique et intellectuelle, profession, mode et conditions de vie) et divers facteurs sociologiques (appartenance à un groupe, souche urbaine ou rurale, environnement actuel, etc.).
- Au bout de cette analyse il sera possible sans doute, de démontrer dans quelle mesure le vieillissement est accéléré ou ralenti par ces divers facteurs. Ajoutons qu’une étude spéciale se poursuit, en ce qui concerne les jumeaux, à dessein de jauger l’importance relative des paramètres externes ou occasionnels.
- Les groupes échantillons
- Le recrutement des sujets pose différents problèmes. Il ne peut s’agir évidemment que de volontaires, attirés soit par l’intérêt qu’ils prêtent à l’expérience, soit, plus souvent, par les avantages qu’ils espèrent en tirer personnellement. Ceci définit par avance une certaine catégorie sociale où l’on surveille avec attention son propre état de santé : la gratuité totale des examens biologiques et physiologiques faits par le Centre est à cet égard un élément favorable au recrutement. On pourrait penser au premier abord, à un afflux de personnes de condition modeste : il n’en est rien cependant, le Centre étant logé dans un quartier « bourgeois » et le recrutement éliminant, bien entendu, toute personne atteinte d’une maladie caractérisée.
- Cette règle ne peut toutefois être que relative, la frontière entre sénescents bien portants et mal portants étant souvent difficile à tracer. L’échantillon de population n’est donc pas d’une homogénéité parfaite, du point de vue physiologique ; il le serait davantage du point de vue social,
- p.111 - vue 115/551
-
-
-
- avec une dominance de la classe moyenne, assortie d’un contingent non négligeable d’« intellectuels ».
- Il suffit d’avoir situé cet échantillon pour prévoir qu’à de rares exceptions près il n’est pas « médicalement vierge ». On peut même admettre, dans l’absolu, qu’il a lui-même altéré le processus de la sénescence (dans un sens positif ou négatif) par l’usage de médicaments judicieusement ou arbitrairement choisis. Cela va-t-il fausser la recherche ? Non, car on ne peut évidemment se borner à étudier le vieillissement chez des peuplades intégralement sous-développées qui d’ailleurs s’administrent, elles aussi, des drogues excitantes, tranquillisantes ou diversement curatives.
- Ce problème, néanmoins, n’a pas été méconnu et la tactique du Centre, en cette matière, est de refréner les abus pharmacologiques, tout en prescrivant les traitements spécifiques de telle ou telle déficience : mesure rationnelle puisqu’elle a des chances de reclasser le sujet dans sa catégorie normale de sénescence.
- Il était souhaitable d’ajouter à cet échantillon disparate et « tout-venant » des groupes présentant une certaine homogénéité. A cette fin le Centre prospecte systématiquement en s’adressant à diverses caisses de retraites qui ont consenti à procéder à un tirage au sort parmi leurs adhérents. C’est ainsi qu’ont pu être examinés des instituteurs du département de la Seine, des agents de la S.N.C.F. et des marins-pêcheurs de Vendée. Les monographies rédigées à la suite de ces examens mettent en lumière la richesse de la documentation que peuvent fournir de simples sondages, même s’ils sont d’amplitude limitée. L’un d’eux a permis notamment d’apprécier le facteur de l’activité physique : il était axé en effet sur un groupe de sénescents (de 44 à 85 ans) qui continuent à s’adonner au sport cycliste.
- Examens et épreuves
- Le degré de sénescence est mesuré selon une méthode complexe qui joint une série très variée d’examens.
- Sans qu’ils le sachent, les sénescents des deux sexes sont observés d’un œil exercé et une première indication est portée à leur dossier : « Paraît plus, autant ou moins que son âge ».
- Suivent les examens, pour la plupart classiques, que la médecine prescrit en de très nombreux cas : taux d’urée, de cholestérol, de lipo-protéines, glycémie, vitesse de sédimentation, temps de Quick, numération globulaire, formule sanguine. Les prélèvements de sang faits à cette occasion permettent également de classer les sujets parmi les différents groupes sanguins.
- Une remarque importante du point de vue gérontologique a été publiée en 1961 par L. Binet, F. Bourlière, H. Cendron et M. Burnstein : les taux de cholestérol et de la fraction (3-lipoprotidique passent par un maximum et décroissent ensuite dans les dernières tranches d’âge. Pour l’échantillon défini plus haut, le maximum du cholestérol se situe entre 60 et 69 ans, avec 2,62 g/l pour les hommes et
- Fig. 6. — Les instruments de mesures anthropométriques du] Centre de Gérontologie Claude-Bernard.
- On distingue, à gauche, en partie masquée, la toise qui, lorsqu’elle est adaptée au tabouret, permet de mesurer la taille en position assise. Sur la table, devant la toise, l’échelle de cheveux (mèches de différentes nuances). Au premier plan, deux compas anthropologiques : celui de gauche pour les mesures du crâne, celui de droite pour les mesures du corps ; sous ce dernier, un compas d’épaisseur pour différentes pièces du squelette des membres (fémur, humérus, phalanges, etc.). Contre le mur : à gauche le Harpenden Skinfold Caliper, qui sert à mesurer (par pincement) l’épaisseur de la peau et à évaluer éventuellement ses charges de graisse ; à droite, l’échelle d’yeux (iris de différentes nuances).
- p.112 - vue 116/551
-
-
-
- Fig. 7. — Au Centre de Gérontologie Claude-Bernard : épreuve du temps de réaction.
- Le sujet (à droite) guette les signaux qui apparaissent sur un écran que dissimule la cloison. Il tient à la main un boîtier sur le bouton duquel il agira lors-qu’apparaîtra un signal vert (dans une autre épreuve on-lui demandera d’agir sur la pédale). La psychologue (à gauche) contrôle le fonctionnement de l’appareil enregistreur et prend les notes utiles.
- 3,04 g/l pour les femmes. Entre 80 et 89 ans, on trouve : 2,50 g/l pour les hommes et 2,58 pour les femmes. La décroissance masculine est plus marquée pour les (3-lipo-protéines : 5,20 g/l à 50-59 ans, 4,72 à 80-89 ans. Diminution également chez les femmes : 4,88 g/l à 60-69 ans> 4,59 à 80-89 ans.
- Les analyses des urines ont essentiellement pour but de faire apparaître le fonctionnement endocrinien. L’examen uniformément prescrit porte sur les 17 céto stéroïde s qui sont les métabolites principaux des hormones androgènes surrénaliennes et testiculaires et accessoirement les métabolites mineurs du cortisol.
- L’examen se poursuit par une mesure minutieuse du métabolisme de base (fîg. 3). L’extrême importance de cette mesure a été maintes fois soulignée : elle apporte en effet un indice très net de l’activité vitale qui, constate-t-on, est en diminution à partir de l’âge de 20 ans, mais avec un infléchissement marqué de la courbe dans la dernière période de la vie. Ce fait bien connu mérite toutefois d’être corroboré statistiquement, non seulement pour figurer avec toute la rigueur possible parmi les normes du vieil-
- lissement, mais aussi pour être considéré en relation avec les autres facteurs.
- Une importance presque égale est attribuée aux examens respiratoires. Celui qui concerne la capacité vitale, c’est-à-dire le maximum d’air qui peut être expiré après une inspiration profonde, a déjà révélé, sur des échantillons de population limités, des baisses spectaculaires : 48 pour 100 chez les septuagénaires masculins par rapport à l’âge adulte, 46 pour 100 chez les septuagénaires féminins. Là encore, les précisions statistiques sont de grande valeur. A l’épreuve (en une seule inspiration) de la capacité vitale, s’ajoute celle de la ventilation maximale par minute, effectuée grâce à une répétition accélérée d’inspirations et d’expirations profondes.
- La mesure de la force musculaire est donnée par un dynamomètre, actionné successivement par la main droite et la main gauche (fig. 5). Examens ensuite de la tension artérielle et du fond d’œil, révélateurs en particulier de l’état vasculaire des sujets.
- Toute une série de mensurations sont effectuées. Elles répondent à plusieurs préoccupations : calculer la surface corporelle en vue de la mesure du métabolisme de base ; constater les modifications anatomiques qui interviennent au cours du vieillissement (poids, stature, etc,) ; classification anthropologique des sujets, comme il a été indiqué plus haut (fig. 6).
- L’épreuve du temps de réaction se passe devant un écran où les sujets, placés dans l’obscurité, voient apparaître, à
- 113
- p.113 - vue 117/551
-
-
-
- Fig. 8. — Un test psychologique.
- Le sujet exécute un test de code qui consiste à remplacer par des chiffres (selon les instructions portées en tête de la feuille) les lettres qui composent les 32 groupes imprimés sur cecte feuille. Le temps qu’il y consacre est chronométré par la psychologue. A gauche, batterie de tests de mémoire visuelle ; le sujet sera invité à reproduire de mémoire les dessins géométriques que contient le cahier. D’autres épreuves renseigneront encore sur la mémoire des mots, le niveau intellectuel, le degré d’instruction, etc.
- (Photos Centre de Photographie de l’Assistance Publique).
- intervalles irréguliers, des cercles colorés (fig. 7). La réaction à cette stimulation visuelle est marquée en appuyant instantanément sur un bouton. On sait que ce test psycho-moteur accuse des différences très nettes entre vieux et jeunes. Peut-être sa valeur n’est-elle pas la même pour les conducteurs d’autos, à la fois entraînés à ce genre de stimulations et susceptibles par contre, du fait de cet entraînement, de se désintéresser de l’épreuve, au cours de son déroulement.
- L’examen psychologique (fig. 8) comprend plusieurs tests ou batteries de tests, classés sous les rubriques : mémoire, vocabulaire, codes. Il comprend également la batterie Army Beta et le test de Rorschach. Si l’examen qui a déjà révélé les capacités intellectuelles du sujet doit être répété pour contrôle, il sera réduit à un ou deux « codes » et à une nouvelle épreuve de mémoire. Rappelons
- que cet examen n’a pas seulement pour but de [constater la baisse plus ou moins intense des facultés avec l’âge : il a également son importance dans de nombreuses études où l’on s’efforce de révéler les interférences qui peuvent exister entre l’activité et le niveau intellectuels d’une part et certains paramètres physiologiques d’autre part. On ne saurait oublier, à cet égard, la dualité du cerveau comme siège de la pensée et « tableau de commande » des fonctions organiques.
- Notons enfin les nombreuses données recueillies par interview sur l’habitat, la situation économique, l’environnement familial, le niveau d’études, la vie professionnelle, la vie sociale, l’emploi des loisirs. Chacun de ces éléments permet, après dépouillement des fiches, de faire apparaître les facteurs qui jouent favorablement ou défavorablement dans le processus de la sénescence.
- Premiers résultats
- Nous ne nous étendrons pas sur la constitution définitive des dossiers où sont rassemblés tant d’éléments si divers. On conçoit que chacun de ces dossiers, pris globalement, peut exprimer un stade ou un degré de sénescence. Mais son
- 114
- p.114 - vue 118/551
-
-
-
- caractère analytique en fait un document précieux pour toutes les études partielles, comme par exemple d’établir la courbe du métabolisme de base, de la capacité vitale, du temps de réaction, etc. Il permet également de mettre en lumière certaines corrélations. Et c’est ainsi d’ailleurs que les monographies déjà publiées par les chercheurs du Centre de Gérontologie ont abouti à d’intéressantes conclusions, les unes prévisibles a priori, les autres plus ou moins inattendues.
- Nous nous bornerons à quelques exemples.
- Le groupe des instituteurs des écoles de la Seine. — Ce groupe est particulièrement homogène, caractère encore renforcé par le fait de son isolement relatif : la plupart de ses membres, en effet, tout en étant de souche populaire, s’apparentent désormais à la classe moyenne, sans y être pleinement intégrés. La moyenne des statures et des poids est supérieure à celle de la population globale. La force physique n’est cependant pas plus grande mais semble décliner moins rapidement avec l’âge. La fatigabilité est plus accentuée que chez les « tout-venants ». Nette supériorité par contre en ce qui concerne la capacité vitale. Le niveau intellectuel, comme on peut s’y attendre, est élevé, avec une conservation particulièrement bonne de la mémoire. Toutefois le déclin intellectuel général est équivalent à celui qui est constaté dans des groupes de même niveau intellectuel.
- Le groupe des « cyclistes ». — L’auteur de la monographie consacrée à ce groupe, F. Clément, a posé le problème sous la forme suivante : « L’activité physique ralentit-elle le déclin des capacités intellectuelles ? » La réponse paraît
- Fig. 9. — Mesure de l’élasticité des artères-
- Les pulsations cardiaques sont enregistrées à différents niveaux (cuisse, genou, cheville...). En cas de durcissement local de la paroi artérielle, on constate dans les niveaux inférieurs une diminution de l’amplitude des oscillations.
- (Photo Centre de Photographie de l’Assistance Publique).
- être affirmative : partant d’un niveau intellectuel en tous points comparable à celui de la moyenne des autres groupes, les « cyclistes », même âgés, réussissent particulièrement bien dans les tests de mémoire de type associatif et dans ceux à support visuel. L’efficience intellectuelle est également bien conservée, en relation sans doute avec l’habitude de l’action et un certain « optimisme » qui veut ignorer tout déclin physique ou cérébral.
- Du point de vue physique, les « cyclistes » ont tiré un bénéfice certain de leur sport de prédilection : bon état de santé général, jeunesse apparente, maintien des aptitudes respiratoires, de la résistance à la fatigue et de la faculté de récupération par un sommeil profond. Rien de significatif pourtant, en ce qui concerne la force physique, mesurée au dynamomètre ; il est vrai que la force mesurée est celle des membres supérieurs.
- Le sommeil. — Selon une idée assez répandue, le besoin de sommeil serait moins grand pour les vieux que pour les jeunes et l’activité intellectuelle serait un facteur négatif quant à la durée du sommeil.
- Une monographie de Bourlière et Clément, consacrée à ce sujet, ne confirme pas cette croyance. L’échantillon de population soumis à l’enquête est assez nombreux (263 hommes, 117 femmes) et assez hétérogène, socialement parlant, pour que les résultats puissent être extrapolés à l’ensemble d’une population urbaine. Or les moyennes recueillies aux différents âges révèlent des durées de sommeil qui s’écartent peu d’une moyenne générale de 7 h 20. Aucune disparité significative n’apparaît en fractionnant l’échantillon selon le niveau intellectuel ou culturel, l’activité intellectuelle ou physique.
- Certaines différences apparaissent dans l’usage des somnifères : 9 pour 100 seulement des hommes y ont recours, contre 20 pour 100 chez les femmes et ce sont seulement ces dernières qui tendent à en accroître la consommation au delà de la septantaine et cela d’autant plus que leur activité intellectuelle est moins élevée.
- L’activité physique paraît influencer favorablement sinon le volume, du moins la qualité du sommeil : usage très restreint des somnifères parmi les personnes de grande activité physique ; à l’opposé, ce sont les sédentaires qui prouvent la médiocrité de leur sommeil, en rêvant davantage, avec une dominance des rêves désagréables.
- Sans que le dépouillement des archives, encore trop jeunes, du Centre de Gérontologie permette de formuler des conclusions générales, les quelques coups de sonde et l’observation de nombreux cas individuels militent, tout au moins sur le plan personnel, en faveur du maintien de l’activité physique et intellectuelle. La « contre-épreuve » est d’ailleurs fournie par les troubles de tous ordres dont sont victimes les sénescents qui cessent toute activité. C’est parmi cette catégorie que surgissent, en majorité, les cas difficiles, dont certains doivent être soumis aux spécialistes de la psychiatrie.
- Une recommandation commune à tous les gérontologues s’adresse davantage aux jeunes et aux adultes qu’aux sénescents : cultiver un « violon d’Ingres » qui puisse s’amplifier, le jour où l’activité principale devra être abandonnée.
- Gaston Cohen.
- 115
- p.115 - vue 119/551
-
-
-
- Seconde étape vers la création de parcs nationaux en France
- La loi-cadre du 22 juillet i960, qui donne au gouvernement la possibilité de créer et d’aménager en France des parcs nationaux (voir La Nature - Science Progrès, juillet 1961, p. 284-290), a reçu son complément indispensable : un règlement d’administration publique, du 4 novembre 1961. Nous allons en résumer les principales dispositions.
- Après le « Conseil national de protection de la nature », créé par décret du 27 novembre 1946 et spécialisé dans les domaines scientifiques et techniques, il est créé un second organisme consultatif, le « Comité interministériel des parcs nationaux », qui étudie leur aménagement, leur organisation, leur financement.
- Stade préparatoire. — C’est le ministre de l’Agriculture qui, en liaison avec le ministre de la Construction, dirige les études préparatoires à la création d’un parc national. Il doit recueillir l’avis des deux organismes précités, après ceux des autorités intéressées : à l’échelon de la commune, le conseil municipal ; à l’échelon du département, le conseil général, les chambres d’Agriculture, de Commerce et d’industrie.
- Après l’agrément, qui est indispensable, du premier ministre, le ministre de l’Agriculture soumet son projet à une enquête publique d’au moins 15 jours. Il forme un dossier sur le projet, son but, son étendue (communes, cadastre, cartes), ses sujétions et interdictions. Ce dossier est envoyé au préfet du département intéressé. Chacun peut en consulter le texte et formuler ses observations. Le dossier est ensuite transmis au gouvernement.
- Un décret de classement peut être pris alors en Conseil d’Etat créant le parc, et éventuellement sa zone périphérique. Il est largement diffusé aux intéressés (affichage dans chaque commune, publication dans deux journaux de chaque département en cause).
- Gestion des parcs nationaux. — Ce décret confie l’aménagement, la gestion et la réglementation du parc à un établissement public national sous le « contrôle administratif et technique» du ministre de l’Agriculture, qui nomme : i° les membres de son conseil d’administration (représentants des administrations et collectivités intéressées, et personnalités) ; z° son directeur. Le préfet est commissaire du gouvernement ; il n’a que voix consultative mais il a droit d’opposition.
- Aux ministres de l’Agriculture et des Finances est soumis le programme d’aménagement du parc. Les pouvoirs du directeur sont strictement limités, mais certaines attributions des maires lui sont transférées (accès, circulation, stationnement). Certains cas (constructions de voies, autorisations...) nécessitent un accord entre le directeur et le maire. L’établissement doit équilibrer ses charges (d’équipement et d’exploitation) et ses ressources, qui sont multiples : participation de l’Etat et, facultativement, d’autres collectivités ; droits et redevances, rémunérations de services ; dons et legs ; revenus divers.
- Réserves intégrales et clones périphériques. —- Des réserves intégrales peuvent être créées à l’intérieur du parc, également par décret en Conseil d’Etat. Si les propriétaires donnent leur consentement écrit aux sujétions et éventuellement aux indemnisations, seul l’avis du Conseil national de protection de la nature est obligatoire ; sinon, doivent s’y ajouter celui du Comité interministériel des parcs nationaux et les observations des propriétaires et des municipalités. Ce décret édicte une réglementation et charge un établissement de son application.
- La sçpne périphérique (pré-parc) fait l’objet d’une mise en valeur sociale, économique et culturelle. Elle relève, cette fois, du ministre de la Construction. Le plan en est élaboré par les administrations intéressées en liaison avec l’établissement et après consultation des collectivités locales intéressées.
- Indemnités et dispositions pénales. — Les indemnités sont toujours à la charge de l’établissement. Ce dernier ne peut refuser l’acquisition d’une propriété à laquelle le parc a retiré plus de la moitié de ses avantages. Les différends relèvent du juge de l’expropriation.
- Les infractions à la réglementation du parc exposent à une amende simple (3 à 60 NF) si elles sont légères (détritus, camping, circulation, bruit) ; plus lourde (60 à 1 000 NF) et (ou) à un emprisonnement (de 1 jour à 1 mois) dans les cas plus graves. Les peines sont doublées en cas de récidive ou si l’infraction a eu lieu dans une réserve intégrale. Il pourra être ordonné démolition ou suppression des constructions ou publicités illicites, restitution des prélèvements biologiques, confiscation des engins et instruments utilisés.
- *
- * *
- La création des parcs nationaux en France a donc reçu sa base légale. Le Conseil national de la protection de la nature a émis le vœu que les premières réalisations concernent :
- — Le Parc national de la Vannoise : un tiers environ du département de la Savoie, mitoyen du Parc national du Grand Paradis italien ;
- — Ydlle de Port-Cros (commune d’Hyères) dans le Var ;
- — Cauterets, 13 000 hectares dans les Hautes Pyrénées (avec prolongement éventuel en Espagne). Il y a déjà là une réserve peuplée d’isards, coqs de bruyère, etc.
- Ultérieurement, les Cêvennes pourraient offrir à un Parc national 150 000 ha autour du Mont Lozère. Cette région, des plus pittoresques, sous une double influence méditerranéenne et montagnarde, abrite en particulier castors et genettes. '
- Selon l’expression à la mode,' le « feu vert » est donné : c’est la couleur de l’espoir, et de la nature.
- Michel Rousseau,
- ‘ Docteur-Vétérinaire.
- 116
- p.116 - vue 120/551
-
-
-
- Rassemblements de papillons
- Les groupements de papillons en masses plus ou moins compactes, rassemblant souvent plusieurs milliers d’individus, sont surtout connus pour les papillons migrateurs. Ce phénomène a été remarqué depuis fort longtemps puisque Darwin en parle déjà en 1842 ; Bâtes décrit en 1869 les migrations de papillons qu’il avait observées dans l’Amazone en 1849. Ces innombrables papillons volant tous dans la même direction ont frappé non seulement les naturalistes mais aussi les voyageurs un peu observateurs. Il suffit pour s’en convaincre de lire le passage qu’a consacré Francis de Croisset, dans Fa Féerie cinghalaise, à une migration de papillons à Ceylan. Mais les migrations ne sont pas exactement le phénomène dont il va être question ici car il s’agit de rassemblements de papillons au repos.
- Au cours des migrations, il arrive naturellement que les papillons s’arrêtent pour se poser, par exemple, sur un endroit humide, mais cet arrêt est rapidement suivi de la reprise du vol dans la même direction. On connaît cependant deux exemples de rassemblement prolongé lié à une migration. Le premier est le cas devenu classique du Danaus plexippus, grand et beau papillon qui habite, en été, les Etats-Unis et le sud du Canada jusqu’à Hudson Bay, vaste territoire sur lequel il se reproduit et où sa chenille vit sur des plantes de la famille des Asclépiadacées. Dès le mois de septembre les individus descendent lentement vers le sud ; ils forment d’abord de petits groupes qui, peu à peu, se rejoignent et arrivent à former d’énormes nuages. Ils arrivent après un long voyage dans les régions propres à l’hivernage, en Californie, dans le Texas, en Floride et sur les côtes de la Louisiane. Ils passent alors l’hiver en état de demi-hibernation, restant le plus souvent immobiles et ne prenant momentanément le vol que lorsque le soleil brille. Durant cet hivernage, les Danaus demeurent très grégaires, se groupant étroitement en certains endroits et tout spécialement sur certains arbres sur lesquels plusieurs milliers de papillons peuvent se trouver réunis. Le fait le plus remarquable est que dans certaines localités quelques arbres sont visités tous les hivers par les Danaus. On a pu ainsi constater depuis plus de 60 ans, à Pacific Grove, à cent kilomètres au sud de San Francisco, que des Danaus reviennent chaque automne se poser sur quelques arbres qui sont devenus, sous le nom de butterfly trees, une des curiosités du pays et sont à ce titre protégés. Une amende de 500 dollars peut même être infligée à celui qui jetterait des pierres ou troublerait de toute autre façon ces intéressants visiteurs hivernaux. Au printemps les Danaus perdent leur instinct grégaire et repartent vers le nord.
- Le deuxième exemple concerne non plus un papillon diurne mais une Noctuelle, Agroiis infusa, habitant les Nouvelles Galles du Sud, en Australie. Cet insecte, extrêmement commun au printemps austral dans les plaines, commence à migrer à la fin octobre vers les collines où les individus se réunissent en nombre énorme sur les parois
- par Lucien Chopard
- de petites grottes qui en sont littéralement couvertes ; on peut en compter plus de 5 000 au mètre carré au milieu de décembre. Ils passent tout l’été austral dans cet état de demi-sommeil pour repartir au printemps vers les régions où ils se reproduisent pendant les mois les plus frais. Les indigènes les utilisent comme nourriture après les avoir enfumés dans les grottes.
- A côté de ces agrégations liées à la migration, on trouve quelques observations de rassemblements qui ne présentent aucun rapport avec ce phénomène. Certains papillons diurnes se groupent parfois pour leur sommeil nocturne ; on a souvent observé ces rassemblements chez des Lycé-nides et des Satyrides comme Aphantopus hyperanthus ; ce dernier s’installe volontiers en groupes sur les buissons de Fhamnus, plante qui n’est cependant pas la plante nourricière de la chenille de cette espèce, comme on serait tenté de le croire. L’entomologiste Schrottky a pu suivre pendant trois mois, au Paraguay, des rassemblements nocturnes de mâles d’un Heliconius, qui se réunissaient tous les jours au même point, près d’un fleuve. Quelques noctuelles (Agroiis augur, Hadena lateritia) sont connues comme formant aussi des sociétés de sommeil.
- Mais, les observations les plus intéressantes sur des rassemblements de papillons indépendants des migrations sont dues à P. Rau et ont été faites au Mexique. Dans ce pays, les nuages de papillons sont assez abondants pour que les livres destinés aux touristes les signalent comme une des curiosités à voir, en certaines saisons, le long du Pan American Highway ; entre Santa Engracia, Vallès et Tama-zunchala on passe souvent à travers des nuées de papillons. Ces insectes sédentaires sont rassemblés dans les endroits humides, comme les fossés le long des routes ; ils s’y tiennent immobiles, ne s’envolant en nuages que lorsqu’ils ont été dérangés par le trafic de la route. Nullement farouches, ils se laissent prendre facilement à la main. A l’approche d’une voiture, ils ne s’envolent qu’au dernier moment, la voiture s’en trouvant complètement entourée et un bon nombre d’entre eux périssant écrasés. Le moment de trouble passé, quelques papillons viennent se reposer à la même place ou sur une place voisine ; ils sont imités peu à peu par des individus plus nombreux qui arrivent à reconstituer la masse. Les derniers arrivés se posent sur ceux qui sont déjà installés et se glissent entre eux jusqu’à ce que leurs pattes touchent le sol, les corps se trouvant presque collés les uns aux autres. Ils se posent au hasard mais leurs ailes dressées verticalement, dans la pose habituelle de repos des papillons diurnes (Rhopalocères), forment une parfaite girouette et, se déplaçant lentement, ils arrivent à prendre tous la même position, face au vent. Le comportement de ces insectes sédentaires montre des différences importantes avec les rassemblements que peuvent former momentanément les papillons migrateurs. Les groupes qu’ils constituent comptent jusqu’à 150 individus
- 117
- p.117 - vue 121/551
-
-
-
- et ils ne sont composés, en principe, que d'une seule espèce ; les plus nombreux sont des Piérides des genres Eurema et Catopsilia.
- Tous ces phénomènes de groupements de papillons ont été étudiés dans les faunes tropicales ; ils se montrent bien moins fréquents et, en général, moins importants dans les pays à climat tempéré. Cette constatation donne d’autant plüs d’intérêt à un fait de cet ordre que l’on peut observer de façon régulière dans l’île de Rhodes. Il existe à 26 km au sud-ouest de la ville de Rhodes une vallée connue sous le nom de Petaloudes ou Vallée des Papillons. Bien que les guides en fassent mention comme une curiosité naturelle, elle est peu connue des entomologistes et ne semblé avoir été signalée que par l’erpétologiste R. Mertens dans une courte note parue en mars 1959, dans Natur und Volk.
- La Vallée des Papillons se trouve à peu de distance du village de Kalamonas, à une altitude de 485 m. C’est un vallon humide, situé dans un charmant paysage de collines ; au fond d’une petite gorge coule un ruisseau dont les bords sont couverts d’une abondante végétation où dominent les menthes et les prêles ; le vallon est ombragé par de nombreux arbres, chênes, hêtres et surtout de superbes platanes {Platanus orientalis). Cette humidité et cette abondante végétation attirent les papillons qui se montrent nombreux sur toute la longueur du vallon. Mais, c’est vers le cours supérieur du ruisseau, près de la route, que se manifeste le phénomène qui a été signalé, à juste titre, comme une curiosité bien digne de l’attention des touristes mais aussi des entomologistes.
- En cet endroit, c’est un papillon de la famille des Arc-tiides, une Callimorphe de l’espèce Panaxia quadripunctaria (Callimorpha hera), qui se montre avec une abondance extraordinaire. C’est un beau papillon de 5 centimètres d’envergure environ, dont les ailes antérieures sont noires avec des bandes obliques d’un blanc jaunâtre, les postérieures d’un rouge cinabre avec des taches noir bleuté. Bien qu’il s’agisse d’un papillon nocturne, il prend très facilement son vol en plein jour. Sa distribution géographique est très vaste, allant de l’Angleterre et de la France à la Perse, du Nord de l’Allemagne et du Danemark à la région méditerranéenne. Partout elle est commune sans cependant se rencontrer nulle part en quantité aussi considérable qu’à Rhodes. La forme qui se trouve dans cette île diffère un peu des formes continentales par la disposition des bandes
- Fig. i. — La Callimorphe de Rhodes.
- Envergure : 5 cm.
- claires des ailes antérieures ; elle a été décrite en 1953 par F. Daniel sous le nom de rhodensis. Sa chenille vit sur différentes plantes basses et ce n’est pas la présence d’une plante spéciale qui puisse expliquer, semble-t-il, son extraordinaire abondance dans la Vallée des Papillons.
- Dans cette vallée les Callimorphes peuvent être rencontrées sur toute la longueur de la gorge par individus isolés ou réunis par petits groupes de quatre ou cinq individus ; puis tout à coup, vers le haut, c’est par centaines qu’on les voit posés sur les rochers et sur certains troncs d’arbre (fig. 3), qui sont couverts de papillons tellement serrés les uns contre les autres qu’on ne voit plus la couleur de l’écorce. Ainsi, plaquées sur le substrat, au repos, les Callimorphes ne montrent qu’un ensemble assez harmonieux de bandes blanchâtres sur fond noirâtre à reflets verdâtres. Mais, lorsque le gardien (car il y a sur place un gardien) fait envoler la masse en frappant dans ses mains ou en sifflant, on se trouve entouré d’un nuage extraordinaire où domine le rouge des ailes inférieures. D’ailleurs, dès que l’alerte est passée, tous ces papillons reviennent se poser au même endroit, effectuant la manœuvre de retour caractéristique des autres papillons grégaires.
- Il semble donc que ces groupements, bien que formés par des papillons appartenant à des familles aussi différentes que les Piérides, les Noctuelles, les Arctiides, obéissent aux mêmes lois. Le point de départ des rassemblements doit être recherché dans un stimulus en rapport
- Fig. 2. — Dérangées par le bruit les Callimorphes se sont momentanément envolées.
- {Photo B. Kozas, Rhodes).
- 118
- p.118 - vue 122/551
-
-
-
- Fig. — Rassemblement de Callimorphes sur un tronc d’arbre dans la Vallée des Papillons (Ile de Rhodes).
- {Photo B. Kozas, Rhodes).
- avec un élément spécial du milieu. Le plus souvent, il s’agit de l’existence, dans un paysage plus ou moins aride, d’une source d’humidité très recherchée par les papillons ; il s’y ajoute, dans le cas des Callimorphes de Rhodes, l’attraction d’un suintement de sève qui les attire vers certains arbres. Mais ces excitations externes ne suffiraient pas à expliquer la densité et la persistance des agrégats de papillons si ces
- insectes ne présentaient eux-mêmes certaines dispositions particulières. On remarque que les espèces dont les individus se réunissent en groupes sont peu nombreuses et sont toujours les mêmes. Il faut admettre qu’elles présentent une tendance à la sociabilité qui fait de ces groupements une très vague ébauche de vie sociale.
- L. C.
- 119
- p.119 - vue 123/551
-
-
-
- Enseignement de la Physique et photographie #
- En 1956, une association de professeurs américains décida d’entreprendre la rédaction d’un manuel scolaire qui romprait radicalement avec les ouvrages traditionnels (1). Il s’agissait, dans l’idée de ses promoteurs, non plus de découper l’enseignement des sciences physiques en une série de chapitres bien délimités et apparemment sans liens les uns avec les autres, mais de présenter la physique comme un tout où s’enchaînent les lois qui gouvernent notre univers.
- La première édition de cet ouvrage fut expérimentée, au cours de l’année scolaire 1957-1958, auprès de 300 élèves de huit écoles différentes. Les résultats obtenus amenèrent les auteurs à remanier certaines parties de l’ouvrage qui fut ensuite utilisé par 12 000 puis par 25 000 élèves. Dans sa quatrième année d’existence, ce manuel auquel ont collaboré des physiciens de tout premier plan, tels que le professeur Rabi, prix Nobel, le Dr Killian, ancien conseiller scientifique du président Eisenhower, le professeur J.R. Zacharias, etc., est en usage dans des milliers d’écoles aux Etats-Unis. Il est déjà traduit en espagnol, en portugais, en pakistanais, en thaïlandais... Il sera adopté par l’Institut Paneuropéen d’Enseignement qui doit ouvrir ses portes sous les auspices de l’O.E.C.E. (Organisation européenne de coopération économique).
- 1. Pbysics, publié sous les auspices du Physical science study committee. I vol. 20 X 26, 656 p., nombr. figures. D.C. Heath and Company, Boston, i960.
- L’un des aspects les plus remarquables de l’ouvrage réside dans le choix des dessins et des photographies destinés à illustrer les lois fondamentales de la physique et dont nous avons extrait quelques exemples choisis parmi les plus représentatifs. Ces photographies sont l’œuvre d’un photographe de grand talent, Mlle Bérénice Abbott, très connue aux Etats-Unis dans le domaine du portrait. Le principe de l’enseignement par l’image n’a rien de nouveau, bien entendu, mais l’innovation consiste dans l’extrême ingéniosité avec laquelle Mlle Abbott a choisi et, en quelque sorte, fixé sur la pellicule les manifestations visibles des phénomènes qui expriment clairement les lois physiques de notre univers. Pour reprendre une expression de M. Edgar Damer, « si l’on tient compte de l’extraordinaire beauté des clichés et aussi de l’esthétique inhérente aux lois naturelles, alors l’enseignement devient en même temps une leçon d’art ».
- Retournons donc à l’école pour quelques instants et regardons les démonstrations de Bérénice Abbott, dont les belles photographies nous ont été communiquées par le Centre culturel américain, avec l’autorisation des éditeurs.
- * Voici un pendule (fig. 1). Le cliché a été pris au moyen d’un dispositif stroboscopique qui permet de voir au ralenti les mouvements rapides. Les différentes images de la bille ont été prises à des intervalles de temps égaux. On
- Fig. 1.
- p.120 - vue 124/551
-
-
-
- Fig. 2.
- constate que les distances parcourues pendant ces intervalles de temps égaux vont en augmentant lors de la descente pour diminuer ensuite à la remontée. On voit aussi que les deux parcours (descente et remontée) s’effectuent dans des intervalles de temps égaux. On pourrait naturellement vérifier sur ce document la loi mathématique de ce mouvement.
- Les figures 2 et 3 rapprochent deux phénomènes de nature bien différente mais qui présentent une suggestive analogie. Telle une bille d’acier lancée sur une surface plane et dure, la lumière se réfléchit (rebondit, pourrait-on dire) sur un miroir, l’angle de réflexion étant égal à l’angle d’incidence. Mais, contrairement à la bille d’acier, la lumière (fig. 2) conserve une vitesse constante, 300 000 kilomètres par seconde, tandis que la bille (fig. 3) perd rapidement de la
- Fig. 4.
- vitesse après le rebond (photographies prises à un trentième de seconde).
- La photographie de la figure 4 est une illustration de la relativité du mouvement selon la position de l’observateur. Il s’agit ici d’un disque qui roule sans glisser sur une surface plane. Deux sources lumineuses ont été fixées sur la roue, l’une sur l’axe, l’autre à la périphérie. Pour un observateur qui se trouverait sur l’axe de la roue, le point lumineux fixé sur la périphérie décrirait un cercle, de toute évidence. Par contre, pour un observateur qui regarde rouler le disque, ce point décrit une cycloïde.
- La cinquième photographie (fig. 5) illustre les classiques lois de la réflexion de la lumière sur un miroir plan. Nous voyons deux bougies, l’une allumée, l’autre éteinte, placées de part et d’autre d’une plaque de verre bien polie qui, tout
- 121
- p.121 - vue 125/551
-
-
-
- Fig. j.
- en étant transparente, joue le rôle de miroir. La bougie allumée a été disposée derrière la plaque à une distance égale à celle qui sépare la bougie non allumée de la plaque. La bougie allumée, objet réel vu à travers la plaque, se confond alors entièrement avec l’image de la bougie éteinte que donne le miroir.
- Les photographies 7 et 8 donnent une vision du phénomène d’interférence, résultat de la combinaison de deux mouvements vibratoires de même fréquence. De même que les ondes lumineuses, les vibrations mécaniques de l’eau créent des interférences, mais étant beaucoup plus lentes, elles sont plus aisément observables.
- La figure 7 a été obtenue au moyen de deux vibreurs de fréquences identiques produisant des ondes à la surface de l’eau. La figure 8 visualise les interférences que produisent les ondes provenant d’une source unique avec ces mêmes ondes après réflexion sur la barre verticale située au milieu de la photographie.
- Et jetons maintenant un coup d’œil dans les coulisses (fig. 6). C’est ce dispositif qui a permis d’obtenir les photographies précédentes. Sur la cuve transparente remplie d’eau on distingue les deux vibreurs actionnés par le courant électrique que produit la batterie située en bas à droite. En éclairant la cuve, on obtient les photographies sur la plaque située à la partie inférieure.
- J. C.
- 122
- Fig. 6.
- p.122 - vue 126/551
-
-
-
- Fig. 7.
- Fig. 8.
- <\ ' W/';4v 1
- ^ ’V;V>" ; 1 % '
- J- i'VV 5'> '»- '
- .*
- <'s ^
- f> r , .
- ‘ 4 v J> V >\ > \*. , ^ \ v ' \) > '
- '>'«>*4; *'"' - ' 'x ' ' v'
- *" ^ 7* ^ '' y" ^ '- V [ '' 1 S ^ ' ' -
- fVv oî\
- f 5'V/>, *' ., ,
- b , ('
- \ à
- ïv ' 'Vj'
- p.123 - vue 127/551
-
-
-
- Quelques problèmes posés par la mise sur orbite d’un satellite artificiel
- par Félix Roy
- Les années qui viennent de s’écouler ont vu la mise sur orbite de nombreux satellites artificiels de notre planète, de tailles, poids et trajectoires très variés. On peut se demander quelles étaient les règles et les contingences qui gouvernaient le choix de telle ou telle orbite. Il n’est pas sans intérêt de montrer quelle était l’ampleur des problèmes rencontrés lors du lancement d’un satellite. Il n’entre donc pas dans notre propos d’étudier ici les fusées elles-mêmes mais simplement de voir à quel degré de précision leur vitesse et leur direction doivent être contrôlées pour obtenir un résultat déterminé. Nous admettrons donc que notre fusée est sans défaillance majeure et capable à tout coup de s’arracher du sol.
- Quelques lois de la mécanique...
- Le principe fondamental de la dynamique peut s’énoncer comme suit : « Pour modifier, en grandeur ou en direction, la vitesse d’un corps, il est nécessaire de lui appliquer une force ». Et réciproquement : « Un corps qui n’est soumis à aucune force reste au repos ou se déplace en ligne droite à vitesse constante ». Il n’est pas facile à un habitant de notre planète d’imaginer qu’un corps doué d’une certaine vitesse continuera indéfiniment sur sa lancée sans jamais ralentir. C’est que toute notre vie nous sommes soumis à la pesanteur et aux forces de frottement qui conditionnent complètement notre expérience quotidienne. Si le lecteur veut bien se souvenir du temps où il faisait tourner autour de lui une pierre attachée au bout d’une ficelle, il se rappellera la sensation que l’on a alors d’avoir constamment à tirer à soi la pierre par l’intermédiaire de la ficelle pour la maintenir sur sa trajectoire circulaire. Il se souviendra aussi que s’il lui arrivait de lâcher la ficelle, la pierre partait en ligne droite suivant la tangente à sa trajectoire primitive pour retomber un peu plus loin victime de la pesanteur et du frottement de l’air.
- C’est à Newton que l’on doit d’avoir compris que si les corps célestes avaient des trajectoires courbes, c’est qu’ils étaient soumis à des forces, et c’est ainsi qu’il a énoncé sa loi de l’attraction universelle : « Deux corps s’attirent avec une force proportionnelle à leurs masses et inversement proportionnelle au carré de la distance qui les sépare ». On démontre en effet que si un corps doué d’une vitesse initiale est soumis à une force centrale (c’est-à-dire passant toujours par un même point), ce qui est le cas d’un corps céleste attiré par un autre, sa trajectoire est nécessairement elliptique ou circulaire ; le foyer de l’ellipse
- (ou le centre du cercle) étant occupé par le centre d’attraction. Si le corps n’était doué d’aucune vitesse initiale ou si cette vitesse était dirigée vers le centre d’attraction, il se précipiterait vers lui en droite ligne. C’est donc le fait d’avoir à l’origine une certaine vitesse qui maintient le corps à distance du centre d’attraction et l’empêche de se précipiter vers lui.
- vitesse
- centre d attraction
- Trajectoire circulaire
- vitesse
- apogee
- centre
- d'attraction
- Trajectoire elliptique
- Fig. I. — Trajectoire circulaire et trajectoire elliptique.
- Dans le cas de la trajectoire elliptique, le centre d’attraction est situé à l’un des deux foyers de l’ellipse. On sait que les planètes décrivent des ellipses dont le Soleil occupe l’un des foyers.
- 124
- p.124 - vue 128/551
-
-
-
- Dans le cas d’une trajectoire circulaire on voit immédiatement (fig. i) que la vitesse est constamment perpendiculaire au rayon vecteur (on appelle ainsi le rayon du cercle qui joint le centre d’attraction au point considéré) ; par conséquent il faudra que la vitesse initiale remplisse déjà cette condition pour que la trajectoire puisse être circulaire. Si cette condition n’est pas remplie au moment de la mise en orbite du mobile, la trajectoire sera elliptique. On voit en effet que le long d’une telle trajectoire la vitesse pjrend diverses orientations par rapport au rayon vecteur ; elle lui est perpendiculaire en deux points : l’apogée et le périgée de la trajectoire. Le fait que même pour une trajectoire elliptique, il existe deux points où la vitesse est perpendiculaire au rayon vecteur montre que la condition concernant la direction de la vitesse ne suffit pas pour déterminer la trajectoire. Ainsi que l’on pouvait s’en douter il faut encore tenir compte de la valeur numérique de la vitesse.
- Considérons maintenant uniquement des trajectoires circulaires. Le principe fondamental de la dynamique nous permet de calculer quelle est la force centrale à exercer sur le mobile pour le maintenir sur une orbite de rayon r donné à une vitesse v donnée. D’autre part le rayon de l’orbite étant donné, la loi de Newton détermine la force d’attraction exercée sur le mobile. Pour que cette orbite de rayon r soit possible avec une vitesse v, il faut que la force d’attraction soit précisément égale à la force centripète calculée plus haut. En d’autres termes, pour une orbite circulaire de rayon donné autour de la Terre, la loi de Newton et le principe fondamental de la dynamique déterminent entièrement la seule valeur possible de la vitesse.
- On voit donc que les conditions pour obtenir une orbite circulaire donnée sont extrêmement strictes. Par contre, dans le cas de l’orbite elliptique, nous avons un paramètre supplémentaire qui rend plus facile l’obtention d’une telle orbite ; ce paramètre étant l’excentricité de
- vitesse v, < v0
- vitessez v(
- Fig. 2. — Passage d’une orbite circulaire à une orbite elliptique.
- Le mobile se déplace primitivement sur l’orbite circulaire T0 à une vitesse constante v0. En A, on change la valeur de la vitesse sans changer sa direction. Si la nouvelle vitesse est inférieure à v0, on obtient la trajectoire Tj ; si elle est supérieure à v0, on obtient la trajectoire T2. Sur l’orbite circulaire, 'la vitesse est constante ; elle cesse d’être constante sur les orbites elliptiques. Explications dans le texte.
- l’ellipse, c’est-à-dire son plus ou moins grand aplatissement (on peut considérer un cercle comme étant une ellipse d’excentricité nulle). Imaginons maintenant un satellite stable sur une orbite circulaire. On change soudain la valeur numérique de sa vitesse, les conditions ne sont plus remplies pour que la trajectoire primitive soit stable et le satellite va maintenant se placer sur une orbite elliptique dont la disposition par rapport à l’orbite primitive est indiquée sur la figure 2.
- Énergie cinétique et énergie potentielle
- Si un satellite est en mouvement sur une certaine orbite, en l’absence de tout agent moteur, son énergie mécanique est constante. Elle est composée de deux termes : l’énergie potentielle et l’énergie cinétique. La première provient de l’attraction exercée par la Terre sur le satellite ; elle est égale au travail à fournir contre cette attraction pour amener l’objet à une certaine altitude, elle augmente donc nécessairement avec la distance à la Terre. L’énergie cinétique, elle, provient de ce que la masse du satellite est animée d’une certaine vitesse, elle est proportionnelle au carré de cette vitesse. Du fait que la somme de ces deux énergies est constante, on voit que sur une trajectoire circulaire l’énergie cinétique (donc la vitesse) doit être constante, puisque le rayon (donc l’énergie potentielle) est constant. Il n’en va pas de même sur une trajectoire elliptique ; la vitesse est plus grande au périgée (quand la distance à la Terre est minimale) qu’à l’apogée. On peut montrer que l’énergie totale d’un satellite sur une orbite elliptique est la même que si le satellite était sur une orbite circulaire de rayon égal au rayon moyen de l’orbite elliptique, ce rayon moyen étant égal à la moyenne des distances à la Terre à l’apogée et au périgée. Remarquons donc que toutes les orbites ayant même rayon moyen sont des orbites d’égale énergie ; quand le satellite est à une distance supérieure au rayon moyen, sa vitesse est inférieure à celle de l’orbite circulaire de même énergie ; elle lui est supérieure dans le cas contraire ; elle ne lui est égale qu’en deux points de la trajectoire, quand la distance à la Terre est égale au rayon de l’orbite circulaire.
- Changement d’orbite
- Nous avons vu plus haut comment s’opérait le passage d’une orbite circulaire à une orbite elliptique d’énergie différente, à l’aide d’une variation de la valeur numérique de la vitesse. Considérons maintenant le cas d’un changement apporté non plus à la valeur de la vitesse mais à sa direction. D’après ce que nous venons de voir, l’énergie totale du satellite demeurera inchangée ; seule l’excentricité de la trajectoire sera modifiée. La figure 3 montre un certain nombre de trajectoires de même énergie. En un point où deux de ces trajectoires se coupent, on voit qu’il suffit de changer la direction de la vitesse pour passer de l’une à l’autre. Remarquons que par tout point d’une trajectoire circulaire, on peut faire passer une ellipse, alors qu’on ne peut passer d’une trajectoire elliptique à une trajectoire circulaire qu’en deux points seulement, qui sont les points d’intersection de l’ellipse avec le cercle ; leur distance à la Terre est égale au rayon de l’orbite circulaire qui est aussi le rayon moyen de l’orbite elliptique. En ces
- 125
- p.125 - vue 129/551
-
-
-
- Fig. 3. — Trajectoires de même énergie.
- La somme de l’énergie cinétique et de l’énergie potentielle, qui est constante sur une trajectoire, a la même valeur sur les trois trajectoires représentées. La distance au centre d’attraction C étant variable le long d’une trajectoire elliptique, l’énergie potentielle varie ; l’énergie cinétique (donc la vitesse) varie en sens inverse (elle est maximale au périgée P, minimale à l’apogée A). M, point où le passage à l’orbite circulaire de même énergie est possible par un changement de direction de la vitesse, sans changement de sa valeur.
- points l’énergie potentielle et par conséquent la vitesse sont les mêmes sur les deux orbites, et le passage d’une orbite à l’autre peut se faire par un simple changement de direction de la vitesse, sans altération de sa valeur numérique.
- Une méthode de passage d’une orbite circulaire à une autre d’énergie différente, proposée par Hohmanrt en 1925, est schématisée sur la figure 4. Nous avons déjà vu que le passage d’une orbite circulaire à une orbite elliptique
- Fig. 4. — Transfert d’une orbite circulaire à une autre.
- On passe en A de l’orbite T: à l’orbite T2 en augmentant la vitesse du satellite sans changer la direction. En répétant l’opération en B, on peut passer de l’orbite elliptique T2 à l’orbite circulaire Ts. Le passage inverse se fait en diminuant les vitesses au lieu de les augmenter.
- peut se faire en modifiant la valeur numérique de la vitesse en un point quelconque de la trajectoire ; le passage d’une orbite elliptique à une orbite circulaire peut se faire en modifiant cette vitesse à l’apogée ou au périgée de l’orbite. La méthode de Hohmann, qui nécessite, ainsi qu’on le voit sur la figure 4, deux transferts d’orbite, paraît simple et commode au premier abord ; mais étant donné à l’avance les orbites 1 et 3, le passage en un seul coup de l’une à l’autre demande une très grande précision dans la détermination de l’apogée en B (pour le passage 1 -> 3) et des suppléments de vitesse à donner en A et B. Evidemment le passage peut se faire en plusieurs fois, mais il risque alors de coûter beaucoup de carburant. Bien que nous n’en soyons pas encore à ce point de développement des satellites artificiels, on peut déjà dire que le carburant sera probablement, lors des premiers essais au moins, une denrée qu’il faudra soigneusement économiser !
- Intersection des orbites avec la surface de la Terre
- Jusqu’à présent, nous avons implicitement admis que la Terre se réduisait à un point géométrique dans l’espace, où serait rassemblée toute la masse de notre planète. En fait les orbites que nous avons à considérer ne sont pas assez éloignées pour que cette approximation puisse être maintenue. En particulier pour qu’une orbite soit possible, il ne suffit pas qu’elle réponde aux conditions imposées par la mécanique, il faut encore qu’elle ne coupe pas la surface de la Terre ! Une orbite qui coupe la surface de la Terre, si elle n’a évidemment pas d’intérêt au point de vue du lancement des satellites, est la seule intéressante pour la balistique des engins intercontinentaux. On voit immédiatement sur la figure 3 que pour une série de trajectoires de même énergie, il existe une valeur limite de l’excentricité de la trajectoire au delà de laquelle celle-ci coupera la surface de la Terre. Cette valeur est encore diminuée du fait que la trajectoire ne doit pas pénétrer trop longtemps dans l’atmosphère ; sinon, le frottement de l’air, réduisant la vitesse, aurait tendance à faire retomber le satellite sur la Terre.
- Pour placer un satellite...
- La mise sur orbite d’un satellite s’effectue en général en trois phases : la phase motrice initiale, l’ascension libre et la phase motrice finale (fig. 5). Au cours de la phase initiale, la poussée de la fusée accélère le véhicule jusqu’à ce que le carburant soit épuisé. A ce moment le véhicule a acquis une vitesse que nous appellerons vitesse de coupure ; cette vitesse fait avec la verticale du lieu un angle que nous appellerons angle à la coupure. Au cours de la seconde phase, qui commence alors, le satellite et sa fusée porteuse parcourent une orbite elliptique définie par les trois conditions au moment de la coupure : altitude, valeur de la vitesse et orientation de la vitesse. A l’apogée de cette orbite commence la troisième phase qui consiste en un changement d’orbite obtenu par un accroissement de vitesse sans changement de direction. Pendant cette phase des fusées supplémentaires donnent au satellite la vitesse nécessaire pour se maintenir sur l’orbite choisie. Les conditions à obtenir à la coupure se déduisent aisément du rayon de l’orbite. De là, on peut déterminer la vitesse restante
- 126
- p.126 - vue 130/551
-
-
-
- Fig. /. — Mise sur orbite d’un satellite.
- Explications dans le texte.
- au sommet de la trajectoire ascensionnelle, d’où le supplément de vitesse à fournir.
- Examinons d’abord quelques cas particuliers. Supposons d’abord une ascension entièrement verticale. Au sommet de la trajectoire, la vitesse restante étant nécessairement nulle, il faudra alors orienter le véhicule et lui fournir la totalité de la vitesse orbitale. On conçoit que cela nécessite beaucoup de carburant, d’où une augmentation exagérée du poids de la fusée, donc de la poussée initiale nécessaire, puisqu’il faut amener toute cette masse à l’altitude orbitale. Si la valeur de l’angle à la coupure diminue, la vitesse de coupure, nécessaire pour obtenir une altitude finale donnée, augmente, mais la vitesse au sommet augmente aussi, ce qui permet d’alléger la fusée porteuse. A la limite on peut avoir un angle de coupure de 90° (fïg. 6) et une altitude de coupure qui peut varier de zéro (au niveau de la mer) à l’altitude orbitale. Le premier cas est irréalisable,
- Fig. 6. — Modes de lancement d’un satellite.
- Dans le cas A, l’angle à la coupure est égal à 180 degrés : au'( sommet de la trajectoire intermédiaire verticale, la vitesse restante est nulle ; il faut alors faire basculer la fusée porteuse de 90 degrés et communiquer au satellite la totalité de la vitesse orbitale, solution peu pratique. Dans les cas B et C, l’angle à la coupure est de 90 degrés : la vitesse restante est convenablement orientée, mais il faut en général l’augmenter un peu dans la dernière phase. Le cas B (départ horizontal au niveau du sol) est un cas limite qui est évidemment irréalisable.
- la majeure partie de la trajectoire ascensionnelle se faisant dans l’atmosphère. Les cas intermédiaires sont intéressants parce qu’ils fournissent la plus grande vitesse au sommet ; ils nécessitent donc un faible appoint de vitesse et sont par conséquent les plus économiques. Dans le cas-limite où l’altitude à la coupure est égale à l’altitude orbitale, la phase intermédiaire disparaît complètement et l’on a une mise en orbite au cours de laquelle le moteur fonctionne constamment.
- ... sur une orbite quelconque
- Dans un premier stade de la technique, on se contente de placer un satellite sur une orbite sans trop chercher à la déterminer à l’avance. Ayant déterminé, ainsi que nous l’avons vu, les conditions à la coupure et au sommet, il est relativement facile de calculer le programme que doivent suivre les différents moteurs de la fusée de lancement. Mais, en fait, la pratique est assez éloignée des prévisions théoriques. L’accélération est généralement très élevée à la coupure, de telle sorte qu’une assez faible erreur sur l’instant de coupure entraîne d’importantes différences sur l’altitude et l’angle à ce moment. Une erreur d’une seconde quand l’accélération est égale à 6 g (6 fois l’accélération terrestre) entraîne une erreur de 60 m par seconde sur la vitesse, soit environ i pour xoo dans la plupart des cas pratiques. Des variations dans l’énergie du mélange combustible et dans la poussée des moteurs, qui peuvent avoir de multiples causes (mélange carburant-oxydant, température, pression, débit des vannes et des conduites, etc.), rendent extrêmement difficile l’obtention simultanée des valeurs prévues pour les trois paramètres à la coupure. D’autres erreurs sont introduites au sommet pendant la phase motrice finale ; elles portent en particulier sur le supplément de vitesse fourni à ce moment, sur la détermination du sommet de la trajectoire intermédiaire, sur l’alignement de l’axe des poussées des moteurs avec la vitesse. S ion veut que le satellite reste en orbite, il est nécessaire, ainsi que nous l’avons vu, que la trajectoire ne plonge pas trop à son périgée dans l’atmosphère terrestre. En admettant une distance minimale au périgée de 160 km pour éviter cet inconvénient, les erreurs acceptables sur la vitesse et l’angle à la fin de la troisième phase
- AB C
- sommet
- orbite
- phase à^-coupure motrice I r initiale |
- orbite
- phase coupure initiale /
- vitesse à l'a \coupure \
- finale
- sommet de la
- trajectoire
- intermédiaire
- orbite
- coupure
- phase
- initiale
- phase
- finale
- sommet
- 127
- p.127 - vue 131/551
-
-
-
- _ ,r 11 \ * i',, " ' , v * S ^ / ,f -î*
- , --v>" f, .- /*", ,,r’ /», 1 V-J1"' 7, ',i .s”ï;)V^o;4î^
- “ " ,-> “ ,r '1 - * Ml
- _ ^ -J -> t >7*' V 1 "V rs /Jlf ÂJlh‘tw ‘ ~ "~J/‘ * éÊÈÊÊh
- *•' î i v v **** j t *|||h|
- ;-'C ;
- mam
- mmm
- ‘ ;-:v
- -:‘\- .*
- :T;:,; f'ipp
- 4[^,-]:-i.'ih-W-
- S' **/.
- ||pÿ
- WP
- i w-êmi'-
- ~XV
- '* j' • ^ »A J-V-^O >.
- . v-V‘4x-;'Xî^V'^-
- * « ï>PJ
- -;:J|?
- Xr
- j|g8§fj|
- 7=V .*>*
- , -
- '?e‘-4
- A.*
- .i.1 !:.s~>r.
- ,..x#isïi
- Sîï|ïSI«.|f'*v;: ,-
- V ’v'v-’
- S:' ^
- ‘ XÿvXXirïï -J
- •♦«ISïWîïeSfe
- 3Ï 7*4
- Fig. 7. — Lancement d’une fusée Thor-Agena porteuse d’un satellite Discoverer à la base Vandenberg de l’Armée de l’Air américaine,
- en Californie. {Photo U.S.Ï.S.)
- p.128 - vue 132/551
-
-
-
- Erreur sur l'angle (en degrés)
- 900 km
- 600 km
- altitude au sommet
- Erreurs
- inacceptables
- 300 km
- A Erreurs acceptables
- j Erreur sur la vitesse (en%)
- Fig. S. — Erreurs acceptables lors du lancement d’un satellite.
- Pour une altitude donnée au sommet de la trajectoire intermédiaire, et pour chaque valeur de l’erreur sur la vitesse, il existe une valeur maximale de l’erreur tolérable sur l’angle. Le réseau de courbes représentées ici exprime ces relations. La région située à droite de chacune de ces courbes correspond aux valeurs tolérables. Explications complémentaires dans le texte.
- (Imité de Sperry Engineering Revitni).
- sont représentées sur la figure 8. Ces erreurs sont comptées par rapport aux conditions nécessaires pour obtenir une trajectoire circulaire. On voit qu’un point tel que le point A, qui représente une erreur de 2 degrés sur l’angle et de -f- 5 pour 100 sur la vitesse, est acceptable si l’altitude au moment de la troisième phase est par exemple de 300 km. Le point B, qui représente une déficience de 5 pour 100 sur la vitesse, n’est pas acceptable. D’une façon générale on peut voir que pour les plus faibles altitudes au sommet, un manque de vitesse est presque toujours fatal, mais que, par contre, tout excès de vitesse est acceptable. De tels excès autorisent des erreurs relativement importantes sur l’orientation.
- Pour une orbite circulaire le point représentatif de l’erreur admissible tombe à l’origine du diagramme, c’est-à-dire qu’aucune erreur n’est tolérable. Si le lancement est prévu pour obtenir une telle orbite, les erreurs accumulées pendant les diverses phases peuvent placer le point représentatif dans n’importe lequel des quatre quadrants. Dans le cas d’une altitude au sommet de 300 km, le fait que le point représentatif tombe dans la moitié gauche du dia-
- gramme entraînerait certainement un échec. Le sens d’accumulation des erreurs étant imprévisible, il est préférable d’estimer à l’avance l’erreur maximale possible et de prévoir un excès de vitesse au sommet tel que l’erreur maximale ne puisse jamais tomber dans la moitié gauche du diagramme.
- Cela explique que les orbites obtenues à l’aide de ces méthodes sont généralement très elliptiques. D’autre part, puisque le point où s’effectue la phase finale du lancement fait partie de la trajectoire définitive, il est évident que le périgée de cette trajectoire ne peut pas être à une altitude supérieure à celle de ce point. Remarquons bien que les erreurs tolérables restent cependant encore très faibles si l’on ne veut pas que l’excentricité de la trajectoire soit excessive : il faut en effet que la vitesse choisie soit réalisée à environ 5 pour xoo près, et l’orientation à quelques degrés près. C’est déjà un exploit si l’on considère que la fusée se trouve à ce moment à quelques centaines de kilomètres de la Terre. Nous verrons un peu plus loin que ces conditions sont encore plus draconiennes si l’on tient à réaliser une orbite déterminée.
- Le système de guidage et de contrôle nécessaire à ce stade de la technique de lancement est relativement simple. L’angle à la coupure peut être contrôlé en maintenant la fin de la première phase motrice à cet angle. Le point de coupure peut être déterminé en mesurant constamment la vitesse et en arrêtant par télécommande le moteur quand la vitesse désirée est atteinte, ou plus simplement encore en incorporant dans la fusée une minuterie qui arrête le moteur après un intervalle de temps prédéterminé. Cette dernière méthode ne nécessite pas de liaison avec le sol, ce qui est certainement avantageux, mais elle est moins précise. De la même manière la phase d’accélération finale peut être commandée du sol ou à l’aide d’une minuterie. Ces méthodes de commande, qui sont les plus simples possible, ont cependant une assez grande probabilité de réussite.
- ... et sur une orbite déterminée
- Nous venons de voir quelle était la précision à obtenir pour parvenir à placer un satellite sur une orbite sans essayer de déterminer complètement à l’avance ses caractéristiques. La figure 9 montre dans différents cas quelles
- -0.Q3 V0.02 loi
- 0,04 0.0!
- Fig. 9. — Erreurs acceptables pour une mise sur "orbite relativement précise^
- On a représenté ici les erreurs maximales tolérables pour obtenir une orbite déterminée avec une précision de 80 km ou de 160 km. Sont tolérables les erreurs situées à l’intérieur de la courbe qui correspond à l’altitude au sommet
- à réaliser.
- (Imité de Sperry Engineering Revient).
- 129
- p.129 - vue 133/551
-
-
-
- sont les erreurs tolérables à la fin de la dernière phase du lancement si l’on veut déterminer l’altitude de l’orbite à 80 ou 160 km près. On voit par exemple que l’erreur sur la vitesse doit être inférieure à 3 pour 100 pour obtenir une altitude qui varie de moins de 80 km sur l’orbite. Une erreur de 1 pour xoo sur la vitesse dans ce cas n’autorise pas une erreur supérieure à un demi-degré sur l’angle. De telles précisions ne peuvent s’acquérir sans augmenter dans une très large mesure l’appareillage de contrôle. Il faut alors mesurer constamment et corriger au fur et à mesure la vitesse et la direction de la fusée au cours de la première phase, puis déterminer exactement le moment où le véhicule atteint le sommet de la trajectoire intermédiaire pour déclencher le stade final. Dans le cas précédent, les différentes phases étaient contrôlées simplement en prédéterminant leur durée et l’intensité de la poussée à l’aide de calculs préliminaires. Il faut pour cela connaître à l’avance avec une certitude raisonnable les performances des moteurs au cours du temps. Ici une partie du lancement peut se faire de la même manière, mais alors le reste doit être plus rigoureusement contrôlé et ajusté au fur et à mesure.
- Nous ne décrirons ici que le principe de deux méthodes parmi de multiples possibles. On peut maintenir constant l’angle de la vitesse avec la verticale pendant la première période motrice, à l’aide de gyroscopes de précision ou grâce à un contrôle au sol. Pour une altitude de coupure donnée, une seule vitesse donnera l’altitude au sommet désirée. Cette vitesse nécessaire décroît avec l’altitude de coupure ; la vitesse de la fusée, elle, croît au cours du temps pendant la période motrice. Il existe donc un instant où ces deux vitesses seront égales ; si on peut arrêter
- le moteur à cet instant précis, on obtiendra l’altitude au sommet désirée. Malheureusement la vitesse au sommet dépend de l’altitude à la coupure ; le supplément à apporter lors de la phase finale doit donc pouvoir être contrôlé. Cette méthode nécessite alors un système de contrôle muni de calculatrices automatiques puissantes, en particulier pour déterminer l’accélération nécessaire lors du dernier stade.
- Une autre méthode consiste à fixer à l’avance l’accélération qui sera donnée dans la phase finale, mais il faut alors se rendre maître d’un paramètre supplémentaire (l’angle S à la coupure) lors de la phase initiale, pour avoir en même temps une vitesse et une altitude déterminées au sommet. Ici encore il faut une calculatrice pour analyser constamment la trajectoire et y apporter les corrections nécessaires.
- *
- * *
- Il existe un troisième problème dans l’astronautique des satellites : l’interception d’un satellite en orbite par un autre véhicule. Ce problème, important au point de vue militaire, l’est aussi si on songe à construire des satellites relais pour des voyages interplanétaires. Il faudra alors amener à pied d’œuvre les matériaux et les hommes, ce qui, si l’on en juge par les problèmes déjà rencontrés, ne sera pas chose facile. Le problème ne sera probablement pas abordé dans un avenir proche, d’autres problèmes restant à résoudre au préalable. Mais les progrès réalisés ces dernières années sont tellement extraordinaires et les résultats obtenus tellement remarquables qu’il n’est pas permis de douter de l’avenir dans ce domaine.
- Félix Roy.
- Plaques d’aluminium d’épaisseur décroissante pour réservoirs
- La Société Reynolds Metals, de Richmond (Virginie), utilise pour le laminage de l’aluminium une technique nouvelle qui lui permet de fabriquer des plaques dont l’épaisseur décroît de façon continue. Cette technique comporte l’emploi d’un laminoir réglable qui permet d’obtenir un taux uniforme de décroissance de l’épaisseur, et aussi de fabriquer des plaques dont les épaisseurs extrêmes correspondent exactement à celles des autres plaques auxquelles elles doivent être soudées.
- L’emploi de ces plaques pour la construction de certains réservoirs (notamment ceux destinés au stockage des engrais à base de nitrate d’ammonium) doivent entraîner des économies substantielles tant sur la quantité de métal utilisé que sur le nombre des soudures. Avec les procédés traditionnels, en effet, on utilise une série de plaques de métal de moins en moins épaisses à partir du fond, la pression à laquelle est soumise le réservoir diminuant de bas en haut. Par suite,
- la partie supérieure de chaque plaque est toujours inutilement épaisse. Pour remédier à cet inconvénient, on utilise des plaques de dimensions réduites mais cela augmente le nombre des soudures et il faut dans chaque cas rechercher un compromis entre le prix du métal et celui des opérations de soudure. En employant des plaques d’épaisseur continûment décroissante, le problème se trouve considérablement simplifié et le nombre des soudures peut être réduit dans de fortes proportions. Par exemple, on peut fabriquer par cette technique des plaques mesurant 35 mm d’épaisseur à la base et 8 mm à la partie supérieure ; elles seront utilisées à la partie supérieure des réservoirs et viendront se souder à d’autres plaques qui auront 35 mm d’épaisseur à leur partie supérieure, etc. Pour l’instant, la largeur maximale des plaques ainsi fabriquées atteint 3,35 m mais on envisage des plaques encore plus larges qui permettront de construire des réservoirs d’un seul tenant.
- Un Grand Prix de la documentation scientifique
- L’énorme accroissement du nombre des travaux publiés rend aujourd’hui caducs les procédés de documentation mis au service des chercheurs scientifiques. Afin de susciter des idées nouvelles dans ce domaine, le Centre national de la Recherche scientifique, grâce à une générosité anonyme, crée un Grand Prix de la Documentation
- scientifique doté de 10 000 NF qui récompensera un projet d’organisation de la documentation scientifique. Les candidats devront déposer leur projet avant le Ier octobre 1962. Le règlement du prix peut être demandé au Service d’accueil et de renseignements du C.N.R.S., 15, quai Anatole-France, Paris-7e (Sol. 93-39).
- 130
- p.130 - vue 134/551
-
-
-
- Où en est
- la propulsion nucléaire des avions et engins
- par Jacques Spincourt
- Si la propulsion nucléaire des navires est entrée dans la réalité depuis quelques années déj à avec la mise en service des sous-marins du type Nautilus et la mise en construction du cargo américain Savannah, celle des avions n’a encore donné lieu en Amérique qu’à des projets ou à des essais de caractère partiel. Seuls les Russes auraient, semble-t-il, procédé aux essais en vol d’un bombardier atomique à aile en delta, équipé de deux moteurs nucléaires à cycle direct d’air.
- Aux Etats-Unis, un programme de recherches a été élaboré, programme qui devrait s’achever en 1965 par la réalisation d’un avion apte à voler. La Nature a déjà publié un article consacré à la propulsion atomique en juin 1957. Le moment semble venu de faire le point des progrès qui ont pu être acquis depuis.
- Rappelons d’abord les principes élémentaires sur lesquels repose la propulsion nucléaire. Le rôle de la pile atomique est essentiellement de fournir de la chaleur de la même façon que la chambre de combustion d’un moteur à réaction classique. On peut donc concevoir des turboréacteurs, des statoréacteurs ou même des fusées nucléaires, selon que l’on associe ou non un compresseur à la pile atomique, ou selon que le fluide de refroidissement est de l’air pris dans l’atmosphère ou un gaz liquéfié emmené à bord comme un carburant. Dans le cas du turboréacteur atomique, les bénéfices recherchés portent principalement sur le rayon d’action de l’avion, par suite de la consommation de carburant pratiquement négligeable par rapport à ce qu’elle serait avec des carburants chimiques. Mais avec la fusée nucléaire, on cherche au contraire à accroître la vitesse d’éjection des gaz qui est limitée au voisinage de 4 000 m/s pour les fusées à propergols chimiques. Par contre, il n’y a pas alors de gain de poids, puisque le fluide éjecté doit être emporté et que la consommation est du même ordre qu’avec des propergols classiques.
- Turboréacteurs et statoréacteurs nucléaires. — Ils
- se répartissent en deux catégories : ceux dits à cycle ouvert, dans lesquels le fluide de refroidissement de la pile n’est autre que l’air atmosphérique aspiré par le compresseur, et qui s’échauffe donc directement au contact des éléments combustibles, et ceux dits à cycle fermé, dans lesquels l’air s’échauffe à travers un échangeur de chaleur au contact de l’agent de refroidissement de la pile qui circule en circuit fermé (fig. 1). Dans la seconde solution, le poids de l’ensemble est évidemment plus lourd du fait de la présence de l’échangeur, et le rendement thermique est abaissé, ce qui nécessite, pour obtenir la même poussée que dans le premier cas, une température plus élevée de la source chaude, c’est-à-dire de la pile atomique. Par contre, avec le cycle fermé,
- l’air rejeté dans l’atmosphère a beaucoup moins de chances de contenir des éléments radioactifs nocifs. Or, le problème du danger de contamination est un des plus importants à résoudre, pour un avion qui doit utiliser ses moteurs au décollage et à l’atterrissage. Même dans le cas d’un cycle fermé, il faudra donc prévoir, pour le gainage des éléments combustibles, des matériaux très étanches aux produits de fission. U semble d’ailleurs que ceci soit réalisable, comme l’ont montré les premiers essais effectués.
- Le fluide de refroidissement peut être soit un gaz, soit un liquide. Le gaz le mieux adapté au point de vue du transfert de la chaleur est l’hélium. Du côté des liquides, la température élevée du cœur de la pile conduit à utiliser des métaux dont le point d’ébullition est assez haut : métaux alcalins (sodium, potassium, ou mélange eutectique de ces métaux), ou bismuth. Mais ces métaux fondus posent encore des problèmes technologiques non résolus, concernant en particulier la corrosion des canalisations.
- Du point de vue neutronique, le cœur du réacteur peut être soit à neutrons rapides, soit à neutrons lents ou thermiques.
- (p © (© ©
- Fig. 1. — Schéma de groupes propulseurs nucléaires, à cycle direct (en haut) et indirect (en bas).
- i, Compresseur ; 2, réacteur nucléaire ; 3, échangeur de chaleur ; 4, turbine ; 5, tuyère.
- 131
- p.131 - vue 135/551
-
-
-
- Dans le premier cas, les neutrons issus de la fission ne sont pas ralentis, alors que dans le second cas leur vitesse diminue par suite de chocs avec les atomes du modérateur. Du fait de l’absence de modérateur, la première solution est plus légère, mais elle nécessite un uranium considérablement enrichi en matière fissile (uranium 235). Aussi, les quelques réalisations actuelles font-elles toutes appel aux réacteurs à neutrons thermiques.
- Enfin, pour atteindre un rendement élevé, il y a intérêt à augmenter au maximum la température du cœur du réacteur. De grands progrès dans ce domaine sont espérés des éléments combustibles à base de céramique dont la mise au point est en cours ; le combustible s’y présenterait sous forme de l’un des deux carbures d’uranium UC ou UC2, qui mieux que l’oxyde U02 peuvent supporter des températures élevées.
- Les réalisations. — Les premiers travaux américains sur la propulsion nucléaire rapportés dans l’article précité remontent à 1950. Ils consistèrent en l’élaboration et l’expérimentation de plusieurs réacteurs installés à terre et destinés à fournir les renseignements de base nécessaires à l’établissement de projets de moteurs d’avion. Par la suite deux contrats furent passés pour la réalisation d’un moteur d’avion, l’un à la General Electric, utilisant un cycle direct, et l’autre à Pratt et Withney, utilisant un cycle indirect : ce moteur devait être monté sur un avion dont la réalisation était confiée à la société Convair. Actuellement, la General Electric prévoit les premiers essais de son moteur pour 1965, celui de Pratt et Withney étant un peu plus long à mettre au point. Il semble cependant que c’est ce dernier qui sera choisi. L’avion atteindrait une vitesse de croisière très légèrement inférieure à la vitesse du son (Mach 0,8 ou 0,9) à une altitude de 4 500 mètres.
- Mais le problème le plus délicat à résoudre dans le cas de l’avion atomique est celui de la protection contre les radiations (rayons gamma et neutrons). Même si on éloigne beaucoup le réacteur atomique de l’équipage et des passagers, ce qui permettrait de n’établir l’essentiel de la protection que sur un secteur angulaire étroit, il faut prévoir un écran primaire qui entoure complètement le réacteur, car le matériel doit être au moins légèrement protégé. On est alors conduit à un poids de blindage de l’ordre de 50 tonnes. Les Russes sembleraient avoir trouvé un matériau de protection qui permette de descendre au-dessous de ce chiffre.
- Fig. 2. — Esquisse de l’avion soviétique à propulsion nucléaire.
- Le programme soviétique est d’ailleurs en avance sur le programme correspondant américain, puisque l’avion dont nous avions parlé au début de cet article vole au moins depuis juin 1959. Outre ses deux moteurs situés aux extrémités de chaque demi-aile, il comporte deux turboréacteurs classiques placés au milieu des ailes. La poussée des moteurs nucléaires serait de 32 tonnes. L’envergure est de 23,8 mètres et la longueur de 60 mètres. L’aile est de forme delta, avec un bord d’attaque en flèche de 6o°, et un bord de fuite en flèche de 150 (fig. 2). Ceci permet, la cabine étant tout à fait à l’avant et les moteurs nucléaires assez reculés, de se contenter d’un blindage plus sommaire pour la protection de l’équipage contre les radiations. Le poids total serait d’environ 136 tonnes.
- Les engins. — Il est un autre domaine de l’aviation où la propulsion nucléaire est en passe de jouer un rôle : c’est celui des engins balistiques et même spatiaux. Dans ce cas, du fait que l’air ambiant ne peut plus être utilisé comme comburant, il faut utiliser un moteur-fusée. Aussi, tant aux Etats-Unis qu’en U.R.S.S., des programmes de recherche sur les fusées atomiques sont en cours. Nous ne parlerons ici que du programme américain, les soviétiques étant très discrets sur leurs réalisations en la matière.
- Le programme américain comportait pour commencer une série de moteurs expérimentaux dénommés Kiwi, expérimentés à la base d’essais de l’Atomic Energy Com-mittee au Nevada. Le Kiwi A consistait en un cylindre octogonal de 15 m de hauteur contenant de l’uranium 235, refroidi par de l’hydrogène traversant le cœur du réacteur sous pression élevée, et sortant à une température de quelques milliers de degrés. Cet hydrogène s’échappe alors à travers une tuyère en produisant une poussée importante. Un deuxième prototype, le Kiwi B, plus important que le premier, donne une poussée de 22 700 kg correspondant à une puissance de sortie de,i 000 mégawatts. Le but final est de réaliser un propulseur de 45 tonnes de poussée à partir d’une pile de 2 000 MW de puissance, ce qui équivaudrait à une impulsion spécifique de près de 800 secondes.
- Les progrès ultérieurs consisteront à augmenter autant que faire se peut la température de fonctionnement de la pile car, comme pour les fusées à propergols chimiques classiques, la poussée est d’autant plus grande que la vitesse, donc la température des particules éjectées, est plus grande. C’est ainsi que l’on envisage de recourir à des piles nucléaires dans lesquelles le cœur serait sous forme liquide. Le combustible nucléaire pourrait être, par exemple, du carbure d’uranium, qui bout à 4 000 °C, mais la difficulté réside pour le moment dans la recherche de matériaux de structure qui puissent résister à ces températures.
- D’autres recherches sont d’ores et déjà prévues, car il semble que la meilleure façon d’utiliser l’énergie nucléaire soit de transformer directement la chaleur en électricité, au lieu d’utiliser la détente d’un fluide chauffé. Le rendement de la transformation pourrait dépasser 30 pour 100. En outre, le poids du moteur pourrait être considérablement réduit. Nous aurons l’occasion de revenir ultérieurement sur cette importante question.
- J. S.
- 132
- p.132 - vue 136/551
-
-
-
- L’avion de transport supersonique français Super-Caravelle
- On sait que le gouvernement français a pris, il y a quelques mois, la décision de financer l’étude et la construction d’un avion de transport moyen-courrier supersonique. Cet avion, qui sera réalisé en collaboration par les deux grandes sociétés Sud-Aviation et Dassault, sera dénommé Super-Caravelle. Certaines des caractéristiques futures de cet appareil ont déjà été révélées et nous allons tenter d’en faire une synthèse aussi précise que possible.
- Pour des raisons économiques, le choix de la vitesse de croisière se résume à une option entre deux nombres de Mach préférentiels : 2,2 et 3. L’avion à Mach 3 pose des problèmes de construction assez difficiles, tels que par exemple la résistance des structures à réchauffement, incompatible avec les alliages légers utilisés actuellement. Aussi le projet français a-t-il été axé sur l’avion à Mach 2,2 alors que les Américains, qui eux se sont attaqués au long-courrier, visent le nombre de Mach 3. Quoi qu’il en soit, il résulte des études effectuées sur la Super-Caravelle que le prix d’exploitation par kilomètre-passager serait au plus égal à celui que l’on rencontre pour les avions à réaction subsoniques actuels.
- Le croquis de la figure 1 donne les principales caractéristiques de ce nouvel avion. Il s’agit d’un quadriréacteur à aile delta, les bords d’attaque étant légèrement courbés pour permettre une évolution de la flèche avec l’envergure. La construction de la voilure est du type à raidissage orthogonal, c’est-à-dire avec éléments de renfort du revêtement respectivement parallèles et perpendiculaires à la corde de l’aile. Elle constitue les réservoirs de carburant. L’ensemble de la cellule est en alliages légers, sauf les gouvernes qui sont en acier et les fuseaux-moteurs en titane. Les réacteurs sont disposés en nacelles sous la voilure ; il semble qu’ils seront construits en collaboration par l’industrie française et l’industrie britannique. Différentes solutions s’offrent actuellement au choix des avionneurs. La première consisterait à prendre des Bristol « Olympus 593 » qui pourraient être construits conjointement par Bristol et la Snecma ; ces moteurs délivrent une poussée de 13 tonnes avec une consommation spécifique acceptable (0,853 kg/kg.p/h). La seconde porterait sur des Rolls-Royce R.B.163 de caractéristiques assez voisines. Ces deux moteurs ont en commun d’être des réacteurs à simple flux et à double compresseur, l’un haute pression et l’autre basse pression, et dont la turbine, grâce à des aubes refroidies par air, peut supporter des températures de 1 300 à x 400 °K. Pour des questions
- —4L
- L—-J
- Fig. 1. — Maquette de la Super-Caravelle.
- de rentabilité commerciale, l’intervalle entre révisions devrait atteindre 2 000 heures.
- Il semble que les constructeurs anglais doivent construire une version long-courrier de la Super-Caravelle qui aurait les mêmes moteurs et une structure très peu différente, ceci afin de répartir sur un plus grand nombre d’appareils les frais d’étude et d’outillage. Le poids au décollage serait du même ordre de grandeur, de 90 à 100 t ; la version long-courrier transporterait moins de passagers (de 60 à 80 seulement), mais aurait un rayon d’action de 5 500 km contre 4 500.
- La vitesse du son sera passée à une altitude de 12 000 m en sorte que le bruit dû aux bangs soniques ne soit pas trop important. Dans ces conditions déjà, il équivaudra à un formidable coup de tonnerre. Quant à l’altitude de croisière, elle sera voisine de 15 000 m.
- Super-Caravelle doit entrer en service vers 1967. On pense qu’il pourra au moins être construit à 250 exemplaires, à un prix qui avoisinerait 3 5 millions de NF. Ces perspectives ne sont pas sans inquiéter les Américains qui, par suite de leur choix d’une vitesse de Mach 3, ne verront pas sortir leur premier avion de transport supersonique de série avant 1970.
- J. S.
- Nouveau système de feux pour l’atterrissage des avions
- Un nouveau dispositif aussi simple qu’efficace, destiné à faciliter les manœuvres d’atterrissage des avions, a été recommandé par l’Organisation de l’Aviation civile internationale qui compte 86 nations membres dans le monde entier. Il s’agit de feux d’approche, blancs dans leur partie supérieure et rouges dans leur partie inférieure. Ce système, mis au point par des ingénieurs britanniques, a été installé pour la première fois à l’aérodrome de La Guardia, à New York.
- Quatre rangées de ces feux bicolores sont montées de chaque côté de la piste. Si le pilote qui se prépare à atterrir se présente trop haut, il ne peut voir que la partie blanche des feux. S’il est trop bas, il ne voit que la partie rouge. Si, par contre, son appareil est à l’altitude voulue pour effectuer un bon atterrissage, le pilote peut voir en même temps la partie blanche et la partie rouge des feux.
- R. R.
- 133
- p.133 - vue 137/551
-
-
-
- Une plume inconnue sur la tête d’un indigène : c’était le Paon du Congo
- par Lucien Chopard
- En 1936 paraissait, sous la signature du célèbre ornithologiste J.B. Chapin (Rev. Zool. Bot. afr., XXIX, p. 2), un article qui causa chez les ornithologistes une surprise presque comparable à l’émoi que ressentirent les mammalogistes à la découverte de l’Okapi, en 1900. C’est encore la grande forêt congolaise qui a fourni le sujet de cette nouvelle découverte. En effet, dans cette note, Chapin décrit, sous le nom d'Afropavo congensis, un remarquable oiseau bien plus voisin des faisans et des paons de la région indo-australienne que des autres Gallinacés d’Afrique. De même qu’une peau d’okapi, vue par hasard sur une sorte de baudrier, avait attiré l’attention des naturalistes sur ce Giraffidé bien avant que l’animal ne fût connu, une plume du Paon du Congo avait été remarquée comme appartenant à un oiseau inconnu. Chapin raconte que son attention fut attirée en 1913 par une plume curieuse placée sur le couvre-chef d’un indigène à Avakubi, dans la forêt d’Ituri ; il pensa tout de suite qu’elle devait provenir d’un Gallinacé inconnu, plus grand qu’une pintade. Il s’agissait d’une rémige secondaire de couleur rousse, barrée d’une douzaine de bandes brunes transversales, régulièrement espacées ; sa coloration générale faisait penser à une chouette ou à un faucon, mais la forme s’opposait à cette attribution.
- Cette précieuse plume fut rapportée en Amérique par Chapin, soigneusement conservée et montrée à de nombreux ornithologistes dont aucun ne fut capable de reconnaître l’oiseau qui l’avait portée. Ce n’est qu’une vingtaine d’années après que le problème fut résolu. En 1936, Chapin, visitant le Musée de l’Afrique centrale de Tervuren (Belgique), découvrit abandonnés sur une armoire, dans une petite pièce servant de réserve, deux oiseaux empaillés, en assez mauvais état, qui montraient une légère ressemblance avec des paons et avaient été étiquetés, par une main anonyme, « Pavo cri statu s, jeune » (le Pavo cri status est le Paon ordinaire, originaire des Indes et de l’Extrême-Orient). Ces oiseaux provenaient d’une petite collection exposée dans les bureaux de Bruxelles de la Compagnie du Kasaï et avaient été acquis par le Musée de Tervuren en 1914. De couleur brun roux avec une teinte vert métallique sur le dos et des rémiges secondaires barrées de noirâtre, ils n’avaient qu’une très vague ressemblance avec un paon et Chapin ne pouvait s’y tromper. C’était l’oiseau auquel il pensait depuis vingt ans, dont provenait la plume qui l’intriguait si fort. Et le vieil exemplaire, assez mal monté, poussiéreux, devint le type d’une espèce nouvelle et même d’un genre nouveau (.Afropavo). C’était la plus intéressante découverte faite dans le monde des oiseaux depuis nombre d’années.
- D’assez nombreux exemplaires de cet oiseau ont été
- obtenus depuis, et ils ont permis de compléter sa description. L’Afropaon ou Paon du Congo est un bel oiseau d’assez forte taille, cependant bien inférieure à celle d’un paon puisque sa longueur ne dépasse guère 60 cm. Sa tête, d’un noir velouté, porte une petite crête de plumes noires et une touffe verticale de longues soies blanches ; les plumes de la couverture supérieure des ailes sont vert foncé avec un bord bleu verdâtre brillant, les rémiges barrées de noirâtre, le reste de l’aile noir ; le dos est bleu verdâtre et violacé, la gorge rougeâtre. Dans l’ensemble et bien que les plumes de la queue ne présentent pas d’ocelles, cet oiseau semble plus étroitement allié aux paons qu’à tout autre genre de Phasianidés (famille qui, rappelons-le, comprend les Faisans, Paons, Coqs, Perdrix, Cailles, etc., les Pintades et les Dindons en étant maintenant séparés à titre de sous-familles). Chapin considère l’Afropaon comme un stade primitif de l’évolution des Paons et suppose qu’il est le survivant d’un groupe largement distribué à une époque éloignée où une forêt continue unissait l’Inde et l’Afrique.
- Actuellement l’habitat et les mœurs du Paon du Congo sont assez bien connus. C’est un oiseau de forêt qui semble préférer les forêts demi-sèches, non périodiquement inondées. Il évite les régions basses et se rencontre en montagne jusqu’à 1 500 m environ. Son habitat est localisé dans la forêt primaire du Congo oriental, allant de Opienge, Bafwaboli et Stanleyville au nord à Inkongo au sud ; à l’ouest on le trouve jusqu’à la base des chaînes de montagne qui s’élèvent à l’ouest des lacs Edward et Kivu.
- Bien qu’il ne semble pas très rare dans ses forêts préférées, VAfropavo reste un oiseau très difficile à observer dans la nature et les ornithologistes désirèrent en obtenir des individus vivants pour étudier à loisir ses mœurs dans les grands parcs zoologiques. En 1947, la New York Zoolo-gical Society envoya le réputé spécialiste de la capture d’animaux rares Ch. Cordier à Stanleyville, avec mission de rapporter des Paons congolais vivants. Ce fut donc ce jardin qui, le premier, put faire admirer ce rare oiseau à ses visiteurs. Ce n’est qu’à la fin de 1957, grâce également à Cordier, qu’un exemplaire mâle put être montré en Europe au Jardin zoologique d’Anvers. On put ainsi préciser ses conditions d’existence et d’alimentation ; on le nourrit de graines et de fruits, comme l’Argus et d’autres faisans de forêt.
- Il restait à observer la ponte et le développement du poussin. A cette fin, les directeurs du Zoo d’Anvers réussirent à se procurer sept couples d’Afropavo. Pour augmenter les chances de succès et éviter une contamination rapide en cas d’infection parasitaire, un couple fut confié
- 134
- p.134 - vue 138/551
-
-
-
- au Jardin zoologique de Rotterdam, un autre en France au Parc zoologique de Clères et les derniers répartis entre le Zoo d’Anvers et son domaine rural de Planckendael.
- Premières naissances en captivité au Zoo de Rotterdam
- C’est à Rotterdam que les meilleurs résultats furent obtenus ; les soins attentifs dont y furent entourés les Afropavo ont été décrits dans la revue Zoo, éditée par la Société royale de Zoologie d’Anvers (janvier 1961). Le couple de paons congolais qui fut confié au Parc de Rotterdam le 8 octobre 1959 fut placé dans la «Victoria Kas», une grande serre pour plantes tropicales, où l’on mit à sa disposition une très grande volière dans laquelle se trouvaient quelques jeunes pigeons et quelques petits oiseaux chanteurs. Dans cette serre règne une température de 22 à 240 et une forte humidité, conditions qui se rapprochent de celles de la forêt tropicale. Les Afropaons étant des oiseaux forestiers, un certain nombre d’arbres furent plantés pour leur fournir des abris.
- Fig. I. — Couple de Paons congolais au Jardin zoologique de Rotterdam.
- Près de la mère, on voit les deux poussins, dont un seul a survécu.
- (Photo Int. Photopress Office, Rotterdam).
- Ainsi installés, ils se montrèrent très calmes ; ils vidaient tranquillement et régulièrement leur mangeoire, restaient immobiles pendant des heures sur leur perchoir et ne faisaient un petit tour hors de leur coin abrité que le soir. Au mois d’avril cependant, ils devinrent plus actifs et il fut évident qu’ils se faisaient mutuellement la cour, se pavanant avec la queue déployée à la manière des paons. Deux jours de suite, le 10 et le 11 mai, un œuf brisé fut trouvé sous l’arbre qui servait de perchoir. Il était facile d’en conclure que les afropaons nidifient dans les arbres et qu’un nid devait être offert à la paonne. Le résultat fut celui qu’on espérait et, en juin, le nid contenait trois œufs que la paonne se mit à couver assidûment. Elle restait complètement immobile, recouvrant entièrement le nid, les yeux presque toujours fermés. Son immobilité était telle que son soigneur, un jour, la crut morte. Hélas, le résultat de cette première couvée fut décevant car, le
- 135
- p.135 - vue 139/551
-
-
-
- i6 juin, les trois œufs furent trouvés brisés ; et la déception fut d’autant plus cruelle que ces œufs contenaient des poussins déjà bien développés.
- Les causes de cet accident ne purent être déterminées mais le nid fut agrandi et consolidé et, en juillet, une nouvelle ponte de trois œufs fut obtenue. Les directeurs du Zoo eurent cette fois la joie, le 23 juillet, de grand matin, de voir deux robustes poussins, l’un sur le rebord du nid, l’autre sur le dos de la mère ; le troisième œuf fut abandonné, contenant un poussin mort, à moitié développé. En ce qui concerne les deux autres petits, l’un descendit, ou tomba, du nid et fut immédiatement adopté par le père qui l’abrita et se dirigea avec lui vers la mangeoire ; le second se trouva à terre avec la mère le lendemain de sa naissance. Il se trouve ainsi confirmé que les deux parents s’occupent des jeunes avec le même soin,
- Les poussins du Paon du Congo sont très beaux, d’un
- brun foncé profond et brillant dessus, la partie inférieure du corps jaune d’or foncé, les ailes présentant une raie de la même couleur. Par la suite, l’un des paonneaux se développa moins bien et succomba le 9 septembre de la cocci-diose. Une désinfection soignée à la sulfamétizine préserva le second de la contagion et il poursuivit normalement son développement. Celui-ci est d’ailleurs rapide ; dès le troisième jour, les paonneaux sont capables de voler et d’atteindre le perchoir, à 40 cm du sol ; après une semaine, ils volent jusqu’au sommet d’un saule, à plus de 1,50 m de hauteur.
- Ce beau résultat permet d’envisager l’élevage en jardin zoologique d’un oiseau exceptionnellement intéressant et qui pourrait devenir fort rare dans son pays d’origine car il disparaît de toutes les parties de forêt éclaircies et même de la forêt secondaire.
- L. Chopard.
- Le lac Balkhach, paradoxe géographique
- Le lac Balkhach est, après le lac Baïkal, le plus grand lac qui existe dans les régions asiatiques de l’U.R.S.S. A cause de sa situation géographique isolée, au nord-est du Tur-kestan, ce lac n’a presque pas été exploré jusqu’au 20e siècle, et les témoignages qui le concernent étaient fort contradictoires jusqu’à ces derniers temps. Certains prétendaient, en effet, qu’il ne contenait que de l’eau douce, alors que d’autres affirmaient, tout aussi catégoriquement, qu’il s’agissait d’un lac d’eau salée. Cette contradiction apparente s’explique cependant d’une façon fort simple : le lac Balkhach est, par sa forme, très étroit et très long, s’étendant de l’ouest vers l’est, et il est alimenté par la rivière lia qui débouche tout près de son extrémité occidentale. Il est donc naturel que, dans sa partie ouest, l’eau soit douce. Mais, à mesure qu’on s’éloigne vers l’est, la composition chimique de l’eau change progressivement, sa minéralisation passant de 0,5 g/l à l’extrémité ouest à 5 g/l à l’extrémité est ; à l’ouest, on trouve principalement dans l’eau des ions calcium et des ions bicarbonate, tandis qu’à l’est prédominent les ions sulfate, chlorure et sodium.
- Cette variation de la teneur de l’eau est favorisée tant par la longueur du lac que par l’évaporation. Comme dans les autres lacs des régions arides, il se produit une précipitation de carbonate de calcium, qui est d’ailleurs particulièrement intense dans le lac Balkhach. D’autre part, un processus de formation de la dolomite (CaCOs, MgCOs) se déroule à présent dans ce lac, processus très rare à l’époque actuelle. L’alcalinité (jt>H = 9,10), relevée dans
- la partie orientale du lac, favorise certainement la formation de la dolomite. Quant à la vitesse de l’accumulation des carbonates produits par des réactions chimiques, elle est deux fois plus grande dans le lac Balkhach que dans la Mer d’Aral et la Caspienne, et trois fois plus grande que dans la Mer Noire. On estime que pendant une période de x 000 ans, 195 kg de carbonates par mètre carré se déposent au fond du lac.
- C’est, toutefois, à cause de la minéralisation relativement faible de son eau que le lac Balkhach a été qualifié de « paradoxe géographique ». Cette minéralisation est, en moyenne, égale à 2,84 g/l. Or, le lac se trouve dans une zone où les précipitations atmosphériques ne dépassent guère x 10 mm par an, mais où l’évaporation atteint 930 mm. C’est une cuvette fermée où les sels se déposent continuellement. L’eau du lac devrait donc être beaucoup plus salée, semble-t-il, qu’elle ne l’est en réalité. Cette anomalie, qui a suscité jadis de nombreuses controverses, s’explique par le fait que l’eau salée s’infiltre constamment dans les terres avoisinantes. Certes, une partie des sels ainsi évacués doit retourner dans le lac, mais cette partie est relativement insignifiante. Pour la plus grande part, les sels évacués sont, en effet, soit ensevelis par le sable, soit surtout emportés par les vents du nord et du nord-est qui prédominent dans cette région ; la quantité emportée par le vent est d’autant plus grande que les sels se déposent en majeure partie sur les rives méridionales (.D’après Priroda, Moscou).
- C. M.
- Traction électrique pour camions
- Un système original de traction électrique destiné aux camions vient d’être mis au point par la Société Jack et Heintz, de Cleveland (Ohio). Un moteur à explosion traditionnel actionne une génératrice qui alimente en courant quatre petits moteurs électriques installés sur chaque roue. Un changeur de fréquence permet à chacune des roues
- de fonctionner à des vitesses différentes. Selon ses constructeurs, ce nouveau système éliminerait les essieux, les systèmes de transmission, les arbres moteurs et le différentiel, et il réduirait d’environ une tonne le poids d’un camion moyen. Un véhicule équipé selon ce principe doit subir ses premiers essais avant la fin de l’année.
- 136
- p.136 - vue 140/551
-
-
-
- L’ACTUALITE INSTRUMENTALE
- Mélangeur à hautes performances
- La Société Prolabo représente depuis peu, pour la France, un mélangeur de conception et de fabrication suisse, d’une très grande efficacité. Les produits à traiter sont contenus dans un récipient hermétiquement clos fixé dans le berceau de l’appareil (fig. i). Celui-ci est tenu par deux grands étriers articulés montés sur deux axes de rotation tournant en sens inverse. Les vitesses de rotation des deux extrémités du récipient sont alternativement croissantes et décroissantes ; pendant que la vitesse augmente d’un côté, elle diminue de l’autre. Ces mouvements sont communiqués au contenu du récipient, qui se trouve ainsi soumis à des impulsions accélérées et ralenties en sens inverse. La matière est balancée sous forme de deux tourbillons qui s’interpénétrent, le tourbillon en mouvement rapide se fondant dans le tourbillon en mouvement lent, et lui communiquant son énergie cinétique. Tout le contenu du récipient participe au mouvement tourbillonnaire, se trouvant tour à tour renvoyé vers le centre du récipient. Par suite, une phase homogène est très vite réalisée.
- Les avantages de cet appareil sont nombreux : tout d’abord, ce mélangeur travaille beaucoup plus vite que les
- mélangeurs traditionnels. Dans certains, la durée du mélange est raccourcie dans le rapport de i à 30. Par exemple, le mélange parfaitement homogène de poudres colorées peut être obtenu en un quart d’heure. L’appareil peut recevoir un récipient quelconque : en effet, le berceau du mélangeur reçoit immédiatement n’importe quel récipient de forme variée, de dimensions aussi réduites que l’on voudra. Bien qu’il soit fourni un pot cylindrique à fermeture hermétique de 2 litres, on peut tout aussi bien utiliser l’appareil avec un petit tube à essais, un erlenmeyer, etc. Enfin, les emplois de l’appareil sont variés : en dehors du mélange proprement dit, on peut faire fonctionner l’appareil en broyeur, en introduisant dans le récipient des billes d’acier, ou l’utiliser pour polir des pièces métalliques en ajoutant un abrasif convenable.
- Fig. 1. —. Le mélangeur « Turbula » modèle 2 litres.
- Au premier plan on distingue un certain nombre de flacons et récipients divers qui peuvent prendre place dans le berceau de l’appareil. Poids : 40 kg ; encombrement au plan, 55 X 36 ; hauteur : 35 cm. Le modèle 20 litres pèse environ 300 kg (dimensions : T35 X 90 X 135 cm).
- (Photo Prolabo).
- 137
- p.137 - vue 141/551
-
-
-
- ABSORPTI OMÈTRE
- (PHOTO-COLORIMÈTRE)
- “ SPEKKER-HILGER ”
- — Pour les dosages colorimétriques rapides et précis.
- — S'emploie également pour les mesures opacimé-
- triques et néphélométriques et, par l’adjonction d’un dispositif auxiliaire, pour la fiuorimétrie.
- Éts F. C. DAN N ATT
- 198, Rue Saint-Jacques, PARIS 5e
- Transformez votre Microscope en un
- MICROSCOPE INTERFËRENTIEL
- pour la mesure et le contrôle des Etats de Surface
- à l'aide de
- l'OBJECTIFINTERFERENTIEL DE WATSON
- Applications : Métaux, Semiconducteurs, Peintures, etc.
- LES PROCEDES MARCEL LOCQUIN
- 20, Avenue Rapp - PARIS 7* - INV. 96-53
- H
- ECOLE SUPERIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par KEtat — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e — ODE 54-83
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d'Etat. Brevets de Techniciens d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " è domicile "
- (Joindre timbre pour notice)
- TRANSMISSION DE LA CHALEUR
- PAR
- W.H. Mc ADAMS
- Professeur de Génie chimique,
- Massachusetts Institute of Technology.
- TRADUIT DE L’AMÉRICAIN PAR PRÉFACE DE
- A. BEAUFILS M. VÉRON
- Licencié ès Sciences, Ingénieur E.S.E.
- 608 pages I6 x 25, avec 225 figures. 2e édition. I96I. Relié toile sous jaquette. 115 NF
- En vente dans toutes les bonnes librairies et chez
- DUNOD Éditeur, 92, rue Bonaparte, PARIS-6e — DAN. 99-15 — C.C.P. Paris 75-45
- appareils électroniques de mesnre
- QUELQUES POSSIBILITÉS :
- Tensions : 100 MVàSOkV-R d'entrée 10*1* fl
- Intensités : 10-15 à 10-5 ampère • R. d'entree
- nulle
- Résistances : 10'7 n à 100 pA- R d'entrée
- nulle
- Capacités : 0,1 pF à 10 000 pF - R. d'entrée
- nulle
- Champs : 0,1 gauss à 10 000 gauss.
- Electrisations : 10 pico-coulombs à 1 000
- coulombs.
- Pertes en watts des tôles : 0,5 à 5 W. Fluctuations de tension :
- depuis 1 mV 1.000 ou 2 000 V. Intégration : (analogique)
- I seconde à 60 minutes I à 20 voies. Conductivité : 1 fl à 1.000 M A (mesure i
- distancel
- FONDÉ EN 1915
- lEMOUZY.
- Fournisseur de 1.900 laboratoires officiels et privés toutes industries
- 63, rue de Charenton, Paris 12* - Tel. DID. 07-74
- 138
- p.138 - vue 142/551
-
-
-
- Le moteur d’entraînement est du type synchrone sans balais ; la puissance consommée est de ioo watts. Tous les paliers du mécanisme sont à roulement à billes, ce qui facilite l’entretien. Le panier qui reçoit les récipients à secouer est équipé d’un manchon de réduction souple permettant de fixer dans l’axe des récipients quelconques. Des courroies croisées servent de butée à chaque extrémité de la monture. Trois vitesses de rotation, 60, Bo et ioo tours/minute, peuvent être réalisées. Le changement de vitesse s’opère en déplaçant une courroie trapézoïdale entre deux poulies étagées qui dépassent en dehors du carter.
- Les emplois de cet appareil sont évidemment très nom-
- breux : on peut citer le mélange rapide des poudres (industries pharmaceutiques, colorants, etc.), le mélange avec des liquides, la dispersion d’une poudre dans un liquide, la dissolution dans un solvant, le mélange de deux liquides. L’efficacité est encore bonne en milieu moyennement visqueux (3 000 centipoises). Citons encore le broyage et le polissage des petites pièces de mécanique de précision (horlogerie par exemple).
- Le modèle courant, en particulier pour les travaux de laboratoire, permet l’utilisation de récipients d’une capacité maximale de 2 litres. Il existe également des modèles industriels ou semi-industriels de 20, 50 et 200 litres.
- Spectromètre gamma à hautes performances
- La firme américaine Nuclear Measurements Corporation propose depuis peu un nouveau spectromètre pour rayonnement gamma, le GSS-i (fig. 2). L’ensemble est constrüit autour de deux organes essentiels : une tête de mesure qui comporte, en un seul bloc, un cristal d’iodure de sodium activé au thallium de 50 X 50 mm, le tube photomultiplicateur et l’amplificateur, entièrement transistorisé ; un
- Fig. 2. — Spectromètre gamma GSS-i.
- On distingue, à gauche, le château de plomb surmonté de la tête de mesure. Au centre et de haut en bas, le compteur à décades asservi, le spectromètre et l’enregistreur x-y.
- (Photo Nuclear Measurements Corporation, aimablement communiquée par la Roche International Corporation).
- ensemble groupant un compteur linéaire et un spectromètre, lui aussi entièrement transistorisé.
- Ces éléments de base sont complétés par trois dispositifs :
- — Un château de plomb avec tiroirs à échantillons ;
- — Un compteur asservi, du type à décades (vitesse maximale de comptage : un million de coups par minute) ;
- — Un enregistreur du type x-y.
- Le dispositif emploie, à la place de la technique de la fenêtre décalable, un système de fenêtre à largeur variable et à impulsion décalable. Par suite, l’analyse s’applique toujours à une proportion constante du spectre en cours d’investigation. Les performances sont améliorées surtout lorsqu’on est en présence d’impulsions faibles entourant une impulsion de grande amplitude : la résolution est ainsi meilleure.
- L’intégration des pics est très commode à effectuer : il suffit de déterminer d’abord la bande d’énergie couverte par le pic étudié, ceci en utilisant l’enregistreur ; puis de faire à nouveau décrire cette bande en mettant en marche le compteur asservi.
- Disons pour conclure que cette installation homogène et autonome semble constituer un des compteurs les plus commodes et les plus précis qui soient actuellement disponibles sur le marché.
- R. R.
- Enquête sur les besoins des laboratoires en isotopes stables
- A l’initiative de la Commission de Chimie physique du C.N.R.S., plusieurs laboratoires se préoccupent de coordonner sur le plan national leurs efforts dans le domaine de l’isotopie. Us se proposent de mettre en place une organisation ayant pour objet l’extension en France des applications des isotopes stables, et plus particulièrement du deutérium, en physique, chimie et biologie. Les laboratoires désireux d’utiliser pour leurs travaux des composés deutériés ou des composés marqués par des isotopes stables sont invités à faire connaître de façon précise à la Commission chargée de l’établissement du programme de travail de l’organisation projetée leurs besoins en composés isotopiques (nature, quantité, pureté chimique, pureté isotopique, urgence).
- Adresser la correspondance à la Commission des Isotopes stables (C.N.R.S.), M. R. Viallard, Laboratoire de Chimie physique, 11, rue Pierre-Curie, Paris-5 e.
- 139
- p.139 - vue 143/551
-
-
-
- Un produit chimique qui solidifie les sols mouvants
- Fig. i. — Démonstration minutée de l’efficacité de l’AM-9.
- Sur la photographie de gauche, du sable est versé dans un bêcher. La solution d’AM-9 est située dans le bêcher de droite, dans lequel plonge une seringue. Au milieu, l’opérateur injecte dans le sable le contenu d’une seringue d’AM-9. 3° secondes plus tard, on est obligé de casser le bêcher avec un marteau pour en
- sortir un culot de sable rendu compact par la polymérisation de l’AM-9 (à droite) (Photos U.S.I.S.).
- D’après une information du Centre culturel américain F American Cyanamid Company, de New York, vient de mettre au point un produit chimique qui solidifie les sols mouvants et qui, injecté dans les roches poreuses, les rend imperméables à l’eau. Baptisé AM-9, c’est un mélange de nitrile acrylique et d’amide acrylique auquel est ajouté, au moment de l’emploi, un catalyseur de polymérisation. Lorsque le produit est injecté dans des roches ou un sol poreux et perméable, la polymérisation se produit et provoque la formation d’un réseau tridimensionnel de molécules organiques. L’eau qui imbibe la terre est, en quelque sorte, emprisonnée dans le réseau macromoléculaire. Par ailleurs, le gel formé s’oppose à toute infiltration d’eau ultérieure.
- Cactus pour pâturages
- Depuis longtemps, on a pensé que les cactus pouvaient constituer un excellent fourrage pour le bétail et, en même temps, étancher la soif, les tiges étant fortement gorgées d’eau (jusqu’à 90 pour 100). Toutefois, les épines qui existent dans la plupart des espèces constituent à cet égard un sérieux handicap ; enfin, les cactus résistent assez mal aux basses températures. La constitution de pâturages de cactus sur les terres deshéritées apparaissait donc comme étant assez utopique. Or un botaniste russe, Youri Koss, vient de découvrir un cactus dont les tiges, d’une hauteur de 15 à 30 cm, comportent, à la place des épines classiques, de petites protubérances. De plus ce cactus est très résistant puisque dans la région où il a été découvert la température varie de + 40 °C en été à — 34 °C en hiver. Des essais sont actuellement entrepris en U.R.S.S. pour constituer des pâturages permanents à base de cactus dans des régions autrefois désertiques. (Service soviétique d’information).
- R. R.
- L’AM-9 Peut être préparé sur les beux mêmes où il sera utÜisé ; par un dosage judicieux des constituants et du catalyseur, on peut retarder la solidification de manière à assurer une pénétration complète du produit. La solution, qui a à peu près la viscosité de l’eau, est injectée dans le sol par des trous creusés préalablement au moyen d’une foreuse. A la différence des mortiers classiques, qui pénètrent difficilement dans les sols de texture fine, l’AM-9 s’infiltre très rapidement. Il élimine le danger des suintements souterrains et peut être utilisé pour stabiliser les sables mouvants. Enfin, en modifiant les propriétés du sol, l’AM-9 téduit le coût de la construction et de l’entretien des structures édifiées sur des terrains friables.
- R. R.
- Entraîneur automatique parlant
- La société japonaise Toshiba vient de construire le premier « entraîneur » automatique qui soit au monde pour les coureurs de fond. Cet appareil, qui joue le rôle d’un « lièvre» humain perfectionné et automatisé, se déplace sur un rail, à la corde de la piste d’un stade d’athlétisme, à une vitesse prédéterminée et contrôlée par un ruban magnétique, cette vitesse pouvant en outre être modifiée au cours de la course par une commande à distance. L’appareil est équipé d’un récepteur radiophonique et d’un haut-parleur pour transmettre au coureur les instructions du moniteur muni lui-même d’un émetteur portatif.
- On peut ainsi enregistrer sur bande magnétique l’allure d’un certain record du monde et l’appareil se déplace à la vitesse de ce record. Les autorités sportives japonaises espèrent tirer grand profit de cet «entraîneur» pour la préparation de leurs athlètes en vue des Jeux Olympiques de Tokyo en 1964.
- H. M.
- 140
- p.140 - vue 144/551
-
-
-
- Le Ciel en Avril 1962
- SOLEIL : du ier avril au icr mai (à oh) sa déclinaison croît de -j- 4°i6/ à + i4°52/ et la durée du jour de i2Ù48m à i4Ù28m ; diamètre apparent le Ier (à oh) = ^z f',q, le 30 (à 24b) = 3i/47//,8. — LUNE : Phases : N.L. le 4 à P. Q. le 11 à iç)h5im, P. L. le
- 20 à 0^34™, D. Q. le 27 à 13^0"! • périgée le 3 à 2ih, diamètre app. 3 3'19^ ; apogée le 16 à 7h, diamètre app. zg'zq". Principales conjonctions : avec Jupiter le ier à 23b, à o°32/ S ; avec Mars le 2 à 23*1, à i°3i/ S ; avec Mercure le 3 à 22b, à x°38/ S ; avec Vénus le 5 à 22Î1, à 4°39/ S ; avec Uranus le 14 à i8h, à o°i2/ N ; avec Neptune le 21 à oh, à 3C20/ N ; avec Saturne le 27 à 2ih, à o°48/ N ; avec Jupiter le 29 à 15b, à i°7/ S. Principales occultations : le 8, d’Aldé-baran (mag. 1,1), immersion à I3hi3m,3 et émersion à 131x51111,7 • je 14, de Régulus (mag. 1,3), immersion à 231125m,8 et émersion le 15 à oh36m,2 ; le 22 de y Balance (mag. 4,0), immersion àoh7m,4et émersion à oh5 2m,4. — PLANÈTES : Mercure se montre étoile du soir dans la dernière semaine du mois, se couche plus d’une heure après le Soleil ; Vénus, radieuse étoile du soir, se couche le 19 à 2oh39m, soit près de 2 heures après le Soleil ; Mars est invisible ; Jupiter, dans le Verseau, étoile du matin, se lève le 19 à 31117x11, soit 1I137111 avant le Soleil ; Saturne, dans le Capricorne, brille le matin plus de deux heures avant le lever du Soleil ; Uranus, au N-W de Régulus,
- visible jusqu’à 3 b du matin, le 15, position : 9h56m et -J- 13 023', diamètre app. 3",9, mag. 5,7 ; Neptune, près de a Balance, visible toute la nuit, le 15, position : I4h43m et — 13 “5 3', diamètre app. 2",5, mag. 7,7. — ÉTOILES VARIABLES : minima observables d’Algol (2m,2-3,m5) le Ier à 2oh8, le 19 à ih6, le 21 à 22I14 ; minima de ji Lyre (3m,4-4m,3) le 8 à 18I15, le 21 à i6h8 ; maximum de R Gémeaux (6m,o-i4ra,o) le 15, de RR Sagittaire (5m,6-i4m,o) le 24. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.) : le Ier : i2h44m5os, le 11 : I3h24mi6s, le 21 : 141131*1418, le maj .
- Phénomènes intéressants : On surveillera encore l’activité solaire. — Du 6 au 9, lumière cendrée de la Lune, le soir. — Le 8, l’occultation d’Aldébaran est à observer en plein jour dans une petite lunette, l’immersion se faisant au bord obscur et l’émersion au bord lumineux, la Lune à son 4e jour présentant alors l’aspect d’un élégant croissant. — Les planètes Uranus et Neptune sont toujours commodément observables. — Étoiles filantes : du 19 au 22, Lysides (radiant 104 Hercule), rapides à traînées persistantes.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- LES LIVRES NOUVEAUX
- Les nombres et leurs mystères, par André Warusfel. 1 vol. 12 x 17,5, 192 p., nombr. illustr. Collection Le Rayon de la Science. Editions du Seuil, Paris, 1961. Prix : 4,50 NF.
- L’esprit simplement curieux fera ici une série de découvertes amusantes : le système binaire lui permettra de gagner toujours au jeu des allumettes et il notera que l’opinion moyenne n’existe pas davantage que le Français moyen ; il verra comment on définit des sens interdits pour les emprunter aussitôt, et on abusera de son intuition pour l’entraîner dans d’étranges paradoxes. Mais, chemin faisant, l’esprit plus réfléchi comprendra qu’on lui a dévoilé quelques-uns des plus grands secrets du progrès des mathématiques.
- Théorie des nombres, par Edouard Lucas. Tome I : Le calcul des nombres entiers. Le calcul des nombres rationnels. La divisibilité arithmétique. Nouveau tirage. 1 vol. 17 x 25,5, xxxiv-520 p. Librairie Scientifique et Technique Albert Blanchard, Paris, 1961. Prix : 25 NF. Vaste synthèse de la théorie des nombres où sont mis en lumière les apports des générations de mathématiciens, des philosophes grecs à l’auteur lui-même dont la contribution est importante. Ce Ier tome est consacré au calcul des nombres entiers, des nombres rationnels et à l’étude de la divisibilité arithmétique. Nombreux exemples dont beaucoup appartiennent aux récréations mathématiques.
- Les systèmes linéaires, par J. Garsoux. Tome I : Analyse fséquentielle. 1 vol. 16 X 25, 346 p., nombr. fig. Collection de Mathématiques appliquées. Dunod, Paris, 1961. Prix, relié : 39 NF. Entre le traité d’un niveau élevé peu utilisable par le technicien et l’ouvrage technique ne formulant que trop vaguement les hypothèses de départ, l’auteur a cherché un heureux compromis. Clarté de l’exposé, détails des calculs, nombreux exercices d’application font de l’ouvrage un guide sûr pour les étudiants et les ingénieurs. Ce tome traite des systèmes régis par des équations différentielles
- linéaires à coefficients constants et l’étude est limitée au calcul des régimes permanents.
- Physique atomique et connaissance humaine, par Niels Bohr. Trad. par Edmond Bauer et Roland Omnes. i vol. 16 x 24, 100 p., 8 fig. Gauthier-Villars, Paris, 1961. Prix : 15 NF.
- Cinq articles et conférences où l’illustre physicien, qui a puissamment contribué au développement de la physique quantique, cherche à définir les nouvelles conditions de l’explication scientifique en tous domaines. L’exposé d’une discussion avec Einstein, particulièrement passionnante, nous introduit au cœur du drame dont le dénouement fut l’abandon du schéma déterministe par la plupart des physiciens modernes. Considérant de façon analogue les conditions de l’observation en biologie et même en psychologie, Niels Bohr croit y voir aussi s’imposer le principe de complémentarité dont la validité serait ainsi universelle ; il rendrait illusoire la recherche d’une explication complète des faits vitaux par la physico-chimie. Mais à beaucoup de biologistes l’analogie ne paraîtra pas convaincante.
- Encyclopœdic Dictionâry of Physics , édité par J. Thewlis, R.C. Glass, D.J. Hughes et A.R. Meetham. Vol. I : A to compensated bars. 1 vol. 19,5 X 25,5, 800 p., très nombr. fig. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1961. Prix, relié : 80 livres sterling. Les éditeurs se sont fixé comme but de réunir les définitions détaillées de la quasi-totalité des termes employés dans les branches les plus diverses de la science contemporaine. C’est là une œuvre immense mais dont le premier volume laisse augurer qu’elle sera menée à bien. Ce dictionnaire a été rédigé en faisant appel à la collaboration de spécialistes anglais ou américains, les premiers étant toutefois en plus grand nombre. Aucune définition ne dépasse 3 000 mots et, bien entendu, la plupart sont beaucoup plus courtes. Abondante illustration et bibliographie sévèrement sélectionnée. L’index alphabétique des sujets traités
- a été particulièrement soigné, les différentes acceptions d’un même terme étant données dans leur intégralité. Les 60 sections couvrent la quasitotalité de la science, de la physique de l’état solide à l’astronomie, de la géologie à la biochimie en passant par la rhéologie, les propriétés des diélectriques, etc. — R. R.
- Noise in electronic devices, édité par The Institute of Physics and The Physical Society. 1 vol. 15 X 24,5, 100 p., fig. Chapman and Hall Ltd, Londres, 1961. Prix : 35 sh.
- Sept conférences d’un symposium consacré au bruit de fond dans les circuits électroniques. En dépit de cette origine, l’ouvrage est d’un niveau très abordable pour l’étudiant de 3e cycle ou pour l’ingénieur amené à concevoir un circuit de qualités honorables. Chaque conférencier semble avoir tenu, dans le domaine qui lui est propre, à présenter ses explications en partant d’un niveau accessible pour tout physicien ou électronicien doté d’un bagage moyen de connaissances. Le bruit dans les masers et les amplificateurs paramétriques, s’il fait un peu figure de parent pauvre, n’a pas été oublié. Bibliographie à la fin de chaque exposé.
- Comparative Biochemistry, édité par Marcel Florkin et Howard S. Mason. Vol. I : Sources of free energy. 1 vol. 15,5 X 23,5, xxvi-590 p., 75 fig. Academie Press Inc., New York, i960. Prix, relié : 18 dollars.
- Découvrir les équilibres chimiques universels qui déterminent l’existence des êtres vivants, mais aussi identifier et ordonner les réactions qui sont compatibles avec leur diversité, tels sont les buts de la biochimie comparée. Les résultats de l’anatomie et de la physiologie comparées encouragent à aborder maintenant dans un esprit semblable les enseignements de la biochimie. Dans cet ouvrage considérable, qui ne comprendra pas moins de six volumes, une centaine de spécialistes particulièrement qualifiés entreprennent cette tâche. Le ier tome est consacré aux sources d’énergie de
- 141
- p.141 - vue 145/551
-
-
-
- la cellule : oxydation des acides gras, liaisons à haute énergie, substances inorganiques, glycolyse, phosphorylation oxydative et systèmes moins généraux tels que phototropismes, chimie de la vision.
- Protein Biosynthesis, édité par R. J.C. Harris, i vol. 16,5 X 23,5, xn-409 p., 130%. Academie Press Inc., Londres et New York, 1961. Prix, relié : 95 sh.
- Textes des communications présentées au symposium de Wassenaar. La structure chimique des protéines est maintenant connue pour l’essentiel : la synthèse de chacune de ces macromolécules suppose l’agencement, en nombre défini, dans un ordre défini, de centaines d’aminoacides. Existe-t-il une seule voie de synthèse des protéines ? Quels enzymes en catalysent les étapes essentielles ? Comment l’information génétique contenue dans les molécules d’ADN détermine-t-elle les assemblages d’acides aminés, spécifiques des diverses protéines ? Quelles sont les fonctions des diverses fractions caractérisées des acides ribonucléiques ? Où s’effectuent les assemblages de chaînes protéiques ? Tels sont les fascinants problèmes discutés à ce symposium ; un bilan précis des faits acquis et des hypothèses qui restent à vérifier est dressé en conclusion par le professeur Chantrenne.
- Hemoglobin and its abnormalities, par Vernon M. Ingram, i vol. 15,5 x 23,5, xiv-153 P'> 49 fîg., 1 frontispice. Charles C. Thomas, Springfield (Illinois), 1961. Prix, relié : 7,30 dollars.
- L’hémoglobine est une des rares protéines dont la structure a été assez largement déchiffrée (nombre de chaînes peptidiques, mode d’association, composition en acides aminés). On sait, notamment grâce aux travaux de l’école d’Ingram, que certaines anémies, obéissant à un déterminisme génétique précis, proviennent de la substitution d’un seul acide aminé à un autre dans la macromolécule d’hémoglobine : ces résultats représentent un progrès essentiel dans la compréhension du mode d’action des gènes au cours de la synthèse des protéines. Recommandons vivement à tout étudiant en biologie ou en médecine la lecture de ce petit ouvrage : les possibilités des techniques biochimiques modernes ne pourraient être plus brillamment illustrées et plusieurs des passionnants problèmes de la biochimie moléculaire y sont traités avec beaucoup de clarté. — G. B.
- The organisation of Cells and other Organisms, par Laurence E.R. Picken. i vol. 16 x 24,5, xxxvm-628 p., 113 fig,, 34 pl. h. t. Clarendon Press : Oxford University Press, Londres, 1961. Prix, relié : 84 sh.
- L’architecture de la cellule vivante et sa physiologie posent des problèmes si variés que différentes disciplines, cytologie, biochimie cellulaire, topochimie, biologie moléculaire, etc., se sont individualisées, ayant chacune ses objectifs précis et ses techniques. La complexité de ces techniques comme le foisonnement des publications confinent les chercheurs dans leur étroite spécialité. Aussi est-il particulièrement appréciable qu’un ouvrage moderne cherche à coordonner les enseignements de toutes les branches de la biologie cellulaire. De l’aveu même de l’auteur, ce livre est un « travail de compilation». Le texte, très dense, est aéré par des planches souvent remarquables. Répertoire bibliographique considérable. — G, B.
- Physiologie humaine (cellulaire et organique), par Henri Laborit, maître de recherches du Service de Santé des Armées. 1 vol. 17 x 25,
- 386 p., 136 fig. Masson, Paris, 1961. Prix, broché : 60 NF ; cartonné toile : 68 NF. L’auteur s’est placé dans la perspective de la physiologie avancée en concevant la matière vivante comme un état particulier et complexe de la matière inanimée. Il rappelle donc en premier lieu les notions indispensables de chimie générale et biologique. L’exposé s’organise ensuite autour de deux idées centrales. La première confère à l’ion hydrogène une importance capitale dans les échanges cellulaires. La seconde est que la cybernétique fournit des schémas utiles pour décrire les équilibres et les systèmes autorégulés dont l’enchevêtrement constitue l’essentiel des fonctions physiologiques. On retrouvera, éclairés sous cet angle, les chapitres classiques de la physiologie, allégés toutefois de la description des expériences et des enregistrements. En plusieurs matières l’auteur propose des vues originales qui aident à une compréhension synthétique ; il les a toutefois rejetées en fin de chapitre quand il leur reconnaît une part d’incertitude. L’ouvrage est moins un cours ou un manuel qu’un instrument de culture et de réflexion.
- Oncogenic Viruses, par Ludwik Gross. Vol. IL 1 vol. 15,3 X 23,5, xn-404 p., 41 fig. Pergamon Press, Oxford, Londres, New York et Paris, 1961. Prix, relié : 80 sh.
- Après avoir rappelé les méthodes dont l’expérimentateur dispose pour compléter les observations du clinicien, le docteur Gross, directeur de la Division du Cancer au Vétérans Administration Hospital de New York, étudie les différents groupes de tumeurs désormais imputables avec certitude aux virus cancérigènes : sarcome de Rous, leucémies aviaires, carcinome mammaire de la souris, leucémie de la souris, virus du polyome, ainsi qu’un sarcome contagieux du chien. Une parenthèse est ouverte sur les progrès à attendre de l’emploi de techniques biochimiques telles que l’injection d’acides nucléiques purifiés. L’ouvrage, en regroupant et ordonnant d’innombrables données disséminées dans la presse médicale, comble une importante lacune. L’auteur esquisse une théorie susceptible de rendre compte des particularités déroutantes du mode de transmission des virus cancérigènes. — G. B.
- Contribution à la biométrie, à la biologie et à la physico-chimie de la Moule commune, par Edmond Ricci, i vol. 21,5 X 27, 166 p., 65 fig. Annales (n° XI) de la Station océanographique de Salammbô (Tunisie). Tunis, 1957. En vente chez N. Boubée, Paris. Prix : 12 NF.
- ---- A NOS LECTEURS --------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- est à la disposition des lecteurs de LA NATURE - SCIENCE PROGRÈS pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- Ce travail, présenté comme thèse de doctorat à la Faculté des Sciences de Marseille, apporte des connaissances très utiles à la mytiliculture. L’auteur établit d’abord de façon précise les critères de détermination du sexe, qui lui permettront de relever des différences significatives dans la physiologie expérimentale des mâles et femelles, principalement dans l’accoutumance à des eaux moins salées, objet essentiel de son étude. Résistance, variations du poids, teneur en eau, concentration du milieu intérieur sont étudiées en détail. Il conclut à la possibilité d’une mytiliculture prospère dans le golfe de Tunis.
- Biologicàl àpproâches to cancer chemothe-rapy, édité par R. J. C. Harris, i vol. 16 X 23,5, vm-432 p., 98 fig. Academie Press Inc., Londres et New York, 1961. Prix, relié : 96 sh. Textes des communications présentées au symposium de Louvain, où sont confrontés concepts et résultats expérimentaux susceptibles de conduire à une médication spécifique des tumeurs cancéreuses. Le cancer est considéré en tant que dérèglement des synthèses cellulaires. Des exemples précis ont été analysés ; fréquemment, ils sont imputables à la perturbation des mécanismes qui, en fonction du milieu, limitent à tout instant le taux de synthèse de certaines enzymes ou leurs potentialités de fonctionnement (repression des synthèses, feedback inhibition). Peut-on identifier des composés capables de freiner électivement certaines chaînes de biosynthèse ? Par quels artifices fera-t-on parvenir ces composés à leur site d’action ? Dans quelle mesure les infections virales suspendent-elles la régulation des synthèses dans la cellule-hôte ? Que doit attendre la thérapeutique de l’existence de propriétés antigéniques prspres aux cellules cancéreuses ? Des réponses précises, bien que parfois peu encourageantes, se dessinent pour plusieurs de ces questions. — G.B.
- Esthétique, par André Lamouche. 1 vol. 16 X 25, 364 p. Dunod, Paris, 1961. Prix, délié toile sous jaquette : 35 NF.
- L’auteur de la Logique de la simplicité a peu de tendresse pour les formes de l’art contemporain les plus vantées ; il cherche à déceler contradictions et mystifications ; sa méthode consiste à étoffer ses propres inclinations d’une quantité considérable d’opinions, d’articles, de citations. Travail d’information considérable qui à lui seul suffirait à recommander l’ouvrage ; on regrettera toutefois qu’il n’ait pas assorti de références précises sa récolte si riche. L’idéalisme et le spiritualisme ont inspiré l’auteur dont l’entreprise remet en honneur des critères d’appréciation quelque peu tombés en désuétude.
- La science au seizième siècle. Colloque international de Royaumonf, 1-4 juillet 1957. 1 vol. 14 X 21, 344 p., nombr. figures. Hermann, Paris, i960. Prix : 15 NF.
- Communications de spécialistes, d’un niveau élevé, mais dont la lecture est souvent passionnante et jette une vive lumière sur un siècle de précurseurs. Ainsi, M. J. Pelseneer présente une vue générale sur les origines de la science moderne qu’il voit issue de l’esprit de la Réformation, et socialement portée par le Protestantisme, point de vue discutable certes mais intéressant ; M. G. Abetti a recherché les sources et l’inspiration de l’œuvre de Képler dans la croyance du 16e siècle à l’harmonie de la Création ; MM. Paul Henri Michel et G. de Santillana ont essayé de préciser, l’un les sources atomistiques des conceptions de Bruno, l’autre son influence sur celles de Leibnitz ; M. V. Ronchi, dans une communication sur l’optique du seizième siècle, montre la transformation d’une science de la vision en une science
- p.142 - vue 146/551
-
-
-
- physique portant sur l’invisible ; M. I.B. Cohen étudie l’impact de la découverte du nouveau monde sur la conscience du 16e siècle, et la transformation de son idée de la nature qui en est résultée. MM. H. Michel et J.M. Millas Vallicrosa traitent des astrolabistes, cartographes et nauticiens, ces techniciens dont le rôle est parfois négligé. M. Zouhov fait ressortir de l’étude des commentateurs de Vitruve l’actualité sociale, culturelle et artistique de l’époque ; M. R. Hosykaas et M. J.O. Fleckens-tein analysent le rôle joué par Ramus dans l’éclosion de l’empirisme scientifique, ses rapports avec les milieux humanistes bâlois, et souligne l’influence prépondérante de l’édition dans la diffusion des idées nouvelles ; les théories astronomiques font l’objet de communications de MM. Hartner et Birkenmajer ; le Dr E. Wickersheimer présente un exemple de la zoologie au 16e siècle : le Livre des Quadrupèdes du médecin strasbourgeois Michel Herr, et complète ainsi l’exposé de M. F.S. Boden-heimer sur la zoologie et la botanique ; enfin, M. Koyré étudie le « cas Tartaglia », effort prématuré pour une mathématisation de la dynamique, et les raisons de son échec. La science islamique est évoquée par M. B. Ben Yahia, la science de la Chine par le Dr P. Huard et M. Ming Wong. Index des noms et index des matières.
- Œuvres complètes de Bernard Palissy. Edition conforme aux textes originaux, avec des notes et une notice historique, par Paul-Antoine Cap. Nouveau tirage augmenté d’un avant-propos de Jean Orcel, professeur au Muséum, i vol. il X 18, 438 p. Albert Blanchard, Paris, 1961. Prix : 14 NF.
- Bernard Palissy tient une place non négligeable dans l’histoire des sciences et des techniques, moins pour les découvertes qu’on peut lui attribuer que par l’esprit véritablement moderne avec
- lequel il envisage l’investigation et les buts qu’on doit lui assigner. Sur l’origine des fossiles, sur la formation des cristaux, sur le rôle de l’eau dans la nature, sur l’agriculture et les engrais et bien d’autres sujets, il avance des idées pertinentes. Il réunit une des premières collections de spécimens minéralogiques. On est heureux de trouver
- ici un nouveau tirage de ses œuvres, avec un excellent avant-propos de M. Orcel. Cependant ces textes, sans glossaire, sont d’une lecture parfois difficile pour l’homme d’aujourd’hui ; la notice et les notes de P.-A. Cap, qui datent de 1843, appelleraient un complément substantiel, en tenant compte des travaux plus récents dont la liste est d’ailleurs donnée.
- Métropoles économiques, par Jean Chardonnet. 1 vol. 15,5 X 24, 270 p., 21 fig. Armand Colin, Paris, 1959. Prix : 12 NF.
- Le professeur Chardonnet a rassemblé dans ce volume une série de 12 études relatives à des ports (Londres, Amsterdam, New York, Naples, Barcelone, Anvers, Gênes) et à des complexes industriels (Linz, Liège, Mannheim-Ludwigs-hafen, Nuremberg, Francfort). Monographies juxtaposées, apportant d’utiles renseignements sur chaque point traité, mais sans les idées générales que l’on pouvait attendre à la vue du titre.
- Vignes et Vins de France, par Louis Jacquelin et René Poulain, i vol. 18,5 X 26, 407 p., nombreuses cartes et photographies en héliogravure hors texte. Flammarion, Paris, i960. Prix, cart. : 35 NF.
- Cet excellent travail apporte une claire synthèse, un peu énumérative peut-être, mais consciencieuse et très utile. Après avoir rappelé les origines (Antiquité et Moyen Age) de la viticulture occidentale, les auteurs passent en revue ses éléments (sol, climat, ceps, travaux et jours du vigneron, œnologie...), puis insistent sur les régions viticoles françaises. Aucun vignoble n’est oublié, même les plus restreints en étendue ou en renommée ; quelques mots apprécient les crus, les cépages, leurs caractéristiques... Un remarquable chapitre est consacré au « bien-boire » (soins préalables
- MASSON et C'e, éditeurs
- PRÉCIS DE SCIENCES BIOLOGIQUES
- publiés sous la direction du Professeur P.-P. GRASSÉ
- PRÉCIS DE ZOOLOGIE
- I : INVERTÉBRÉS
- Pierre-P. GRASSÉ
- Membre de l’Institut,
- Professeur à la Faculté des Sciences de Paris
- PAR
- Raymond-A. POISSON
- Membre correspondant de l’Institut, Professeur à la Faculté des Sciences de Rennes
- Odette TUZET
- Professeur à la Faculté des Sciences de Montpellier
- Premier ouvrage [à paraître dans la nouvelle « Collection de Précis de Sciences biologiques ». Le tome I du PRÉCIS DE ZOOLOGIE traite des Invertébrés. A l’anatomie ont été consacrés les développements que légitime son importance, mais en toutes occasions la biologie des animaux a été relatée dans ce qu’elle a
- de plus important et de plus caractéristique.
- L’ouvrage, en même temps qu’aux étudiants, s'adresse au corps médical et au grand public cultivé.
- Un volume de 920 pages, avec 739 figures (une partie en couleurs) [16,5x24,7] ...
- PROSPECTUS SUR DEMANDE
- ..... Broché : 85 NF
- Cartonné toile : 95 NF
- 143
- p.143 - vue 147/551
-
-
-
- à apporter au vin, apéritifs, menus et choix des vins, verres, vocabulaire). Ouvrage de référence, auquel il faudra sans cesse avoir recours quand on voudra se documenter sur tel ou tel point intéressant la culture de la vigne et la répartition de la production des vins dans notre pays. Cartes très claires et belles photographies. — P.W.
- Terres vivantes. Voyage d’un agronome autour du monde, par René Dumont, i vol. 14 x 21, 334 p., 4 ill. et 10 cartes dans le texte, i6 ill. hors-texte. Coll. Terre humaine. Plon, Paris, 1961. Prix : 17,88 NF.
- Encore un admirable exposé de l’auteur des Voyages en France d’un agronome. Partout revient l’angoissant problème de la faim du monde, à travers quinze enquêtes conduites du Chili à la Roumanie, du Mexique à Israël. Avec lucidité, l’auteur conclut que d’immenses possibilités restent perdues par ignorance et par routine, mais aussi que l’écart prévu par Malthus entre population du globe et disponibilités alimentaires va en s’aggravant... Livre lumineux, clair, direct, sans recherche ; mais livre plein de tendresse pour cet « homme de la terre, giflé d’eau et de vent, opiniâtre, pathétique ». — P. W.
- Le livre des côtes de France, par Jean Merrien. Tome III : Méditerranée (Roussillon, Languedoc, Côte d’Azur, Corse). 1 vol. 13 X 20, 412 p., cartes. Robert Laffont, Paris 1961. Prix : ij NF. Troisième et dernier volume de la trilogie consacrée aux côtes françaises, aux plages, aux lieux de vacances, aux îles, aux ports... Attentif mais plaisant, sérieux mais souriant, ce livre est un modèle de tourisme détendu.
- Lâ Tunisie. Ses régions, par Jean Despois. Collection Armand Colin, n° 357, 1 vol. 10 X 16, 224 p., cartes. Armand Colin, Paris, 1961. Prix : 5,70 NF.
- Tableau excellent, comme il se devait de la part du grand spécialiste des questions tunisiennes qu’est Jean Despois. Remarquable présentation des problèmes avant tout régionaux de l’économie tunisienne, démontrant que les tentatives de solution doivent tenir compte de la diversité des terroirs et des sociétés humaines.
- Science ând human values, par J. Bronowski. 1 vol. 14,5 X 21,8, 96 p. Hutchinson, Londres, 1961. Prix, cart. toile sous jaquette : 12 sh 6 d. La xre partie est une suite de réflexions sur l’esprit créateur. Dans sa définition de la science, l’auteur choisit un point de vue délibérément empirique qui absorbe les réalisations techniques les plus banales et souligne l’efficace de la pression sociale dans les découvertes. Il tient pour fondamentale la déduction analogique dans l’exploration des domaines inconnus de la nature. Dans le reste de l’ouvrage, Bronowski examine le conflit des diverses qualités de vérités qui entrent en compétition dans l’allégeance de l’esprit des hommes et la valeur morale des progrès scientifiques. Un livre discutable, mais en aucune manière indifférent.
- Médecin pour arche de Noé, par Gabriel Barrière, docteur vétérinaire. 1 vol. 12 X 18,5, 242 p. Crépin-Leblond, Paris, 1961. Prix : 10,80 NF.
- Ce petit livre plein d’humour et, parfois, d’émotion nous apprend comment on devient vétérinaire et comment on exerce ce métier, non seulement utile à la communauté, mais attachant par tant de côtés. Nous apprendrons aussi comment les progrès de la médecine ont profité à l’art vétérinaire, quand ce ne fut pas l’inverse.
- Conférences du Palais de la Découverte.
- Signalons, aux Editions du Palais de la Découverte, les intéressantes conférences suivantes (brochures 13,5 X 18,5, d’une vingtaine de pages et d’un prix modique) : Tes nombres entiers, leurs problèmes et leurs mystères, par Charles Pisot, professeur à la Sorbonne ; Actions chimiques provoquées par les processus et les rayonnements nucléaires, par M. FIaissinsky, professeur à la Sorbonne ; Ondes, corpuscules et physique moléculaire, par Marcel Rouault, professeur à la Sorbonne ; Les plantes et le froid : données physiologiques et applications, par R. Ulrich, professeur à la Sorbonne ; Le « conta-gium vivum » avant Pasteur, par Luigi Belloni, professeur à l’Université de Milan.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- le dessin technique directement au net
- CRAYONS et MINES
- TECHNOGRAPH
- mTnTTrrrmmillimniTÏÏIlTllïïlllUllIlIlllllllimUU
- TECHNOGRAPH
- ...
- en graphite
- • JT
- micronise
- Un
- NOUVEAU PROCÉDÉ
- CARAN d'ACHE
- permet d'obtenir du graphite "fniC'fDHifC" au grain quasi colloïdal, donnant à la mine des qualités fort appréciées :
- • Pointe extra-fine • Trait onctueux
- • Résistance accrue • Usure minime
- • Reproductions photo et hëlio aussi nettes qu'à l'encre de CHINE.
- • 17 graduations.
- £h Cûul&uAS, crayons et mines PRISMATEC offrent les mêmes avantages. (18 teintes)
- chez votre papetier
- B***""*1
- DISTRIBUÉ par CORECTOR-ADHÉSINE
- ZCH. LEMONNIER W
- Le Gérant : F. Dunod. — DUNOD, Éditeur, Paris. — Dépôt légal : Ier trimestre 1962, N° 3957. — Imprimé en France. Imprimerie Bayeusaine, 6-8, rue Royale, Bayecjx (Calvados), N° 3122. — 3-1962.
- p.144 - vue 148/551
-
-
-
- Une technique nouvelle au service de la Sylviculture
- La Photologie
- Les passagers des courriers aériens qui, de plus en plus nombreux, survolent notre planète, sont fréquemment étonnés de l’importance considérable des formations forestières qui s’étalent sous leurs yeux. Et en effet, les dernières statistiques de la F.A.O. (année i960) font ressortir une surface boisée mondiale de 44 millions de kilomètres carrés, représentant le tiers des terres émergées du globe. Une bonne partie de ces forêts, soit 17 millions de kilomètres carrés, sont encore à peu près inexploitées, mais le surplus, de consistance très variée du reste, est soumis à des coupes plus ou moins régulières qui fournissent, chaque année, un volume appréciable de bois 'divers, évalué actuellement à un peu moins de 2 milliards de mètres cubes.
- En France où, depuis les temps historiques, on peut estimer que les forêts sont en constante régression (malgré l’effort efficace de boisement des terres incultes accompli récemment grâce à l’aide du Fonds Forestier National), on compte encore près de 116 000 km2 de surfaces boisées, soit environ 20 pour 100 de notre territoire national.
- Bien entendu, la façon dont les forêts sont traitées varie considérablement avec les caractéristiques des peuples qui les possèdent : simple cueillette chez les nations primitives, coupes brutales chez celles qui considèrent leurs ressources comme inépuisables, sylviculture raisonnée et prudence enfin dans les pays de civilisation ancienne, où la préservation des ressources ligneuses est apparue, de longue date, comme une impérieuse nécessité.
- La sylviculture, dans son acception large, peut être définie comme l’art de traiter les forêts, en vue d’en obtenir une production régulière optimale en quantité et en qualité. Ses principes généraux consistent, étant donné que les arbres sont en général réalisés à un âge avancé (qui va de quelques décennies à près de deux siècles), à partager chaque massif en un certain nombre de secteurs qui sont successivement exploités, pendant que les autres croissent et s’étoffent, en vue des réalisations futures. Les cantons
- Fig. 1. — Essence d’ombre et essence de lumière.
- En haut, trois sapins pectinés de 2 ans, développés en cases de végétation, respectivement (de gauche à droite) sous des éclairements relatifs de 12 p. 100, 37 p. 100 et 100 p. 100 ; sur cette «essence d’ombre», du moins dans le très jeune âge, l’effet de la lumière est peu marqué. En bas, trois mélèzes d’Europe, âgés de 2 ans également, développés dans les mêmes conditions respectives ; l’effet de la lumière est considérable dès le premier âge (Roussel, 1933).
- par Louis Roussel
- des forêts que l’on prive ainsi, totalement ou partiellement, de leurs plus grands arbres, doivent être regarnis en espèces (ou essences forestières) économiquement intéressantes. En France, ce sont principalement des « feuillus », comme le chêne, le hêtre, le peuplier, le frêne, l’érable et l’orme, etc., ou bien des conifères (appelés aussi résineux), comme le sapin, l’épicéa, les pins divers et le mélèze, par exemple.
- Pour que les parties exploitées des forêts soient recouvertes de « renaissances » qui donneront, plus tard, des arbres réalisables à leur tour, on peut utiliser la faculté qu’ont certaines essences forestières de se reproduire abondamment par voie de semences (on obtient alors un peuplement appelé futaie, fournissant plutôt du bois d’œuvre, et les coupes destinées à en obtenir l’amorce sont appelées,
- {Photo Stainacre).
- p.145 - vue 149/551
-
-
-
- dans un sens large, coupes de régénération). On peut également avoir recours à des plantations, surtout fréquentes dans le cas des résineux et des peupliers. On peut enfin profiter du pouvoir qu’ont certains arbres feuillus de rejeter de souche après leur exploitation, et le peuplement que l’on obtient alors est appelé taillis ; il produit surtout du petit bois de chauffage. Il existe du reste un traitement mixte, appelé taillis sous futaie, où futaies et taillis sont cultivés en mélange.
- Etant donné la tendance actuelle de la sylviculture moderne, qui consiste à orienter les forêts vers la production des arbres de futaie, réalisés à un âge avancé, ou de jeunes peuplements réguliers destinés à fournir du bois d’industrie (raperie), l’importance des coupes de régénération va croissant.
- Importance du facteur lumière en Sylviculture
- Quels sont donc les principes qui, traditionnellement, guident les forestiers dans la conduite des coupes de régénération ? D’abord, on marque une coupe légère, dite d’ensemencement, destinée à isoler les cimes des meilleurs arbres qui, bien insolés, seront amenés à fructifier davantage. La semence produite tombe au sol et y germe. Il faut alors asseoir une série de coupes dites secondaires, destinées à mettre en lumière, plus ou moins rapidement du reste, les jeunes sujets installés dans les sous-bois. Faute de le faire, on risque fort de les voir dépérir et disparaître.
- La cadence et l’intensité des coupes de régénération varient selon que l’on a affaire à des essences dites de lumière (le chêne pédonculé ou le mélèze par exemple) qui réclament, très tôt, un grand découvert, ou bien, et avec tous les intermédiaires imaginables, à des essences d’ombre (le hêtre ou le sapin notamment), lesquelles, dans leur jeunesse, ont besoin d’un certain abri contre le gel et l’insolation, en même temps qu’elles tolèrent bien un éclairement réduit (fig. i). Les coupes sont dites sombres, claires, très claires ou à_ blanc, selon l’intensité des réalisations effectuées dans le peuplement principal. De même, quand on installe artificiellement de jeunes résineux dans des peuplements feuillus pauvres (charme, aulne, noisetier, etc.), il est nécessaire, avant et après cette opération, de pratiquer des coupes spéciales destinées à maintenir les plantations dans un climat lumineux favorable.
- Les forestiers ont acquis, de longue date, une habitude certaine de ces divers genres d’opérations, selon l’essence forestière envisagée, mais, et il est très important de le souligner, l’appréciation des éléments ci-dessus est purement qualitative, en raison surtout de la variabilité extrême du microclimat lumineux des sous-bois, en raison aussi des difficultés que l’on rencontrait, jusqu’ici, à déterminer, de façon quantitative, la valeur de la lumière visible, ou de la radiation solaire globale, qui règne dans telle ou telle station sylvestre.
- Les problèmes de la photologie forestière
- Depuis quelques décennies cependant, de nombreux chercheurs avaient jeté les bases d’une méthode plus scientifique, où l’emploi de procédés, d’abord rudimentaires comme le simple papier photographique (Wiesner 1907),
- Fig, 2e — La répartition de la lumière dans le milieu forestier est un phénomène très complexe.
- {Photo Stainacre).
- puis de plus en plus perfectionnés (luxmètres à cellules photoélectriques et actinomètres de modèles variés), devait permettre de répondre, progressivement, aux principales questions suivantes :
- — Quelle lumière règne dans telle ou telle station forestière ?
- — Quelle est la variation de ce facteur provoquée par une coupe ?
- — Quelles sont, en cette matière, les exigences, à leurs différents âges, des principales essences forestières ?
- C’est l’ensemble de ces études systématiques que l’on peut réunir sous le nom de « photologie forestière », le radical photos étant, ici, pris dans le sens large de radiation naturelle ; du reste, d’une façon assez générale, chaque fois que nous emploierons dans cet exposé le terme de lumière, il faudra comprendre l’ensemble des radiations, visibles ou non, qui nous parviennent du soleil et du ciel.
- Avant d’examiner, de façon très sommaire, la façon dont l’ensemble de ces travaux se présente, il convient d’insister sur le fait que, si le facteur lumière est important en matière de physiologie végétale (donc forestière), il est loin d’être unique, et que d’autres éléments, les températures moyennes et extrêmes, les précipitations, les vents, sans compter bien entendu le sol lui-même, interviennent à des titres divers pour assurer la bonne croissance des jeunes arbres intéressants. Mais, dans une région bien déterminée, dont le sol et le climat sont connus de longue date, c’est sur le facteur lumière que les forestiers agissent, principalement, par les coupes de régénération, et il n’est pas rare d’enregistrer en quelques années, dans une station donnée, une variation de cet élément progressant dans la proportion de 1 à 100 par exemple.
- Premier type de problème : Quelle est la lumière qui règne dans un peuplement forestier à l’état stable ?
- Dans une station de plein découvert, la lumière varie perpétuellement, et ce de façon considérable, suivant l’époque de l’année et l’état du ciel notamment. Il en est de même dans les sous-bois, et toute mesure instantanée, exprimée par un chiffre absolu, ne signifie à peu près rien du point de vue pratique. A l’opposé, des observations de très longue durée donnent des chiffres qui, énoncés en lux-heures ou en calories par centimètre carré, ont une valeur certaine. Mais il est souvent difficile d’installer et de surveiller, pendant plusieurs années, des appareils délicats, et souvent coûteux, loin de tous lieux habités. De nombreux auteurs, Fairbairn en particulier, ont récemment insisté sur les difficultés considérables de ce genre de mesure. Pour ces raisons, on préfère souvent utiliser la notion d’« éclairement relatif», ou rapport entre la lumière régnant dans tel ou tel sous-bois et celle du plein découvert au même moment. Cet éclairement relatif, qui représente le facteur de transmission optique des cimes, sans être d’une constance et d’une rigueur absolues, présente cependant un intérêt certain, à condition d’opérer par temps couvert bien égal (Naegeli 1940 ; Roussel 1953 ; Vezina i960). Par temps ensoleillé, il est facile de comprendre que la présence, dans les sous-bois, de petites taches mobiles au sol, lumineuses et sombres, rend les mesures beaucoup plus délicates.
- Dans les forêts résineuses à aiguilles persistantes de notre
- 146
- p.146 - vue 150/551
-
-
-
- p.147 - vue 151/551
-
-
-
- Fig. ). — Petite trouée dans une futaie de résineux du Haut-Jura.
- Au milieu des ronces et des fougères, de jeunes épicéas se sont établis (en bas à gauche). Quand ils seront plus nombreux, le forestier viendra, grâce à des « coupes de régénération », apporter la lumière nécessaire à leur bon développement ultérieur.
- (Photo Stainacre).
- pays (sapin, épicéa, pins divers) on trouve, en général, que les cimes agissent comme des grilles qui réduisent la quantité de lumière sans modifier beaucoup sa composition, et ce de façon assez constante pendant toute l’année. Une formule empirique a été proposée (Roussel 1948), qui relie l’éclairement relatif au sol (Er) au nombre des tiges par hectare (N) des peuplements résineux du Haut-Doubs :
- E - K
- T K + N
- dans laquelle K représente un facteur constant pour chaque essence forestière (20 dans le cas de l’épicéa). Ainsi, dans une futaie d’épicéa, à l’état stable, comprenant 500 tiges par hectare, l’éclairement relatif au sol est d’environ 4 pour 100. Le cas des résineux est donc, de ce point de vue, assez simple (fig. 4).
- Dans les forêts dites feuillues (chêne, hêtre, charme notamment) on enregistre, par contre, une double modification de la lumière des sous-bois. D’abord, évidemment, en quantité, et ce de façon variable selon le développement des feuillages. Quantin (1935) a relevé ainsi des valeurs d’éclairement relatif allant de 2 à 3 pour 100 environ, en
- Distances en mitres comptées depuis la lisière du massif
- Fig. 4. — L’éclairement relatif diminue rapidement quand on pénètre dans une futaie d’épicéa dense des hautes chaînes du Jura.
- Densité du peuplement : 521 tiges et 729 m3par hectare (Roussel, 1948).
- 148
- p.148 - vue 152/551
-
-
-
- Fig. J. — L’éclairement relatif subit de fortes modifications dans le courant d’une année, sous un taillis sous futaie, à dominante de chêne, du Jura méridional.
- (D’après Quantin, 1935).
- été, jusqu’à 70 ou 80 pour 100 en hiver, sous un taillis sous futaie clair du Jura méridional (fîg. 5).
- Mais on note, en outre, une modification de la qualité de l’éclairement, surtout au printemps ; les feuillages agissent alors comme des filtres qui colorent légèrement en vert la lumière sylvestre. Dès l’année 1914, Knuchel avait mis en relief ce fait, grâce à un spectrophotomètre à source lumineuse constante. Plusieurs observateurs l’ont,
- très récemment, confirmé. De ce point de vue, les feuillus se présente donc d’une façon plus complexe que les résineux (fig. 6 et 7).
- Second type de problème : Quel est l'apport de lumière réalisé dans le sous-bois par une coupe d'intensité donnée ?
- Quand un forestier a pratiqué une coupe dans un peuplement, l’enlèvement des arbres désignés entraîne, au sol, un apport de lumière plus ou moins important, mais essentiellement temporaire. En effet, les cimes des arbres qui restent sur pied, partiellement isolées, s’étendent, et le couvert se referme, plus ou moins rapidement du reste, selon l’âge et la nature de l’essence forestière en cause. Il est donc nécessaire de recommencer périodiquement l’opération. Dans un massif boisé, soumis à des coupes successives, un graphique représentant les variations dans le temps de l’état lumineux au sol aurait une allure « en dents de scie », chaque cran étant plus ou moins décalé vers le haut par rapport au précédent.
- Voici, à titre d’exemple, l’apport de lumière réalisé initialement par des coupes d’intensité nettement déterminée :
- Sous une futaie de sapins, âgés de 80 ans environ, assez dense et régulière (625 tiges et 427 mètres cubes par hectare), l’éclairement relatif au sol était d’environ 4 pour 100. Pour mettre en lumière de jeunes épicéas, installés là depuis quelques années par suite d’un phénomène d’alternance assez fréquent dans le Haut-Doubs, une coupe de régénération réalisant 23 pour 100 du matériel a été marquée et exploitée. Immédiatement après l’exploitation, l’éclairement relatif au sol est passé à 18 pour 100 et a été plus que quadruplé. Un peuplement de ce genre se referme lentement et, dans cette lumière, les jeunes épicéas commenceront à se développer ; mais il faudra revenir fréquemment en coupe pour arriver à les mettre finalement en plein découvert.
- Fig. 6. — Les cimes d’épicéa agissent comme des grilles qui modifient peu la composition spectrale de la lumière verticale.
- (D’après Knuchel, 1914).
- Fig. 7. — Les cimes de hêtre agissent plutôt comme des filtres qui colorent en vert et en jaune la lumière verticale, d’une façon un peu excessive ici.
- (D’après Knuchel, 1914).
- oJtM ofj.47 oJl5Z
- indïcjo bleu vert
- 0/159
- jaune
- Oju. 65 rvuge
- 149
- p.149 - vue 153/551
-
-
-
- Un taillis sous futaie des moyens plateaux du Jura, composé de charmes âgés d’une trentaine d’années, avec quelques rares arbres plus âgés, et d’une densité de tiges voisine de 4 800 par hectare,- ne présente guère, pendant sa période estivale de foliaison, qu’un éclairement relatif au sol de l’ordre de 3 pour xoo environ. En hiver, cet éclairement relatif dépasse 50 pour 100. De jeunes sapins sont à y planter, afin d’améliorer la production de la forêt, et il faut, dès le départ, leur assurer un peu de lumière. Une « coupe d’abri » est assise. Elle ne laisse que x 400 tiges par hectare. Après son exploitation, l’éclairement relatif au sol passe à 18-20 pour 100 et se trouve donc au moins sextuplé. Ainsi, dans cette lumière, les jeunes sapins pourront demeurer vigoureux ; mais les taillis de charme se referment très rapidement et, si l’on n’intervient pas, les résineux se trouveront, au bout de quelques années, dans un éclairement relatif de l’ordre de 5 à 6 pour 100, donc trop faible pour leur bonne croissance.
- Au lieu d’être diffuses, les coupes peuvent être localisées (trouées ou bandes). Dans ce cas, des considérations élémentaires de photométrie et d’astronomie permettent d’indiquer,
- Fig. 8. — Effet d’une trouée sur les jeunes chênes.
- Dans les trouées pratiquées en forêt, l’ensemble des jeunes chênes, rouvres et pédonculés, prend au bout de quelques années (dix dans le cas de cette photo) une forme typique dite en « cône de régénération ». Plusieurs facteurs peuvent être invoqués pour expliquer cet aspect, mais il semble que la répartition inégale de la lumière doive y jouer un rôle important.
- (Photo Bernard).
- approximativement, le mode de répartition de la lumière dans ce s diverses ouvertures.
- Troisième type de problème : Quel est T effet de la lumière sur la croissance des jeunes arbres ?
- C’est évidemment l’étude de l’influence, sur les jeunes arbres des sous-bois, de la lumière telle qu’elle a été mesurée selon les principes qui viennent d’être exposés, qui présente le plus d’intérêt pour le forestier. En effet, toute son action doit être dirigée vers le développement des jeunes régénérations, naturelles ou artificielles, qui constitueront l’avenir de la forêt.
- On a parlé, déjà, de la distinction primordiale entre les essences de lumière (du type chêne ou mélèze) et les essences d’ombre (du type hêtre ou sapin). Or, à ce sujet, les chercheurs ont buté longtemps sur une difficulté, aujourd’hui à peu près résolue par les travaux des nombreux botanistes qui ont suivi, sur ce point, les idées de Ph. Guinier : celle des races locales ou êcotypes. On pense, maintenant, qu’il n’y a pas, par exemple, un seul sapin pectiné (Abies pecti-nata D.C.) mais de nombreuses races locales de cette espèce qui, dans les Vosges, présentent le caractère net d’essence d’ombre et qui, dans le Sud de la France et en Italie centrale, deviennent des essences de demi ou de pleine lumière (Giacobbe 1956). Ceci, tout au moins pendant les premières années de leur développement. Les expériences illustrées par certaines des figures de cette étude ont porté, il convient donc de bien le préciser, sur les races locales suivantes : Haut-Jura pour le sapin, l’épicéa et le pin à crochets ; Alpes centrales françaises pour le pin noir et le
- 150
- p.150 - vue 154/551
-
-
-
- Fig. cf . — En pleine forêt, on observe une corrélation marquée entre le développement des épicéas âgés de 4 ans et l’éclairement relatif qu’ils ont reçu.
- Comparer avec l’effet peu marqué de la lumière sur des sapins de 2 ans (fig. 1).
- (D’après Roussel, 1948).
- mélèze ; Massif central pour le pin sylvestre ; moyenne vallée de la Saône pour les chênes rouvre et pédonculé. Les chercheurs ne doivent, en tous cas, jamais perdre ces questions de vue.
- Une autre difficulté se présente au sujet des critères à adopter pour déterminer quelle est la lumière la plus favorable à la bonne croissance des diverses essences forestières. Il y a, certes, un minimum absolu, au-dessous duquel le jeune arbre ne peut pas vivre. Les substances hydrocarbonées, élaborées par la photosynthèse, ne seraient pas suffisantes pour remplacer celles qui sont brûlées par la respiration. D’une façon très générale, ces phénomènes ont été étudiés, pour l’épicéa et le pin cembro, par les chercheurs de l’Ecole d’Innsbruck (Pisek, Tranquillini et Winkler), grâce à l’ingénieux appareil URAS (Ultraro-tabsorptionsschreiber) qu’il serait trop long de décrire ici.
- D’un autre côté, pour les chênes rouvre et pédonculé, dans la moyenne vallée de la Saône, certaines observations récentes semblent montrer que, si la germination des glands se fait aussi bien sous un éclairement relatif de 3 pour 100 au sol qu’en plein découvert, dès le début de la seconde année de végétation, quand les réserves de la semence sont épuisées, les sujets qui ont bénéficié pendant un an d’un éclairement relatif inférieur à 4 pour 100 dépérissent et meurent. Sous 5 à 6 pour 100, ils se maintiennent encore pendant quelques années, assez peu vigoureux du reste. Le seuil de survie est ici très net, et cette limite ne prête guère à contestation (fig. 10 et 11).
- Mais, dans la zone d’éclairement relatif supérieur, l’effet favorable de la lumière est, semble-t-il, plus complexe,
- et il est bien plus facile à mettre en évidence chez les résineux (le sapin et l’épicéa notamment) que chez les feuillus. Au bout de quelques années, sous une lumière de plus en plus élevée, les premiers offrent un aspect général de plus en plus florissant, leurs tiges et leurs racines se développent en parfait équilibre et, surtout, la longueur et le diamètre de leurs pousses annuelles s’accroissent de façon régulière. Chez les feuillus, par contre, surtout s’ils ont crû à l’état isolé, l’effet favorable de la majoration de la lumière, à partir d’un certain pourcentage (10 à 20 pour 100 par exemple), semble moins net. On peut tenter d’expliquer ce fait de la façon suivante :
- L’éclairement croissant des appareils foliacés provoque, jusqu’à une limite élevée, chez les résineux comme chez les feuillus, une augmentation du rythme de leur activité photosynthétique et se présente indéniablement, de ce point de vue, comme favorable. Mais cet éclairement de plus en plus vif a souvent une action freinatrice certaine sur les phénomènes de croissance cellulaire, et en particulier sur l’élongation des pousses annuelles. L’une des
- - FORET DE ROCHE *
- Fig.10. — Effet de la lumière sur le développement du jeune chêne.
- Bien que de dimensions différentes, les chênes rouvres et pédonculés restent vivants, sous des éclairements relatifs variés, jusqu’à la fin de leur première année. Au cours de leur seconde année, ceux qui ont reçu moins de 4 p. xoo d’éclairement relatif dépérissent et meurent (en haut). Un peu au-dessus de 4 p. 100 ils se maintiennent assez bien, mais leur aspect est bien moins favorable que celui des chênes qui se sont développés, pendant leurs deux premières années, en plein découvert (photo du bas) (Roussel, 1958).
- {Photos Bernard).
- 151
- p.151 - vue 155/551
-
-
-
- Fi g. il.— La tigelle du chêne pédonculé d’un an est d’autant mieux développée que le sujet a reçu un éclairement relatif plus élevé, et ceci jusqu’à
- $o p. 100.
- Coupes faites transversalement au milieu de la tige épicotylée. A gauche, éclairement relatif de z p. 100, à droite de 50 p. 100 .fp., zone fibreuse ; r.m., rayons médullaires ; p.m.l., parenchyme médullaire lignifié ; p.m., parenchyme médullaire ; vx, vaisseaux ligneux ; P1, phloème ; sb, suber.
- (D’après A. Tronchet et A. Grandgirard, 1956).
- preuves nettes de cet effet retardateur est le « phototropisme» observé chez de nombreux végétaux : les tiges s’inclinent du côté éclairé, ce qui démontre un ralentissement de la croissance des parties exposées à la lumière latérale. On explique ce phénomène par une destruction partielle des hormones de croissance (auxines) sous l’effet de la lumière. Or pour des raisons encore mal précisées, mais que l’on peut tout au moins imaginer (rôle de protection optique des écorces, nature spéciale des auxines, forte turgescence des pousses en élongation), certains résineux, le sapin et l’épicéa notamment, ne manifestent, dans la lumière latérale des sous-bois, aucun phototropisme. La lumière semble donc n’avoir aucune influence retardatrice sur la multiplication et l’élongation des cellules de ces arbres. Son action est principalement favorable.
- Par contre les feuillus, le chêne ou le hêtre par exemple, présentent en lumière latérale un phototropisme net ; par voie de conséquences, on peut admettre que la lumière circumglobale vient freiner leur élongation, sauf quand ils se présentent à l’état de régénération très denses, car les feuillages leur assurent, alors, un abri réciproque. En tout état de cause, les critères de croissance optimale sont, dans le cas des arbres feuillus, plus difficiles à préciser, et ce n’est que grâce à un nombre élevé de mensurations, portant sur des éléments nombreux, que certains chercheurs sont arrivés à mettre en évidence le rôle utile de la lumière (Vezina i960).
- On peut du reste très bien envisager l’extension de ces sortes d’études à la phytosociologie, ou science des associations végétales caractéristiques des différents sous-bois, à la pédologie, et en particulier à la biologie des sols, car les microorganismes sont sensibles à l’action des rayons solaires, ou bien à d’autres disciplines encore. Leur champ d’application semble, en effet, très vaste.
- *
- * *
- Et cependant, il ne faudrait pas conclure de cet exposé que la photologie forestière est, actuellement, entrée pleinement dans la pratique des opérations culturales. Bien au contraire, très rares sont les forestiers qui, de nos jours, se fient aux indications précises d’un luxmètre ou d’un acti-nomètre. Il ne faut nullement s’en étonner. Toute technique nouvelle a besoin du temps pour s’élaborer et se confirmer. Mais on peut être assuré que celle que nous venons d’exposer, en raison du fait qu’elle, ambitionne de substituer, à des termes vagues et généraux, des éléments chiffrés caractérisant parfaitement un facteur très important en matière sylvicole, gagnera peu à peu du terrain et se révélera, dans quelques années, un des auxiliaires indispensables des multiples activités du f restier.
- Louis Roussel,
- Conservateur des Eaux et Forêts.
- Coton de couleur naturelle
- En étudiant minutieusement des dizaines de milliers d’hybrides obtenus par le croisement de diverses variétés de cotonnier à fibres blanches, le professeur Ivan Maximenko découvrit chez certains d’entre eux une coloration verdâtre des fibres, à peine marquée. Puis, en croisant entre elles les variétés ainsi sélectionnées, il aurait obtenu des fibres de coloration de plus en plus soutenue. Telle est la nouvelle qui nous est venue de Moscou, par l’agence Novoski. Le coton,
- naturellement coloré en vert, se distinguerait en outre du coton ordinaire par une plus grande solidité et une imperméabilité élevée. Auparavant, le professeur Maximenko s’était signalé par la sélection de variétés de coton à longues fibres, d’un rendement très élevé, et par la découverte d’une espèce dont les feuilles tombent naturellement lors de la période d’ouverture des capsules, ce qui rend beaucoup plus aisée la mécanisation des récoltes. (Bulletin d’information Soviétique).
- La « Grande Charte » sous argon en Australie
- Le seul des seize exemplaires originaux de la Grande Charte de 1215, revêtus du sceau royal de Jean sans Terre, qui ne se trouve pas en Angleterre est exposé dans la galerie royale du Parlement de Canberra, la capitale australienne. Afin d’éviter que le précieux parchemin ne souffre de son transfert aux antipodes après un séjour de plus de sept siècles dans le climat humide et frais de l’Angleterre, les spécia-
- listes australiens ont imaginé de le conserver dans une atmosphère inerte. La Grande Charte repose désormais dans une vitrine étanche de verre, qui a été remplie d’argon. Un filtre, en arrêtant les rayons ultraviolets, empêche le parchemin de jaunir. Un détecteur spécial installé dans la vitrine contrôle en permanence l’étanchéité de celle-ci. (Information de l’Ambassade d’Australie).
- 152
- p.152 - vue 156/551
-
-
-
- La prospection chimique
- des gîtes minéraux
- par Louis Thaler
- Aux moyens classiques de la prospection des gîtes minéraux, principalement des gîtes métallifères, se sont ajoutées depuis quelques années un ensemble de méthodes qui utilisent les indices d’ordre chimique que l’on peut relever à la surface du sol. Inaugurées par les chercheurs soviétiques, elles paraissent surtout rentables dans les pays « neufs » dont la structure géologique n’a pas été encore aussi complètement étudiée que celle de nos pays. Dans ce premier article, M. Louis Thaler expose les principes généraux et la mise en œuvre de l’analyse chimique directe d’échantillons du sol. Un deuxième article sera consacré à la prospection botanique, mode particulièrement original de prospection géo-chimique.
- t*.
- Pendant des siècles les hommes se sont contentés d’exploiter des minerais riches, et dont la présence à la surface du sol ne pouvait passer inaperçue. Lorsque ces gisements superficiels et apparents arrivaient à épuisement, on en recherchait d’autres dans la même région en se laissant guider par des considérations sur la structure du sous-sol et sur la genèse supposée des minerais. En un mot la prospection classique était géologique. On doit d’ailleurs la naissance de la géologie aux efforts cohérents d’explication des phénomènes du sous-sol que firent au xvine siècle des ingénieurs de l’art des mines. Aujourd’hui encore la prospection des gîtes minéraux est, dans nos pays du moins, le fait surtout de métallogénistes, c’est-à-dire de géologues.
- Les besoins de l’industrie en métaux de plus en plus divers et par tonnages de plus en plus grands ont conduit d’une part à l’exploitation de minerais de plus en plus pauvres (dont la présence ne se signale pas toujours par des caractères bien apparents) et d’autre part à la recherche de gîtes métallifères dans des régions qui se prêtent difficilement à l’étude géologique (recouvertes par des forêts denses, par des alluvions, des dépôts glaciaires, etc.). Aussi l’enquête géologique, avec sa patiente reconstitution de l’histoire de la croûte terrestre dans une région donnée, a tendance à faire place, au moins dans les premiers stades de la prospection, à des méthodes plus directes, au premier rang desquelles se placent les méthodes physiques : prospection des anomalies magnétiques, des anomalies de la pesanteur, des champs électriques telluriques, prospection sismique. L’usage intensif qui est fait de ces méthodes géophysiques dans la recherche des gisements de pétrole et la publicité qui leur a été faite nous dispensent d’en parler davantage.
- On a beaucoup moins parlé des méthodes chimiques de prospection et des méthodes botaniques qui leur sont appa-
- rentées. Dans les pays occidentaux elles sont d’un emploi moins répandu que les méthodes physiques. Les Russes sont incontestablement les pionniers des méthodes chimiques et botaniques. Les succès qu’ils ont remportés dans ce domaine ne sont sans doute pas étrangers à la décision appliquée au cours des dernières années par les Etats-Unis, le Canada, l’Australie, etc. de créer des services géochimiques analogues à ceux de l’U.R.S.S. Remarquons cependant que les réussites des prospecteurs russes, impressionnantes par leur nombre et leur importance (étonnantes même, eu égard au petit nombre d’années au cours desquelles elles furent faites, et à l’immensité du territoire exploré), ne peuvent s’expliquer uniquement par l’emploi de telle ou telle méthode particulière. Ces réussites s’expliquent avant tout par une organisation très poussée des équipes d’exploration, qui contraste avec le caractère individuel et quelque peu anarchique des études menées dans nos pays.
- Cette organisation traduit l’orientation utilitaire donnée à l’ensemble des sciences de la Terre en U.R.S.S. Elle ne serait pas transposable directement dans des pays comme la France, où il n’existe d’ailleurs aucune région dont la structure géologique soit totalement inconnue.
- Une « prospection intégrée »
- Les recommandations formulées en 1956 par Sofronov, un géochimiste réputé qui a longtemps participé aux travaux de « prospection géologique intégrée » dans l’extrême Nord-Est de l’U.R.S.S., donnent une idée de la puissance des moyens que les Russes consentent à déployer dans ces régions peu accessibles. Pour la prospection d’une aire de 5 à 7 kilomètres carrés (c’est-à-dire une région de dimensions réduites dont les levés cartographiques se font à l’échelle 1/5000), Sofronov préconise qu’une équipe stationne pendant quatre mois et remplisse le programme suivant :
- i° Etude géologique classique, c’est-à-dire en arpentant le terrain à pied, en échantillonnant les affleurements de roches à l’aide du marteau et en étudiant ces échantillons à l’aide du microscope polarisant ; étude particulièrement poussée des zones d’anomalies révélées par l’exploration géophysique préalable à petite échelle ;
- 20 Etude minéralogique des matériaux transportés par les ruisseaux et les rivières ;
- 30 Prélèvement pour analyse chimique d’échantillons en surface suivant des cheminements espacés ; si cet échan-
- 153
- p.153 - vue 157/551
-
-
-
- Fig. i. — La prospection des gîtes minéraux au 17e siècle, d'après Georgius Agricola.
- Dans cette /gravure extraite du célèbre ouvrage de Georgius Agricola, De R Metallica, publié à Bâle en 1657, on voit les prospecteurs au travail. Les uns utilisent la baguette| des sourciers
- (A) dont Agricola nous dit que d’aucuns la déclarent illusoire, et il ne prend pas parti. D’autres
- (B) pratiquent des excavations et en extraient des échantillons qu’ils examinent et ^classent. Agricola préconise d’étudier en premier lieu les concrétions qui se produisent aux sources, dort l’eau peut avoir traversé des veines métallifères. Il préconise aussi d’examiner la végétation qui peut être affectée de diverses manières par la nature du sous-sol ; en voit au dernier plan un prospecteur qui coupe une branche d’arbre (sur la prospection botanique, voir notre prochain article).
- {Document aimablement communiqué par la bibliothèque centrale du Muséum national d’His-toire naturelle).
- tillonnage permet de localiser des zones présumées privilégiées, celles-ci seront aussitôt l’objet d’une prospection géophysique à grande échelle ;
- 40 Prélèvement pour analyse chimique d’échantillons suivant des cheminements serrés, recoupant les anomalies révélées par les prospections géophysiques à petite et à grande échelle ;
- 50 Travaux de fouilles sommaires sur les points jugés les plus favorables (x 500 mètres cubes de terrassement environ) ;
- 6° Relevé topographique permanent de toutes ces opérations.
- En moyenne, les points de prélèvements d’échantillons pour analyse chimique sont distants les uns des autres de bien moins de 100 mètres. Pour ses travaux d’analyse chimique l’équipe s’appuie sur un laboratoire situé « à l’arrière », dont elle partage les services avec d’autres équipes.
- Un des aspects les plus originaux de cette prospection dite géochimique est l’utilisation systématique de données tirées de l’étude de la végétation, particulièrement pendant la phase exploratoire de la prospection. Cette prospection botanique que l’on peut aussi qualifier de biogéochimique semble jouer un rôle aussi important que la prospection géophysique à petite échelle ; nous l’exposerons dans un deuxième article.
- En sept ans, de 1948 à 1955, les prospecteurs russes ont cartographié géochimiquement une étendue de 160 000 kilomètres carrés répartis pour l’essentiel entre le Kazakstan, la Trans-Baïkalie, l’Extrême-Orient maritime et la région de Kabarovsk. En vingt ans, de 1935 à 1955, vingt-cinq millions de points de prélèvements ont été examinés (dont onze millions dans le seul Kazakstan central). La cadence des prélèvements n’a cessé de croître : neuf millions d’échantillons de 1948 à 1953, plus de dix millions de 1954 à 1955. Ces chiffres, que nous relevons dans le récent traité de prospection géochimique de Ginzburg, suffisent à faire comprendre combien l’expérience des prospecteurs russes dépasse celle des autres dans ce domaine, et pourquoi les travaux occidentaux actuels s’appuient directement sur les publications russes (1).
- Il serait fastidieux d’énumérer les aires minéralisées qui, en U.R.S.S., ont été découvertes grâce à l’emploi des méthodes chimiques et chimico-botaniques. Bien que ces recherches n’aient pas eu la même ampleur dans les autres pays, elles y ont déjà abouti à des résultats non négligeables. Nous indiquerons certains résultats acquis en U.R.S.S. et ailleurs en présentant chacune des méthodes, mais avant
- 1. Principes of Geochemical Prospecting, par I.I. Ginzburg. Trad. du russe par V.P. Sokoloff. 1 vol. 16 x 24, ix-312 p., 72 fîg. Pergamon Press, Londres, i960. Prix, relié : 70 sh.
- 154
- p.154 - vue 158/551
-
-
-
- de procéder à cette présentation il est bon de définir deux notions fondamentales, celle de halo de dispersion et celle d’élément indicateur, qui sont à la base de tout procédé chimique ou botanique de prospection.
- Les gîtes métallifères
- Une roche mérite le nom de minerai quand elle vaut la peine d’être exploitée industriellement pour le métal ou les métaux qui entrent dans sa composition. La concentration minimale compatible avec l’exploitation dépend du métal considéré ; ainsi, par exemple : pour l’aluminium cette concentration est d’environ 30/100, pour le cuivre de 0,7 à 10/100, pour le plomb de z à 4/100, pour le zinc de 3 à 8/100, pour l’or, l’argent et l’uranium, elle tombe à une faible fraction de pourcentage.
- Les accumulations de minerai qui constituent les gîtes, ou gisements métallifères, peuvent occuper des situations géologiques très diverses (fig. 2). On cherche généralement à classer les différents gisements d’après leur genèse, ou tout au moins d’après ce qu’on peut supposer de leur genèse. Les gisements magmatiques sont ceux qui résultent du refroidissement et de la cristallisation de magmas, c’est-à-dire d’énormes masses profondes de mélanges sili-catés fondus. Au cours du refroidissement il se produit une différenciation des magmas, c’est-à-dire un changement de leur composition, due à ce que certains minéraux cristallisent avant les autres et peuvent sous l’effet de la pesanteur s’accumuler au fond des réservoirs magmatiques. Telle serait l’origine des gisements de chrome du Bushveld (Afrique du Sud).
- Au contact des magmas les roches encaissantes subissent des transformations, dues en particulier à des migrations des atomes dans le milieu solide. Ces réactions à l’état solide aboutissent à des remplacements de minéraux les uns par les autres et ont entraîné la formation de nombreux et importants gisements appelés mêtasomatiques de contact (par exemple, le minerai de fer de Pennsylvanie). Que les accumulations utiles d’atomes métalliques se soient constituées en milieu « plutôt liquide » (différenciation magmatique) ou « plutôt solide » (métasomatose), elles sont généralement entourées de zones à moindre teneur par lesquelles on passe d’une façon plus ou moins régulière à des roches que l’on peut appeler normales.
- D’importants gisements métallifères se sont constitués dans les roches sédimentaires, en général au cours de la phase de transformation des sédiments meubles en roche proprement dite, phase connue sous le nom de diagenèse. Bien entendu, cette concentration métallique sous l’effet de la diagenèse suppose un apport préalable de métal dans le bassin de sédimentation (sous forme dissoute, ou sous forme de suspension). La diagenèse est conditionnée par de nombreux facteurs, température, pression, régime de circulation des eaux à travers le sédiment, potentiel d’oxydo-réduction, etc., sans oublier les bactéries. Les gîtes métallifères sédimentaires sont eux aussi entourés généralement de zones à moindre teneur établissant une transition avec les roches sédimentaires banales.
- En réalité la genèse d’un gisement de minerai peut rarement être rattachée avec certitude à un type bien déterminé. Elle ne peut jamais l’être dans le cas des filons métallifères, gisements de forme plus ou moins plane, qui recoupent les roches encaissantes : la circulation de mélanges
- Fig. 2. — Schéma mettant en évidence l’allure et les relations des différents gîtes métallifères.
- 1, inclusions ; 2, ségrégation ; 3, ségrégation périphérique ; 4, imprégnation diffuse ; 5, gîte de contact ou de métamorphisme ; 6, filons ; 7, gîte de substitution ; 8, gîte de remaniement ; 9, gîtes sédimentaires.
- (D’après L. Moret, Précis de Géologie, Masson, Paris).
- fluides et chauds ne fait pas de doute ; l’origine magmatique profonde est parfois prouvée (gisements pegmatitiques), elle est souvent suspectée (certains gisements hydrothermaux) ; l’apparition de phénomènes mêtasomatiques, dans la roche encaissante et dans le filon refroidi, est de règle. Les gisements filoniens sont environnés de zones à faible teneur en métal dues à l’infiltration dans les moindres fissures et craquelures au moment de la mise en place des filons et à la métasomatose plus ou moins étendue qui a affecté les roches encaissantes.
- Les gisements sédimentaires, filoniens, mêtasomatiques, magmatiques, se sont formés dans des conditions physicochimiques fort différentes de celles qui régnent à la surface du sol. On dit qu’ils se sont formés dans des conditions hypogenes. A proximité de la surface du sol régnent des conditions que l’on appelle hypergènes : basse pression, basse température, circulation d’eaux chargées en oxygène, gaz carbonique, substances organiques, etc. Dans les conditions hypergènes les gîtes métallifères, dont l’histoire est déjà
- Chapeau de fer
- Surface du sol
- yone lessivée
- zone de minerai oxydé
- la nappe phréatique
- . jone enrichie en sulfures
- jone du minerai inaltéré (ayant conservé les caractères hypogènes)
- Fig. 3. — Coupe schématique d’un filon de sulfures à l’affleurement.
- Dans les conditions hypergènes, la silice mobile et le fer oxydé ont tendance à monter et forment le « chapeau de fer » du gisement. Les sulfates et certains oxydes métalliques ont tendance à descendre et peuvent retourner à l’état de sulfure, d’où un enrichissement secondaire, à un certain niveau, du gisement (gîte hypergène).
- 155
- p.155 - vue 159/551
-
-
-
- Q1 BS2 B3
- Q
- Teneur en plomb f |o,01-0,02 ||||||o,04-0,07 [|||||o,15-0,3
- C%) | j* «jo,02-0,04|ijg)|o,07-0,15 [ jo,3-2.,5
- Teneur en zinc Teneur en cuivre
- 0,07-0,15 0,15-0,3 0,07-0,15
- si compliquée généralement, subissent une nouvelle évolution. Certains métaux sont dispersés. D’autres au contraire subissent une concentration plus poussée, comme on l’observe dans les « chapeaux de fer » qui surmontent certains filons de sulfures métalliques, si bien que certaines concentrations métalliques ne deviennent exploitables que dans les conditions hypergènes (fig. 3). Certains gisements enfin sont de nature exclusivement hypergène ; ce sont les gisements résiduels, résultant de l’action prolongée des eaux superficielles sur une roche-mère en grande partie
- Teneur
- Fig. 4. — Exempte de carte géochimique.
- Halos de dispersion du plomb, du zinc et du cuivre dans une zone « éluviale -diluviale » du Kazakhstan central. 1, plagioclase, «porphyres» à pyroxène-plagioclase, et leurs tufs ; 2, « orthophyres », « porphyres » quartzifères, et leurs tufs intensément silicifiés ; 3, filons de quartz ; 4, zones de silicification ; 5, dépôts « diluviaux».
- (D’après S.D. Miller, in I.I. Ginzburg, 1957).
- soluble dans certaines conditions climatiques. C’est le cas des sols tropicaux dont la latéritisation conduit à des gisements résiduels alumineux et ferrugineux (bauxite, etc.).
- Les halos de dispersion
- Nous avons insisté sur le fait que déjà dans les conditions hypogènes les gîtes métallifères étaient presque toujours environnés d’une zone dont la teneur en métal décroît avec la distance. Dans les conditions hypergènes, le déplacement des métaux peut être influencé par des facteurs supplémentaires. Si les métaux sont en solution, ils sont entraînés par le flux généralement horizontal des nappes aquifères et aussi par le flux ascendant que déterminent l’évaporation à la surface du sol et la transpiration des plantes. Les eaux de ruissellement, le vent, les glaciers, les microorganismes interviennent aussi dans le déplacement des métaux, qu’ils soient en solution ou sous forme de granules solides.
- Il résulte de l’action de tous les facteurs de dispersion (hypogènes et surtout hypergènes) que les formations les plus superficielles (en particulier le sol, mais aussi les allu-vions, les eaux, etc.) qui environnent l’affleurement d’un gîte métallifère ont une teneur en métal plus forte que les mêmes formations situées dans des conditions normales. En faisant l’analyse chimique d’échantillons provenant de points suffisamment rapprochés, on peut dessiner une carte des « anomalies chimiques » superficielles liées aux gisements métallifères (fig. 4), de la même façon qu’on dessine la carte des anomalies de la pesanteur, des anomalies de la conductibilité électrique, etc.
- A ces anomalies chimiques on donne généralement le nom de halos de dispersion. Les halos de dispersion peuvent dessiner des auréoles concentriques correspondant à des teneurs décroissant dans toutes les directions autour d’un gîte. C’est ce qui se passe quand la dispersion métallique s’est faite surtout à l’état dissous, dans une région plate. Quand la pesanteur et la dispersion mécanique jouent des rôles prépondérants, les halos peuvent être excentriques (fig. 5), par exemple en éventail (cônes d’éboulis), ou rubannés (sables fluviatiles).
- Fig. j. — Section verticale à travers un halo de dispersion le long d’une pente douce.
- A partir du gîte métallifère représenté ici comme un filon presque vertical (en bas à droite), une dispersion s’opère dans le manteau de recouvrement d’épaisseur h. La pesanteur oriente la dispersion, celle-ci s’opérant mécaniquement ou sous forme de solution. Il en résulte qu’en surface, le centre du halo (point O) correspondant à la teneur maximale dans le manteau se trouve à une certaine distance du gîte ; c’est ce qui apparaît dans la courbe en cloche qui représente les teneurs (en haut de la figure).
- (D’après I.I. Ginzburg, 1957).
- 156
- p.156 - vue 160/551
-
-
-
- Il faut prendre garde au fait que des halos peuvent se former en dehors de tout gisement. Ces sortes de « halos fantômes » peuvent résulter par exemple de la concentration d’une solution métallique dans une dépression topographique fermée.
- Les éléments indicateurs
- Un halo est une anomalie chimique relative à un élément déterminé, le molybdène par exemple. Mais l’existence d’un halo de molybdène ne peut généralement pas être considérée comme l’indication d’un gîte utile de ce même métal. On y voit plutôt l’indice d’un gisement possible de cuivre, voire d’un autre métal encore. Inversement si l’on a entrepris la recherche d’un métal particulier, le cuivre par exemple, ce ne sont pas les halos de ce métal qui retiennent la plus grande attention. On détermine systématiquement les halos de toute une série d’autres métaux, le molybdène tout particulièrement. Pourquoi procéder ainsi ?
- Tout d’abord, la plupart des gisements sont polymétal-liques. Les gisements filoniens le sont pour ainsi dire tous ; songeons, par exemple, à la classique association de sulfures blende-pyrite-galène. On conçoit que le halo d’un métal, présent en quantité négligeable du point de vue industriel, puisse conduire à la découverte au même endroit d’une accumulation intéressante d’un autre métal.
- Le fait que la plupart des gisements soient polymétal-liques est un avantage pour le prospecteur. En effet la dimension d’un halo, sa forme et la valeur des indications qu’on peut en tirer varient avec l’élément métallique considéré et les conditions locales (fig. 6 et 7). Les facteurs de dispersion chimique d’un élément sont nombreux et inter-agissent de façon complexe. La faculté qu’ont les
- Fig. 6. —Deux exemples de dispersion des métaux lourds par infiltration.
- Les deux schémas représentent la dispersion au toit (c’est-à-dire au-dessus) et au mur (c’est-à-dire au-dessous) de deux gîtes polymétalliques dans l’Altaï. En A, il s’agit d’un gisement formé par une veine unique, au toit de laquelle se trouvent des tufs (cendres volcaniques), tandis qu’au mur alternent des sédiments argileux silicifiés et des roches acides diverses (les traits discontinus indiquent une répartition discontinue du métal considéré). En B, le gisement
- (veine) est formé de masses dispersées ; il est surmonté de « porphyres».
- (D’après I.I. Ginzburg, 1957).
- Mo Bi
- - - bas
- 300 ----
- Distance du minerai ( m )
- Fig. 7. — Graphique de dispersion de métaux lourds par diffusion dans une roche carbonatée.
- Cette figure met en évidence la décroissance logarithmique, en fonction de la distance, de la teneur en éléments lourds dans la roche encaissante (ici une dolomie). On observe en outre que les distances parcourues par les ions lourds dans les carbonates sont bien plus faibles que dans le cas de la figure 5. La même veine (Eurêka HilEMine, Tintic Area) traverse aussi des roches d’autre nature où la dispersion se fait plus largement.
- (D’après Morris et Lovering, in Ginzburg).
- éléments de se déplacer (leur mobilité propre) est variable : le magnésium, l’aluminium et le fer sont très peu mobiles ; l’étain et le tungstène le sont davantage ; le plomb, le zinc et le cuivre sont très mobiles. La perméabilité des roches aux atomes et aux ions métalliques est elle aussi variable : les roches compactes inaltérées (granités, gneiss, marbres et autres roches intrusives ou métamorphiques) sont peu perméables ; les roches sédimentaires détritiques sont d’autant plus perméables qu’elles sont moins consolidées. Il s’agit d’une perméabilité au sens chimique, qui n’est pas directement liée à la perméabilité relative à l’eau dans les conditions habituelles de la technique humaine. Ainsi les argiles imperméables à l’eau, sont des roches particulièrement perméables au point de vue chimique, ce qui signifie qu’à l’échelle de temps des phénomènes géologiques les atomes et les ions métalliques y circulent très rapidement.
- La mobilité des métaux, la perméabilité des roches, telles que nous venons de les considérer, sont des propriétés fiées aux dimensions des atomes et des ions, ainsi qu’à celles des réseaux cristallins. Mais la composition chimique proprement dite du milieu joue un rôle non moins important dans la formation des halos. Dans le cas très important des gisements de sulfures métalliques, qui subissent les effets de l’oxydation, de l’hydratation et du lessivage dans la zone d’altération superficielle (conditions hypergènes), on constate que la mobilité du zinc est due à la solubilité de son sulfate. Mais cette mobilité diminue fortement en présence d’acide carbonique. Il en va de même pour l’argent (sulfate soluble, carbonate peu soluble) qui, de plus, est stoppé si des arséniates ou des chlorures peuvent se former. La faible mobilité du plomb, aux environs des
- 157
- p.157 - vue 161/551
-
-
-
- Fig. 8. — La prospection des gîtes minéraux au 20e siècle.
- Un géologue dans un laboratoire temporaire de prospection géochimique, près de Mullan, région de Shoshone (Idaho), en août 1951.
- (Photo U.S. Geological Survey).
- mêmes gisements de sulfures, tient à ce que son sulfate est peu soluble (son carbonate l’est encore moins). Le cuivre comme le zinc tendent à précipiter au voisinage des roches carbonatées (calcaires et dolomies). En présence de silice mobile ces deux métaux forment des composés insolubles, chrysocolle (cuivre) et calamine (zinc). Suivant les circonstances, un élément pourra donc présenter un halo trop diffus, ou au contraire trop réduit, ou encore trop irrégulier, et il faudra en utiliser d’autres.
- Une dernière considération peut conduire à l’utilisation de certains éléments, de préférence à d’autres, c’est le degré de sensibilité des analyses auxquelles ils se prêtent. Ainsi par les méthodes spectrographiques, la teneur minimale décelable de molybdène est cent fois plus faible que pour le zinc et le tungstène et, par les méthodes colorimétriques, dix fois plus faible.
- Les éléments utilisables comme indicateurs dans les conditions les plus variées (c’est-à-dire pour la prospection des gisements de divers types, et en utilisant les diverses méthodes que nous envisageons plus loin) sont le plomb, le zinc, le nickel, le cuivre, l’argent, le cobalt, l’arsenic et l’uranium. Viennent ensuite le molybdène, le tungstène, le baryum, le chrome, le sélénium, le titane et le mercure.
- Spectrographie contre colorimétrie
- En prospection chimique il est souhaitable de pouvoir relever tout halo, à quelque élément qu’il se rapporte. Il faut d’autre part analyser de très nombreux échantillons, prélevés en des points rapprochés. La spectrographie répond à ces conditions : possibilité de déterminer simultanément toute une série d’éléments (couramment jusqu’à trente-deux, et parfois davantage) ; simplicité, bon marché, rapidité (des dizaines de milliers, voire des centaines de milliers d’échantillons examinés par instrument et par an).
- C’est sur la spectrographie qu’est essentiellement fondée la prospection chimique en U.R.S.S. Selon Dobrova, il existe des laboratoires équipés de trois spectrographes qui, fonctionnant jour et nuit, ont une productivité quotidienne de 2 000 à 3 000 déterminations comprenant la recherche de plusieurs éléments dans chaque spectre.
- La spectrographie a toutefois des inconvénients pratiques : difficulté de transport de l’appareillage, nécessité de courant électrique, besoin d’un personnel hautement qualifié. Les déterminations quantitatives ne sont pas très précises. Enfin une limitation majeure du procédé tient à ce que la détermination des éléments est globale : elle ne révèle pas la répartition possible d’un élément entre plusieurs minéraux associés.
- Les méthodes chimiques classiques de mise en évidence des métaux pris individuellement (méthode de la perle, méthode de la poudre) sont sans utilité dans la recherche
- 158
- p.158 - vue 162/551
-
-
-
- des halos, qui demande des résultats quantitatifs. La tendance actuelle dans le domaine de l’analyse purement chimique est à l’utilisation de réactifs spécifiques, comme les réactifs à la dithiozone, qui permettent des dosages par colorimétrie, souvent plus précis et plus sensibles que par spectrographie (tableau I).
- Tableau I. - Teneur minimale décelable de quelques éléments
- EN MILLIGRAMMES PAR KILOGRAMME D’ÉCHANTILLON (D’après I. I. Ginzburg).
- Elément Spectrographie Colorimétrie
- Zinc 100 10
- Nickel 10 15
- Cuivre 5 10
- Cobalt 10 10
- Plomb 20 10
- Argent j 1 0,2
- Tungstène 100 IO
- Molybdène 1 I
- En général la spectrographie est utilisée de façon prépondérante pendant la phase exploratoire de la prospection. Elle cède progressivement la place à la colorimétrie quand on entreprend la prospection à plus grande échelle.
- Outre la spectrographie et la colorimétrie, des méthodes particulières peuvent être mises en œuvre, comme l’électro-dialyse qui permet d’extraire les métaux absorbés sur les minéraux argileux.
- La méthode des sols
- L’étude du halo de dispersion peut être conduite de diverses façons. On peut échantillonner les plantes, les eaux et même l’air du sol. Mais le domaine d’élection de cette prospection, celui pour lequel les méthodes ont été particulièrement mises au point, c’est la couverture de formations meubles, ou tout au moins peu cohérente, qui cache le sous-sol rocheux sur de vastes étendues : alluvions des vallées, dépôts glaciaires des plaines septentrionales, dépôts éoliens, sols de toutes sortes. Cette méthode était déjà pratiquée par de nombreux chercheurs russes avant la dernière guerre mondiale et fut l’objet d’un ouvrage publié par Fersman en 1940 ; elle a reçu de Ginzburg le nom de prospection métallométrique, et d’autres l’ont appelée, de façon peut-être trop restrictive, méthode des sols.
- C’est dans les régions sèches, voire arides, qu’elle donne les meilleurs résultats, grâce à l’ascension capillaire des
- solutions minérales, entretenue par l’évaporation. Dans ces régions, il suffit de prélever des échantillons à 10 ou 20 cm de profondeur (pour éviter les contaminations dues au vent). Dans les régions à climat humide (plus de 500 mm de précipitations par an) et dans les régions marécageuses, dont le sol est lessivé, les prélèvements doivent être faits à plus grande profondeur.
- L’analyse élémentaire se pratique sur la fraction à grain fin du prélèvement, celle qui contient les ions solubles, les ions adsorbés, les sels précipités. On procède inversement toutefois sous climat froid, où la dispersion des métaux résulte surtout d’actions mécaniques.
- Dans les sols et autres formations de surface, les éléments indicateurs recherchés ont surtout été jusqu’à présent le plomb, le zinc, le molybdène, le tungstène et l’étain. Le plomb est un des meilleurs éléments indicateurs dans les sols. Ses halos de dispersion sont en général de faible dimension et peu déplacés par rapport à leur source, ce en quoi ils contrastent avec ceux des autres éléments (cuivre, zinc, argent), des gisements polymétalliques courants.
- L’intérêt du molybdène en tant qu’indicateur dans les sols tient en grande partie à la sensibilité du spectrographe à son égard (voir le tableau I). Il est utilisé dans la recherche des gisements de cuivre, élément dont la répartition dans les sols est par contre assez déroutante.
- Les gisements de nickel, cobalt et chrome se forment généralement dans l’écorce d’altération superficielle, aux dépens des roches ultra-basiques et des amphibolites. Il semble que la recherche de ces éléments dans les sols soit un procédé de prospection prometteur.
- Enfin, la détermination du fluor, du baryum et du lithium dans la formation superficielle peut conduire à la découverte de filons hydrothermaux.
- La méthode des eaux
- L’analyse chimique des eaux courantes (fig. 9), des eaux de source, de l’eau des puits et des forages est un appoint considérable à la prospection chimique. C’est une méthode qui a ses caractères propres. Au cours de la prospection des eaux on ne se contente pas de déterminer les ions métalliques, on dose également les anions, comme l’ion sulfate, indicateur possible d’un gisement de sulfures en cours d’oxydation. On doit tenir compte du pH et de la teneur en oxygène dissous, qui exercent une influence importante sur la mise en solution, ou au contraire la précipitation des sels minéraux.
- Dans les eaux comme dans les roches, les éléments indicateurs ne sont pas forcément ceux qui constituent les concentrations intéressantes au point de vue économique.
- 200 -
- 160 -
- 120 -
- E 40 -
- 12 11 10 98 7 6 5 4
- Distribution des points d observation te long du cours d'eau
- Sens du courant
- Fig. 9. — Exemple de prise en charge de métaux par un ruisseau.
- Ce diagramme représente la teneur en métaux des eaux d’un ruisseau de l’Altaï (ligne pleine) et de ses affluents aux points de confluence (ligne discontinue). Les graduations en abscisses représentent la distance le long du cours d’eau ; les petits cercles sont les points où les prélèvements d’eau ont été opérés (tant dans le ruisseau que dans ses affluents) ; les chiffres donnent les numéros d’ordre des tributaires (les petits carrés étant les points de confluence). Les points 7, S, 9 correspondent à l’emplacement ainsi décelé du dépôt métallique.
- (D’après Sergeev in Ginzburg).
- 159
- p.159 - vue 163/551
-
-
-
- Ainsi la teneur des eaux en argent et en zinc peut être utilisée pour rechercher des gisements de plomb. De même à la recherche du cobalt on mesure la teneur en nickel. Le fluor, le bore sont indicateurs de gisements hydrothermaux. La radioactivité des eaux peut mettre sur le chemin de gisements d’uranium, mais aussi conduire à des gîtes intéressants où ce métal ne joue qu’un rôle secondaire.
- La méthode des eaux semble avoir été particulièrement appliquée à la recherche des gisements de cuivre. Autour de certains de «ces gisements, on observe dans les eaux souterraines un halo de dispersion caractérisé par la présence de certains éléments indicateurs (le cuivre lui-même, le zinc, bien développé, l’argent, et souvent le molybdène) et par une acidité due à l’ion sulfate.
- L’analyse isotopique est une intéressante tendance de la prospection des eaux. On sait que la proportion des différents isotopes d’un élément dans un minéral est une caractéristique du gisement de ce minéral. En particulier, la proportion des isotopes radioactifs et celle des isotopes stables auxquels aboutissent les chaînes de désintégration permettent, moyennant certaines précautions, de calculer l’âge du gisement. En reconnaissant telle composition isotopique à une eau donnée, on pourrait être conduit à supposer qu’elle a été en contact avec tel type de gîte métallifère qu’on pourrait alors rechercher. Les éléments qui
- semblent se prêter à l’élaboration de cette méthode sont le soufre (32S et 31S), l’oxygène (ieO et 18Û) et quelques métaux.
- Dans les régions montagneuses, la méthode des eaux sous ses diverses formes peut servir de fil directeur pour la prospection, car de nombreuses sources y proviennent directement du sous-sol. Dans les régions à manteau superficiel épais et dans celles qui sont couvertes de forêts, une part importante de la prospection repose sur l’analyse de l’eau des puits ou des forages éventuels.
- Disons enfin quelques mots'sur une méthode annexe, l’analyse des émanations gazeuses. Celle-ci a été très utilisée dans la prospection des hydrocarbures. Mais on a également appliqué la détection de l’hélium et du radon à la recherche des gisements de métaux radioactifs. On envisage actuellement de prospecter la présence de vapeur de mercure dans l’air du sol, présence indicatrice de certains dépôts métalliques. Un procédé d’analyse mis au point par le Russe Sergeev permet de déceler un milligramme de mercure dans un mètre cube d’air.
- Nous envisagerons dans un deuxième article la prospection géochimique à l’aide de la végétation.
- (à suivre). Louis Thaler,
- Maitre-Assistant à la Faculté des Sciences de Montpellier.
- Automatisation en psychologie expérimentale
- Essayant de déterminer le processus cérébral qui se déroule lorsqu’un être humain apprend à s’acquitter d’une tâche, simple ou complexe, le Dr Karl Pribam, de l’Ecole de Médecine de l’Université de Stanford (Californie), et ses collaborateurs ont été amenés, comme nombre de chercheurs, à procéder à des tests sur des singes. Mais, s’ils parvenaient à faire accomplir à leurs élèves une tâche donnée moyennant une récompense (généralement une cacahuète), il leur fallait ensuite passer des mois, pour ne pas dire des années, à analyser les résultats ainsi obtenus.
- Le Dr Pribam, nous apprend une information du Centre culturel américain, pensa alors à utiliser les techniques de l’automatisation. Les chercheurs mirent au point une « machine à tests » qui présente à l’animal une série de problèmes, le récompense lorsqu’il les résout correctement, et enregistre les résultats sur une bande de papier perforé qui est ensuite introduite dans un ordinateur. Le gain de temps ainsi réalisé est considérable.
- L’appareil se présente sous la forme d’un bâti sur lequel sont disposées 16 petites fenêtres munies de boutons. Un certain nombre de chiffres lumineux ou de symboles divers apparaissent à ces dif-
- Nouveau type de panneau chauffant
- En moulant un produit thermodurcissable à base d’amiante et de matière plastique, appelée « Durestos », sur une résistance électrique, un fabricant britannique a réalisé un nouveau type de panneau chauffant. La température de surface atteindrait 80 à 9o°C pour une puissance de 500 watts. Ces panneaux pourraient servir aussi bien comme radiateurs ménagers lorsqu’on désire une chaleur assez douce que comme plateaux de germination pour semences. Us peuvent se laver sans dommage.
- férentes fenêtres et le singe apprend à appuyer sur le bouton voulu. Si la réponse est correcte, le symbole lumineux s’éteint et la machine donne une cacahuète au singe. Si elle est inexacte, le symbole s’éteint également mais aucune cacahuète n’est distribuée. La machine peut, par exemple, être réglée pour récompenser l’animal lorsqu’il appuie sur le bouton correspondant à une fenêtre portant le chiffre 3, ou au contraire pour ne lui distribuer de cacahuète que s’il appuie sur le 3, puis sur le 2, enfin sur le 9, etc. Chaque fois que le singe procède à une opération, la bande enregistre le symbole choisi, sa position sur l’appareil, et indique si une récompense a été attribuée ou non.
- Quatre programmes différents, comportant chacun 120 dispositions possibles des symboles, peuvent être utilisés. L’expérimentateur laisse alors le singe en tête-à-tête avec la machine, les différentes dispositions des symboles étant modifiées à des intervalles réguliers. La machine peut même savoir quand le singe a appris un programme, et passer automatiquement au suivant. Mais est-il dans tous les cas souhaitable de supprimer ainsi toute relation entre le singe et l’expérimentateur ?
- R. R.
- Soudure par friction
- Un nouveau procédé de soudure a été mis au point par l’American Machine and Foundry Co, pour assembler bout à bout des pièces cylindriques de métal ou de céramique. L’une des deux pièces est mise en rotation à une vitesse qui peut atteindre 10 000 tours par minute puis appliquée bout à bout contre l’autre pièce. Le frottement crée une chaleur intense qui fond la surface de chacune des pièces, lesquelles se soudent alors l’une à l’autre en quelques secondes. (U. S. I. S.).
- 160
- p.160 - vue 164/551
-
-
-
- Poissons mangeurs de nageoires
- On avait remarqué depuis longtemps que beaucoup de poissons des rivières du Congo central montraient des nageoires mutilées, souvent gravement déchirées et coupées. On attribuait ces mutilations à des sangsues carnivores ou à des poissons voraces, ou encore à des insectes, surtout à un grand coléoptère aquatique du genre Cybister, qui attaque souvent les poissons, et l’incertitude régnait donc à ce sujet.
- Au cours d’une étude ichthyologique du lac Tumba, dans le Congo central, M.H. Matthes, de l’Institut belge pour la recherche scientifique en Afrique centrale, a reconnu que les coupables étaient des poissons de la famille des Citharinidés, et il a rendu compte de ses observations dans une note que publiait récemment notre confrère britannique Nature (7 octobre 1961).
- Rappelons que la famille des Citharinidés comprend des espèces de mœurs très diverses, herbivores ou au contraire carnivores et très voraces, peuplant l’Afrique et l’Amérique principalement dans les zones équatoriales et tropicales. C’est à cette famille qu’appartiennent les fameux Piranhas de l’Amazone (Serrasalma), poissons de petite taille dont les dents sont extraordinairement tranchantes et qui, se déplaçant en bandes nombreuses, s’attaquent aux animaux qui viennent boire dans les rivières et même à l’homme, quand il a l’imprudence de s’y baigner ou seulement d’y tremper les jambes ; ces poissons sont capables de faire disparaître en quelques heures le cadavre d’un bœuf.
- Les Citharinidés congolais mangeurs de nageoires appartiennent aux genres Phago, Eugnathichthys et Belono-phago ; avec quelques autres genres, on les groupe dans la sous-famille des Ichthyoborinés. Morphologiquement, ces poissons sont très spécialisés et possèdent une denture puissante bien adaptée à leur mode d’alimentation si particulier. Leur forme générale est très allongée, surtout chez les Belonophago ; leurs écailles sont extrêmement dures, souvent fortement ridées ; les mâchoires sont longues, étroites, en forme de bec. La bouche est grande, les dents habituellement bicuspidées, disposées en deux rangées parallèles, celles du rang externe bien plus grandes, fortes, aiguës, solidement insérées sur le bord du bec, formant une denticulation semblable à une scie. Chez les Eugnathichthys, plus grands que les Belonophago, les dents sont plus fortes et rappellent celles des Piranhas dont il parlé plus haut (fig. 1).
- L’intestin de ces poissons est très court, presque droit, contourné une seule fois avec de nombreux cæcums pyloriques ; l’estomac est grand et musculeux. En dépit de la nature osseuse des aliments ingérés, la digestion semble assez rapide car cet estomac est vide chez de nombreux individus ; chez d’autres, le contenu est composé exclusivement par divers fragments de nageoires et quelques écailles. L’intestin contient seulement des concrétions dures de nature calcaire.
- L’étude du comportement a été réalisée dans un grand aquarium où furent placés un individu de Belonophago
- hutsebauti et plusieurs autres espèces de poissons. Le Belonophago se tenait immobile sous des herbes flottantes, les nageoires pectorales seules animées de rapides vibrations. Dès qu’un autre poisson s’approchait, il s’élançait sur lui et, saisissant une nageoire entre ses longues mâchoires, en tranchait par une rapide torsion une portion plus ou moins étendue ; la victime, par ses contorsions pour se dégager facilitait elle-même la déchirure. Les victimes sont surtout des poissons herbivores à mouvements lents, comme les Distichodus (qui sont également des Citharinidés) et les
- Fig. 1. — Poissons du Congo central mangeurs de nageoires.
- En haut, Belonophago tinanti (X 2/9). En bas à gauche, denture de la mâchoire supérieure de B. tinanti. En bas à droite, bouche ouverte de Eugnathichthys eetvetdi, montrant les dents, beaucoup plus puissantes que dans le genre précédent. (D’après H. Matthes, dans Nature, avec l’aimable autorisation de l’éditeur).
- Tylochromis, ou encore des poissons qui cherchent leur nourriture sur le fond ; cependant des nageurs plus vigoureux peuvent être aussi attaqués. Les nageoires dorsale, anale et caudale sont celles qui sont déchirées, les nageoires paires n’étant presque jamais attaquées.
- Les poissons mangeurs de nageoires sont très communs dans la plupart des grandes rivières et dans les lacs où ils se tiennent en petits groupes près des bords, de préférence dans les endroits calmes, encombrés d’herbes flottantes. Ils jouent un rôle important au point de vue économique. Les blessures infligées rendent les poissons vulnérables et en font des proies faciles pour les prédateurs ; en outre, et c’est sans doute plus important, ces blessures s’infectent facilement et produisent des maladies graves.
- Ce curieux mode d’alimentation doit être considéré comme une spécialisation apparue chez des formes à habitudes particulièrement voraces, les Ichthyoborinés étant en grande majorité des carnivores.
- L. Chopard.
- 161
- p.161 - vue 165/551
-
-
-
- Comment et pourquoi les Vikings
- ont-ils obstrué le fjord de Roskilde ?
- Voici déjà de longues années, les pêcheurs danois avaient signalé que l’un des chenaux du fjord de Roskilde était obstrué par un vaisseau naufragé, rempli de pierres. Précisons que Roskilde, ancienne capitale du Danemark, est en même temps le lieu sur lequel sont centrés la plupart des souvenirs historiques du pays. Cette ville est située non loin du centre géographique de la grande île de Zeeland et le fjord, orienté nord-sud, qui la relie à la pleine mer s’enfonce profondément dans les terres.
- Il est donc certain que ce fjord a eu, pendant de longues périodes, une grande importance tant pour les actions militaires (offensives ou défensives) que pour le trafic commercial. Ce trafic a largement emprunté la voie d’eau dans le passé, de préférence à la voie terrestre que les techniques anciennes ne permettaient pas d’aménager ni d’utiliser avec toute l’efficacité désirable.
- C’est pour toutes ces raisons que l’obstruction d’un chenal dans le fjord de Roskilde revêt, au point de vue historique, un intérêt particulier. La légende locale attribue l’initiative de cette obstruction, sans doute volontaire, à la reine Margrethe qui régna sur le Danemark de 1387 à 1412. Cette légende est d’ailleurs sans fondement et
- par Gaston Cohen
- s’explique par le fait que la personnalité de la reine Margrethe a fortement imprégné le folklore danois. Sur toute la surface du pays, de nombreux sites et de nombreux objets anciens sont arbitrairement reliés au souvenir de cette reine médiévale.
- Avant même que des fouilles pussent être méthodiquement organisées, on a pu se rendre compte que la submersion du navire (on supposait alors qu’il était unique) remontait à une date beaucoup plus ancienne que la fin du xive siècle. A la suite d’explorations superficielles par les archéologues du Musée national de Copenhague et par des plongeurs amateurs en 1924, 1947 et 1956, quelques pièces de charpente ont pu être recueillies et les premières expertises révélèrent que ces pièces appartenaient à des vaisseaux de l’époque des Vikings.
- Fouilles en eau trouble. — Les fouilles entreprises à partir de l’été 1957 ont confirmé et précisé cette datation. Avant d’évoquer le déroulement de ces fouilles, il nous faut définir le point exact où elles ont eu lieu. Sur la carte (fig. 1), on a souligné en traits gras le chenal obstrué, connu sous le nom de Peberrenden. Il se trouve au nord-est du village de Skudelev et passe entre les îlots de Peber-holm et de Kolholm. Les courbes de niveau sous-marines montrent les très faibles profondeurs qui régnent en général dans le fjord. Elles dessinent, outre la passe de Pe-berrenden, un autre chenal ('Vimmelskaftet), situé plus à l’est. Il est évident que, même pour des embarcations de faille tirant d’eau, la navigation parmi les hauts fonds est difficile et que les chenaux avaient dû être repérés avec soin par les caboteurs du moyen âge.
- Fœrgçdal Gd
- Tgrogel Gd
- Bavnehoj
- -OJ n\Nl
- Vimmelskaftet
- Chenal de \> Peberrenden \
- Peberholm
- Strandgaard
- Chenal de\ Peberrenden
- Hyldeholm.
- Svmeholm 'JJ
- Û A N E(M A m
- Rù&Hiïàe-
- Ôtiense
- 1500 m
- Fig. 1. — Fragment de la carte du fjord de Roskilde.
- Les chenaux irréguliers apparaissent en traits fins. Les cotes font ressortir les faibles profondeurs du fjord. Le chenal de Peberrenden (en traits gras) est interrompu par une tache noire qui définit l’emplacement du blocage.
- I62
- p.162 - vue 166/551
-
-
-
- On pouvait estimer par contre que cette situation très particulière aurait dû faciliter grandement le travail des archéologues. Eux-mêmes, c’est-à-dire MM. Olaf Olsen et Ole Grumlin Pedersen, qui ont dirigé les fouilles, reconnaissent qu’ils se sont illusionnés à cet égard. Ayant déjà constaté qu’il ne s’agissait pas d’un seul navire submergé mais de plusieurs, ils ont cru néanmoins qu’ils pourraient sans trop de peine renflouer ces navires. Les réalités n’ont pas tardé à leur démontrer que la tâche se présentait de manière beaucoup plus complexe.
- Pour commencer, elle pouvait être comparée à une fouille terrestre car l’équipe n’avait guère d’eau que jusqu’aux hanches. Le travail était également favorisé par le calme et la relative limpidité du golfe, qui permettait de voir à travers l’eau jusqu’à une distance d’environ 5 m. Mais la forme et les dimensions du massif à explorer étaient loin d’évoquer celles d’un navire : les archéologues cheminaient en réalité sur un entassement de pierres long d’une cinquantaine de mètres et large en moyenne de 13 m. A la surface, un véritable sédiment de coquilles d’huîtres et autres lamellibranches, enfouies dans les algues.
- Ce premier aspect n’était pas des plus encourageants. Il excluait en tout cas l’idée d’abord caressée de faire passer des filins sous la coque d’un bateau et d’amener celui-ci jusqu’à la surface.. Un long et patient déblaiement s’imposait, pour lequel l’équipement et l’outillage adéquats durent être improvisés.
- Fig. 2. — Le ponton de travail (au deuxième plan) et le radeau de fortune des archéologues danois
- De part et d’autre du radeau, on voit émerger les torses des archéologues dans leur tenue d’homme-grenouille.
- La tenue des archéologues évolua au fur et à mesure de l’avancement de la fouille, jusqu’à être calquée sur celle des hommes-grenouilles (vêtements chauds couverts d’une combinaison imperméable). Ils avaient amené sur leur chantier un ponton où ils posèrent leur matériel (fig. 2). Par la suite, ils durent faire appel à un radeau de fortune, soutenu par deux barils. L’équipement fut complété par un tuyau et une lance à incendie, reliés à une pompe logée sur le ponton. Le jet ainsi obtenu permit de déblayer mécaniquement les matériaux légers, tels que coquilles et algues. Des précautions durent être prises lorsque la charpente des navires fut atteinte, car elle aurait pu souffrir d’un jet trop violent. Par la même occasion, les archéologues découvrirent que ce jet pouvait servir à leur propulsion personnelle (par réaction) à la manière des poulpes et des seiches !
- Mais dans l’intervalle il avait fallu s’astreindre à un travail de force qui consistait à enlever à la main les matériaux denses, à savoir les pierres dont le poids variait entre quelques centaines de grammes et 150 kg. Ces pierres déposées sur le radeau étaient ensuite emportées vers un autre emplacement.
- 163
- p.163 - vue 167/551
-
-
-
- Le travail se compliqua à partir du moment Où fut atteint le niveau vaseux qui correspondait (sous environ 3 m d’eau) au fond naturel du chenal. Tout déplacement intempestif avait pour effet'de transformer l’eau en une encre noirâtre où la visibilité, bien entendu, était nulle. Les savants Scandinaves évoquaient alors avec nostalgie les récits de découvertes archéologiques dans les eaux limpides de la Méditerranée.
- Quatre, puis six navires. — Ils n’en poursuivirent pas moins leur ingrate besogne. Pour guider leurs fouilles, ils avaient tendu au-dessus de l’entassement initial un léger câble métallique, fixé de part et d’autre à deux blocs de béton. Ce dispositif leur fournit un axe à partir duquel ils effectuèrent les mesures destinées à tracer le plan de la fouille.
- bois de pin sur les membrures en chêne, avec des clous en fer, confirment l’analogie de ces navires avec ceux découverts en Norvège et en Suède, notamment à Gokstad, Tune et Ladby, c’est-à-dire avec des embarcations de Vikings datant de la première partie du moyen âge. L’architecture navale de cette époque semble avoir été assez homogène d’un bout à l’autre des peuplements Scandinaves. Les navires étaient conçus pour la navigation à la voile, mais pouvaient accessoirement être propulsés par rames.
- Hypothèses historiques. — Au Musée national de Copenhague, deux datations ont été pratiquées par la méthode du carbone 14. Pour la première, les archéologues ont utilisé une touffe de laine de mouton qui avait servi au calfatage du navire IL Le deuxième échantillon était un
- Fig. 3. — Plan général du blocage de Peberrenden.
- Ce plan résume le résultat des fouilles après la campagne de 1959.
- Ce plan (fig. 3) montre la position des navires immergés. Les quatre premiers, numérotés de I à IV ont été reconnus pendant les étés 1957 et 1958. C’est en 1959 que les travaux de dégagement des bâtiments V et VI ont été entrepris et moins de détails ont été fournis à leur sujet.
- Les bateaux I, III et IV sont situés approximativement au même niveau, II à un niveau légèrement inférieur, ce qui laisserait supposer que d’autres navires pourraient être découverts plus bas. Les pêcheurs du fjord, à une époque indéterminée, ont tenté de rétablir le chenal et ceci; au détriment des navires I et II, dont il manque des parties importantes. C’est la structure du III qui a pu être le mieux étudiée. Sa longueur a été évaluée à 12 m, sa largeur et sa profondeur maximales à (respectivement) 3,20 m et 1,20 m. La forme définie par ces dimensions fait penser qu’il s’agissait d’un « cargo » de transport.
- La construction des quatre navires était en tout cas similaire, malgré des dimensions sans doute différentes. Dans chacune des épaves, on a pu constater la présence de membrures dont l’une, appartenant au navire II, a fait l’objet d’un assemblage (fig. 4). Tous les détails qui ont été relevés ainsi que le mode de fixation des planches en
- petit rameau de chêne trouvé parmi les pierres et qui avait vraisemblablement servi à protéger la coque lorsque celle-ci a été chargée puis submergée. Les résultats des datations sont concordants, l’une révélant une date de 910 ± 100, après J.-C., l’autre 940 ± xoo. Rappelons que la grande période des Vikings se situe entre la fin du ixe siècle et le milieu du xie siècle.
- Il reste à comprendre les motifs de l’obstruction volontaire du chenal de Peberrenden. MM. Olsen et Pedersen déclarent qu’elle répondait certainement à une intention stratégique. Ce chenal était le plus direct, le plus accessible et le plus souvent parcouru. Les défenseurs de Roskilde ont donc pu craindre (à une époque où la cité était en guerre) que des envahisseurs utilisent cette passe relativement facile. En la bloquant, on conservait le chenal de Vimmelskaftet, plus contourné et connu seulement des pêcheurs et des navigateurs locaux.
- Les historiens ont quelque peine à repérer l’événement historique qui pourrait correspondre à cette mesure défensive. Les raids de Vikings suédois et norvégiens sur les côtes danoises ont été nombreux à cette époque, ainsi que les conflits armés entre prétendants au trône du Danemark.
- 164
- p.164 - vue 168/551
-
-
-
- Fig. 4. — Reconstitution d’une membrure transversale de l’un des navires.
- L’assemblage a été réalisé au moyen de pièces découvertes à l’emplacement du navire II.
- Mais de tous ces combats, il ne reste, dans les chroniques, que des traces imprécises.
- Un seul événement se détache à travers les brumes de ce passé lointain : en 1133, le roi Niels quitta le Jutland, à la tête d’une flotte de cent navires pour mater un de ses vassaux révolté, auquel s’était jointe la population de Roskilde. La bataille dont le roi sortit victorieux eut heu sur la terre ferme, à 6 km au sud du blocage de Peberrenden et l’on peut supposer que cette défense de la baie l’avait obligé à débarquer prématurément. Toujours est-il qu’elle n’empêcha pas la ville d’être ravagée par ce roi vindicatif. Il est d’ailleurs probable que l’obstruction ne fut pas organisée à cette occasion et qu’elle existait déjà depuis longtemps, tout en ne conférant aux Roskildiens qu’une sécurité illusoire.
- Il est vraisemblable qu’on n’en saura jamais beaucoup plus sur l’immersion volontaire des six navires (ou davantage) dans ce fjord danois. Mais après plusieurs étés de fouilles les épaves ne sont encore que partiellement reconnues et restent toujours sur place. Les archéologues de Copenhague souhaitent achever leur travail en mettant à sec le chenal, grâce à un batardeau. Des ingénieurs et des équipes de spécialistes devront pour cela être mobilisés et les crédits nécessaires « débloqués », ce qui n’est peut-être pas plus facile que de dégager le chenal de Peberrenden !
- Les photos et documents, provenant du Musée national de Copenhague, nous ont été obligeamment communiqués par l’Ambassade du Danemark.
- Gaston Cohen.
- Recherches sur le nanisme
- Les nains se divisent en plusieurs catégories : il existe d’abord des nains à constitution proportionnée, encore appelés hypophysaires, chez lesquels les troubles de la croissance sont dus soit à un arrêt du développement de l’hypophyse pendant la période de développement du fœtus, soit à des lésions de cet organe survenues alors que l’enfant est encore tout jeune. Les études faites ont montré que la syphilis héréditaire, l’alcoolisme des parents et les lésions traumatiques du crâne (contusions à la tête, blessures par balles) étaient souvent la cause de lésions de l’hypophyse. Par ailleurs, des complications intervenant après des maladies infectieuses peuvent également influencer la croissance de l’enfant. A côté des nains hypophysaires, il existe aussi des nains dits thyroïdiens, dont l’activité insuffisante de la glande thyroïde n’arrête pas seulement la croissance, mais aussi le développement psychique. La troisième catégorie de nains est celle des disproportionnés : ils ont une grosse tête carrée, un tronc normal, mais des bras et des jambes courts. La cause de cette croissance anormale réside dans divers troubles du développement du cartilage.
- Matelas-litières pour étables
- Dans quelques années, les litières de paille traditionnelles des étables auront disparu. C’est du moins ce que prétend une société écossaise qui fabrique depuis peu des matelas-litières remplis de mousse de polyuréthane et recouverts d’un fort tissu de nylon, lui-même revêtu de chlorure de polyvinyle d’un vert tendre. L’humidité et les microbes ne peuvent pénétrer à l’intérieur de ces matelas qu’un arrosage à la lance suffit à nettoyer. Mais qu’en pensent les usagers ? (Information du Service de presse de /’Ambassade de Grande-Bretagne).
- Certains extraits de la glande thyroïde des animaux permettent de soigner les nains thyroïdiens. Après plusieurs mois de traitement, les enfants deviennent en général plus vifs et plus gais ; l’expression bornée de leur visage disparaît et ils grandissent normalement. Les nains proportionnés ou hypophysaires sont plus difficiles à soigner. Toutefois, des chercheurs soviétiques ont récemment découvert une hormone qui permet dans certains cas de régulariser une croissance anormale. Toutefois, l’hormone extraite des hypophyses de bœuf et de porc possède une spécificité qui la rend impropre au traitement de l’homme. Par contre, l’hormone extraite de l’hypophyse du singe et de l’homme convient. Des essais ont été entrepris et ont permis de soigner certaines formes de nanisme : les particularités externes de la croissance anormale disparaissent : la peau flasque de la figure se tend, les épaules se redressent et le port de tête devient normal. Peu à peu, aussi, la croissance prend son rythme normal. (Bureau soviétique d’information).
- R. R.
- Sexe et température extérieure
- Les femmes résistent mieux que les hommes aux températures élevées, affirme le docteur D.K. Kenshabo, de l’Université de Floride. A la suite d’expériences effectuées sur 15 hommes et 15 femmes, ce chercheur a constaté en effet que l’homme souffre si la température de sa peau dépasse 36°C (soit une température ambiante de 4o°C) alors que la femme supporte que la température de sa peau s’élève à 4o®C, ce qui correspond à une température ambiante de 48 à 50°C. (Information U. S. I. S.).
- 165
- p.165 - vue 169/551
-
-
-
- Les enseignements du vol orbital du colonel Glenn
- par Nicolas Vichney
- Il est inconstestable qu’en lançant selon une trajectoire orbitale et en récupérant dans les conditions prévues la capsule spatiale occupée par le colonel Glenn, les techniciens américains ont mis à leur actif une performance qui fera date et montré que l’avance qu’ils ont laissé prendre aux spécialistes soviétiques peut être sinon comblée, du moins réduite dans d’appréciables proportions.
- L’expérience, pourtant, avait débuté sous de mauvais augures. Plus de dix fois retardée, elle donna un temps l’impression d’avoir été mal préparée et on eut, semble-t-il, peine à croire que les conditions météorologiques se trouvaient seules à l’origine de tous ces ajournements. En fait, il fallait tenir compte de ce que ces conditions devaient être favorables dans quatre zones différentes : à l’endroit où la fusée porteuse de la capsule occupée par l’astronaute devait être mise à feu et aux alentours des trois points où l’engin était à même de retomber après avoir effectué une, deux ou trois évolutions autour du globe.
- Dans ces derniers cas, c’étaient l’état de la mer et la visibilité qui constituaient les facteurs déterminants : la capsule devait pouvoir tenir la mer le temps d’être repêchée ; il fallait pour cela qu’elle pût non seulement être repérée dans les délais les plus rapides, mais aussi que les vagues n’eussent pas un creux de plus de 1,50 m. Dans le premier cas au contraire, seul comptait l’état du ciel : dégagé à moins de six dixièmes, il ne permettrait pas de suivre à l’aide de moyens optiques la fusée porteuse durant la phase critique de l’envol, ce qui diminuerait la sécurité du pilote occupant la capsule. Or il faut être allé à Cap Canaveral, d’où l’opération devait se dérouler, pour se rendre compte vraiment combien le temps peut s’y montrer changeant : la couverture nuageuse varie d’un moment à l’autre et, de l’aveu des météorologistes spécialisés dans la prévision du temps en Floride, il est particulièrement malaisé de se faire, quelques heures à l’avance, une opinion sur l’état du ciel.
- En réalité, la première tentative américaine de vol orbital avait été très soigneusement préparée et certains vont même jusqu’à dire que les responsables de l’« opération Mercury », dont ce vol devait constituer une étape essentielle, avaient peut-être fait preuve d’une trop grande prudence, tellement nombreux avaient été les essais préparatoires. C’est le 9 septembre 1959 qu’ils débutèrent pour s’échelonner ensuite selon une procédure rigoureuse : mise à l’épreuve des conceptions qui devaient présider à la construction de la capsule spatiale ; essai de la fusée d’échappement destinée à remédier aux effets d’une
- défaillance de la fusée porteuse lors de l’envol ; lancement selon une trajectoire balistique d’une capsule vide, puis occupée par un singe (le chimpanzé Ham lancé le 31 janvier 1961) ; premières mises à feu de fusées Redstone porteuses de capsules occupées par des astronautes (5 mai, le commandant Shepard ; 21 juillet, le capitaine Grissom) ; lancement selon une trajectoire orbitale d’un simulateur de vol conçu pour permettre l’étude des réactions d’un passager, puis d’une capsule occupée par un singe (le chimpanzé Enos, lancé le 29 novembre 1961). Lorsque le colonel Glenn prit à son tour son envol, il occupait la neuvième capsule Mercury qui eût été projetée dans l’espace. Quant à la fusée porteuse, une fusée Atlas du modèle D, elle bénéficiait, sans avoir été soumise à d’aussi nombreuses épreuves que la Redstone employée pour les vols balistiques, des enseignement retirés d’une cinquantaine de tirs.
- Aussi l’opération s’est-elle déroulée exactement comme il avait été prévu : mise à feu le 20 février à 15 h 47, heure française, la fusée a injecté cinq minutes plus tard la capsule dans une orbite dont le périgée s’est établi à 160 km et l’apogée à 2 5 6 km, chiffres très proches de ceux qui avaient été choisis. La période de révolution s’est établie à 88 mn 29 s, et la durée totale du vol pour trois révolutions, y compris le temps de l’injection et la période de « rentrée » dans l’atmosphère, a été de 4 h 56 mn.
- Il s’en faut donc, quelle qu’ait été la perfection avec laquelle l’essai a été mené (la capsule est retombée dans l’Océan Atlantique là même où elle était attendue : à 1 300 km au sud-est de Cap Canaveràl et à proximité de l’île de Grand Turk) que le vol du colonel Glenn ait effacé celui réalisé le 6 août 1961 par le commandant Titov qui a effectué, lui, dix-sept révolutions autour du globe. Mais l’exploit réalisé le 12 avril 1961 par le commandant Gagarine se trouvait dépassé, puisque le premier cosmonaute soviétique avait seulement effectué une révolution autour de la terre.
- Incidences d’un programme varié
- Impossible, en effet, de ne pas chercher à opérer un rapprochement entre les expériences américaines et celles menées à bien par les Soviétiques. La conquête de l’espace, loin de revêtir la sérénité propre à toute entreprise scientifique, ne cesse de se ressentir du fait qu’elle est née sous le signe de la tension internationale et, qu’on le veuille ou non, elle revêt le caractère d’une course de vitesse entre les deux grandes puissances. Or, force est d’admettre que,
- 166
- p.166 - vue 170/551
-
-
-
- de ce point de vue, elle semble permettre aux Américains d’envisager l’avenir avec une certaine confiance.
- Il existe deux différences essentielles entre les programmes spatiaux suivis par les Etats-Unis et l’U.R.S.S. Alors que les Américains s’attachaient à mener à bien simultanément toute jjjpe série d’expériences (étude scientifique de l’environnement terrestre, mise au point de satellites « météorologiques » ou destinés à constituer un réseau de télécommunications, essais d’engins d’observation répondant à des objectifs militaires, lancement d’astronautes), le programme soviétique paraissait, lui, avoir été essentiellement axé sur l’envoi de l’homme dans l’espace. Il est frappant que tous les engins soviétiques aient été lancés suivi» des orbites semblables ; que déjà le second Spoutnik transportait à son bord une chienne ; qu’aucune expérience, hormis les tirs à la Lune de 19 5 9 et un malheureux essai en direction de Vénus^n’ait été tentée pour donner aux hommes de science russes les moyens de rassembler des informations nourries sur l’environnement terrestre. En fait,
- tout semble s’être passé comme si Moscou s’était lancé dans l’exploration de l’espace sitôt que des missiles à portée intercontinentale devinrent disponibles et avait, dès la première heure, cherché à étudier le sentier que l’homme pourrait suivre sitôt que seraient prêtes les superfusées seules capables de satellitiser les « vaisseaux-satellites » destinés à abriter un cosmonaute.
- C’est dans la disparité qui existe entre les poussées des fusées disponibles que réside la seconde différence entre les programmes spatiaux soviétiques et américains. Partis les premiers et à leur heure, les Russes imposèrent leur rythme et force fut aux Américains de s’y adapter vaille que vaille. Aussi leur fallut-il faire des prodiges pour mettre au point un habitacle d’une tonne et demie, poids limite imposé par la poussée de la plus puissante des fusées dont ils disposent, alors que les Soviétiques disposaient d’une charge utile de quatre tonnes et demie pour y loger leur cosmonaute.
- C’est de ce double point de vue qu’il convient de se
- p.167 - vue 171/551
-
-
-
- Fig. 2. — L’astronaute John Glenn revêtu de sa combinaison spatiale.
- Comprenant deux enveloppes, la combinaison est remplie d’air conditionné et sous pression. Une couche d’argent pulvérisé la protège contre la chaleur.
- (Photos du Centre culturel américain)
- p.168 - vue 172/551
-
-
-
- placer pour apprécier l’importance que revêt le vol orbital du colonel Glenn.
- Aucune ombre au tableau
- Son succès a d’abord prouvé, en effet, que la réalisation d’un programme de lancement de satellites occupés par des hommes n’était pas incompatible avec l’exécution d’autres programmes. Il a souvent été dit qu’à ne pas concentrer sur un seul projet les moyens dont elle dispose, l’Agence pour l’Aéronautique et l’Espace ne se plaçait pas dans les meilleures conditions pour combler le retard pris sur les Soviétiques. Peut-être serait-il préférable, disait-on, de consacrer davantage de crédits à la construction de fusées très puissantes et, en contrepartie, de réduire le nombre des tirs effectués à des fins purement scientifiques. L’expérience a montré que ces craintes pouvaient être écartées. Sans doute même l’effort de miniaturisation que les techniciens américains ont dû fournir pour tirer le meilleur profit possible des fusées mises à leur disposition pour l’étude scientifique de l’environnement terrestre leur a-t-il été profitable quand la question leur a été posée de construire un habitacle spatial d’un poids très réduit. De même, il a été prouvé que l’homme était parfaitement à même de résister aux conditions (accélération, décélération, état .d’impesanteur) imposées par le vol spatial : c’était répondre à d’autres critiques selon lesquelles tout programme visant à lancer un homme dans l’espace pouvait seulement présenter un intérêt limité, tant le passager humain se montrerait inférieur à son [poids d’appareillage électronique.
- Certes une première réponse à ces objections avait déjà été apportée par les premiers astronautes américains qui eurent à subir des accélérations relativement fortes, et surtout par les cosmonautes soviétiques dont le séjour en état d’impondérabilité s’évalue en heures. Encore le vol du commandant Titov avait-il laissé planer quelques inquiétudes, le cosmonaute ayant eu durant une bonne partie de son vol à souffrir d’un « mal de l’espace » qui n’était pas sans offrir quelques analogies avec le mal de mer. Fallait-il donc imaginer que les spécialistes que l’on mettrait demain en orbite auraient, tout en poursuivant leurs observations, à lutter continuellement contre la nausée ? Aucune ombre de ce genre, par contre, au tableau du vol mené à bien par le colonel Glenn qui, durant les 4 h 56 mn qu’a duré son triple périple autour du globe, s’est toujours senti, ainsi qu’il l’a déclaré à maintes reprises, aussi à son aise que chez lui. Peut-être le « mal de l’espace » n’apparaît-il qu’au bout d’un séjour plus prolongé en état d’impesanteur ? Bien des questions restent posées mais il n’en apparaît pas moins dès à présent que, au moins durant un certain laps de temps, l’occupant d’un engin « mis en orbite » peut jouir de l’ensemble de ses facultés.
- Automatisme non indispensable
- Le pilote n’a pas été seul, durant la dernière expérience spatiale américaine, à donner toute satisfaction ; il en a été de même de la capsule Mercury où il avait pris place. Pourtant, les conceptions qui avaient présidé à l’élaboration de cette capsule avaient été longtemps critiquées et si on doit sans doute imputer au regret de certaines firmes de n’avoir pas été choisies pour la construire quelques-unes des
- attaques dont cet engin a été l’objet, la preuve restait à faire que les techniciens responsables de son élaboration et de sa mise au point avaient bien réussi la gageure de faire en une tonne et demie aussi bien que les Soviétiques en quatre tonnes et demie. Or, force est d’admettre que l’engin s’est parfaitement comporté.
- Naturellement il y eut quelques incidents, dont un sans gravité et un autre qui se montra des plus instructifs. Le premier porte sur une défaillance du système de contrôle des divers dispositifs que compte la capsule : en suivant le vol de l’engin, les stations du réseau Mercury eurent tôt fait de s’apercevoir qu’à en croire l’un des signaux qu’elles recevaient, le bouclier protecteur contre la friction de l’air était sur le point de se détacher. Situation qui, confirmée, eût été grave : on sait que la capsule Mercury revêt la forme d’un gros tube cathodique dont le fond est formé d’un épais bouclier qui, dirigé vers l’avant durant la phase de « rentrée», doit résister à l’intense échauffement provoqué par le contact avec l’air (sa température atteint alors quelque 1 5000) et protéger, de ce fait, l’ensemble du véhicule contre un échauffement brutal que suivrait inexorablement une volatilisation... Les ingénieurs ne crurent pas que l’indication transmise par le signal était exacte, mais ils ne pouvaient prendre le risque de ne pas, malgré tout, en tenir compte. Aussi des instructions furent données à l’astronaute de ne pas larguer les trois rétrofusées après que, mises à feu, elles auraient décroché le satellite de son orbite : ces rétrofusées sont disposées sur le bouclier et, à les laisser en place, on se donnait une chance supplémentaire, mais non prévue dans la « procédure de rentrée », de maintenir le bouclier en place. C’est la présence de ces rétrofusées, qui naturellement n’avaient pas été conçues pour résister à la friction, qui explique que l’astronaute, lors de la « rentrée », ait déclaré qu’il avait vu des pièces chauffées au rouge : par la vitre de sa cabine, il a vu des morceaux de ces rétrofusées qui, après s’être détachées de la capsule, se perdaient dans le ciel.
- L’autre incident, tout aussi caractéristique, de ce qui peut survenir à un astronaute durant un vol spatial, a porté sur le contrôle automatique d’attitude dont était munie la capsule. Ce dispositif n’a pas fonctionné conformément aux prévisions à partir de la seconde révolution et, pour maintenir son engin dans la position voulue, le pilote s’est trouvé contraint d’user du système manuel de contrôle d’attitude dont la capsule était également munie. Ce faisant, il a apporté une démonstration brillante mais non prévue au programme que le dispositif automatique n’était pas indispensable. Les conséquences que les spécialistes ont aussitôt tiré du rôle joué par l’homme sont de trois ordres :
- — En premier lieu, ils ont constaté que si un homme n’avait pas été à bord pour se substituer à l’appareillage défaillant, l’engin n’aurait pu vraisemblablement être ramené au sol dans les conditions voulues.
- — Ensuite ils ont admis qu’il serait possible à l’avenir de de simplifier ce système automatique, et partant, de gagner du poids ; on pourrait donc, en contrepartie, accroître les réserves d’oxygène mises à la disposition du pilote et celles du gaz qui est employé dans le dispositif de stabilisation de la capsule ; le « rayon d’action » d’une capsule modifiée sur ces seules bases devrait, ont déjà estimé les spécialistes, pouvoir atteindre vingt-sept heures : autant
- 169
- p.169 - vue 173/551
-
-
-
- que celui du Vostok II occupé par le commandant Titov.
- — Enfin, il est apparu que la maniabilité d’un engin spatial piloté par un homme qui conserverait le plein usage de toutes ses facultés serait parfaitement de nature à permettre la mise en œuvre- de la technique du « rendez-vous spatial». C’est là un enseignement qui revêt la plus grande importance ; il avait été prévu et déjà des projets ont été élaborés qui permettront effectivement de réaliser des « rendez-vous », mais à constater que l’homme pourrait avantageusement se substituer à un dispositif électronique, les techniciens qui ont conçu ce projet audacieux se sont, paraît-il, sentis agréablement confirmés dans leurs vues...
- Le rendez-vous spatial
- On sait quel est le principe de la méthode du rendez-vous. Elle permet, dans le cas de tirs vers la Lune ou les planètes, de réaliser une substantielle économie dans la poussée des fusées porteuses : au lieu de construire des fusées capables de communiquer la vitesse de libération à des charges importantes (une douzaine de tonnes au bas mot pour un engin qui ferait le tour de la Lune et reviendrait sur terre), on peut se contenter de fusées qui soient à même de communiquer la vitesse de satellitisation à une charge plus faible, par exemple, d’un tiers. Mais alors on emploie deux de ces fusées pour mettre en orbite selon des trajectoires aussi proches que possible deux engins : l’un comprend l’habitacle des astronautes, le second un moteur-fusée. Il s’agit alors de faire se rapprocher ces deux engins jusqu’à
- Fig. 3. — Après son amérissage, la capsule qui contient le colonel Glenn est accrochée à un câble qui la montera à bord du destroyer
- Noa.
- ce qu’ils s’emboîtent l’un dans l’autre ; ceci réalisé, le moteur-fusée est mis à feu et communique aisément à l’habitacle l’énergie supplémentaire qui lui permet de quitter l’orbite décrite autour de la Terre et de s’« injecter» sur la trajectoire qui l’amènera dans les conditions voulues à proximité de l’objet céleste étudié.
- Sur le plan pratique cette méthode permet, pour réaliser des vols comparables, d’employer des fusées moins puissantes, donc d’une construction plus rapide : à y recourir, on gagne donc le temps indispensable à la mise au point d’un véhicule porteur plus avancé. Par exemple l’Agence pour l’Aéronautique et l’Espace a mis à l’étude, pour mener à bien son programme d’exploration de la Lune, plusieurs types de fusées Saturne ; pour un résultat comparable, la méthode du rendez-vous lui permettrait de faire l’économie du type de fusée offrant des performances immédiatement supérieures. Tout se passe mutatis mutandis comme si on pouvait réaliser avec des IRBM (missiles de portée intermédiaire) des expériences qui, réalisées par la méthode du tir direct, exigeraient le recours à des ICBM (missiles de portée intercontinentale). Or pour passer d’un type de fusée à celui qui lui est supérieur, il faut un minimum de deux années. Délai appréciable lorsqu’on entend poursuivre une course de vitesse et combler, pour ce faire, le retard initialement pris. A combien évaluer ce retard ? Si on rapproche la date où est entrée en service la première « superfusée » soviétique capable de satellitiser dans une première version quatre tonnes et demie et plus de sept tonnes dans une seconde version, et celle où la fusée Saturne du premier type, la Saturne Ci, sera à même de mettre en orbite des charges utiles de dix tonnes, on arrive à une évaluation de quatre années. Quelque grossier que soit ce calcul, quelque peu significatif que soit, d’une manière générale, tout effort pour traduire en chiffres un retard, on voit que la méthode du rendez-vous permet, en première approximation, d’effacer d’office la moitié du handicap.
- Naturellement, il reste à prouver qu’il est vraiment possible de réaliser de tels « rendez-vous » et, pour ce faire, les Américains ont déjà entrepris de construire une capsule, baptisée Gemini 6, qui sera en tous points semblable à la capsule Mercury, à ceci près qu’elle pourra abriter deux astronautes et servira essentiellement à mettre à l’épreuve les moyens susceptibles de conduire au succès de tels « rendez-vous». Que la capsule Mercury ait donné satisfaction est un précieux encouragement pour les constructeurs de la capsule Gemini qui peuvent dorénavant aller de l’avant. Que la démonstration ait été apportée que la capsule Mercury pouvait, avec un degré satisfaisant de précision, être pilotée par son occupant leur paraît encore de meilleur augure.
- *
- * *
- A côté de ces perspectives, les quelques observations effectuées par l’astronaute durant son vol ne sont, toutes proportions gardées, que de peu d’importance. Elles seront en effet approfondies lors des autres vols orbitaux que l’Agence pour l’Aéronautique et l’Espace compte entreprendre dès cette année. Mais il n’est pas certain que les pilotes du projet Mercury qui succéderont à Glenn puissent comme ce dernier, observer des « lucioles » volant autour
- p.170 - vue 174/551
-
-
-
- de la capsule... à moins que ne soit retenue l’explication selon laquelle il s’agit de gouttelettes du carburant contenu dans la fusée porteuse qui s’est trouvée satellitisée selon une orbite peu différente de celle suivie par l’habitacle de l’astronaute. Notons cependant dès à présent la précision des observations visuelles que Glenn a pu effectuer durant son vol : il s’agit là d’un renseignement qui sans doute portera à réfléchir ceux qui s’intéressent à l’étude des phénomènes météorologiques ou à l’examen de ce qui se passe au sol... Faut-il ajouter que dans ces conditions le spectacle offert
- aux yeux de l’astronaute doit être loin d’être banal ? Déposant, après son exploit, devant une commission d’enquête du Congrès américain, le colonel Glenn a souligné que tous les vols spatiaux n’auront sans doute pas une fin aussi heureuse que le sien, mais il avait au préalable affirmé à l’astronaute appelé à prendre sa suite : « Si vous êtes lancé dans l’espace, ne vous en faites pas car il faut que vous regardiez de tous vos yeux. Cela en vaut la peine».
- Nicolas Vichney.
- Bon conducteur seulement dans son plan de clivage le graphite pyrolytique est un matériau d’avenir
- De nouvelles et importantes. utilisations du graphite ont surgi dans les dix dernières années. Elles ne concernent pas seulement les nombreux types de réacteurs nucléaires où le graphite joue le rôle de modérateur, de réflecteur ou même de matériau de structure : l’industrie chimique fait également appel au graphite, notamment dans les échangeurs de chaleur, en raison de sa grande conductibilité thermique et de sa résistance à la corrosion.
- Nous avons précédemment décrit (La Nature, avril 1957, p. 154-156) le mode de fabrication actuel du graphite, à partir de carbones amorphes. Il est intéressant de signaler que par d’autres procédés il est possible d’obtenir des graphites dont la structure et les propriétés sont sensiblement différentes.
- Un procédé déjà ancien, proposé par Edison en 1890, consiste en la décomposition d’un hydrocarbure à température très élevée (opération désormais appelée craquagé). C’est ainsi que le méthane chauffé à 2 000 °C laisse un dépôt de carbone qu’un échauffement encore plus intense transforme en graphite.
- Un résultat analogue est obtenu en chauffant du carbone sous vide jusqu’à environ 2 5oo°C, température à laquelle il se sublime : les vapeurs se condensent sur une paroi maintenue à une température plus basse.
- Dans l’un et l’autre cas, les graphites ainsi produits sont dits graphites pyrolytiques. Indiquons brièvement en quoi ils diffèrent des graphites ordinaires.
- Ceux-ci, selon la description que nous en avons donnée dans La Nature (septembre 1957, p. 344), sont constitués par une série de plans parallèles, distants de 3,35 angstrôms, dans lesquels les atomes sont placés aux sommets d’hexagones imbriqués les uns dans les autres, à la manière d’un pavage. Ces plans de clivage se correspondent deux à deux, les atomes des pavages 1, 3, 5, 7, etc., se trouvant rigou-
- reusement alignés sur une série de droites; même alignement pour les pavages 2, 4, 6, 8, etc., mais qui sont décalés par rapport aux premiers de 1,42 Â.
- Cette structure régulière ne se retrouve pas dans les graphites pyrolytiques. D’un plan à l’autre, la distance peut varier de 3,3 5 à 3,42 À. Quant aux pavages hexagonaux, aucune concordance n’est constatée de l’un à l’autre. Par suite de ces disparités structurales, les graphites pyrolytiques offrent les propriétés suivantes : densité légèrement plus élevée que les graphites ordinaires, résistance mécanique et porosité plus faibles, anisotropie beaucoup plus forte.
- C’est cette anisotropie qui représente la caractéristique la plus intéressante et aussi la plus utile des graphites pyrolytiques. Elle a en effet pour conséquence de rendre le matériau considérablement plus conducteur (de la chaleur et de l’électricité) dans une direction quelconque prise dans les plans de clivage que dans une direction perpendiculaire à ces plans.
- C’est ainsi que la conductibilité électrique peut varier de 1 000 à 1, la conductibilité thermique de 200 à 1, la dilatation de 1 à 22. En un mot le graphite, presque aussi bon conducteur que le cuivre dans son plan de clivage, est un isolant presque parfait dans les autres plans. En même temps, la résistance à la corrosion est étroitement liée à l’orientation du matériau.
- L’ensemble de ces propriétés, liées à la possibilité de constituer des revêtements de graphite pyrolytique sur le graphite ordinaire, peut donner lieu à des applications fort importantes. L’une de celles qui justifient les nombreuses recherches menées actuellement est le revêtement des tuyères des divers engins à réaction, et notamment des fusées.
- R. A.
- Ampoules au carbure de tantale
- L’utilisation de carbure de tantale à la place du tungstène classique la Polaroid Corporation et l’Union Carbide Corporation, qui précisent pour les filaments des ampoules électriques accroît la brillance de toutefois que les travaux en sont encore au stade expérimental. {Infor-25 pour 100 et la durée de l’ampoule de 50 à 100 pour 100, annoncent mation U. S. 1. Si).
- 171
- p.171 - vue 175/551
-
-
-
- Les vrais Inséparables Perroquets nains d’Afrique
- Dans le monde avien, Perroquets et Perruches (x) représentent une grande famille (Psittacidés) puisque, selon les derniers catalogues, espèces et races géographiques peuvent atteindre le nombre de 580 à 600 formes. Ces oiseaux se rencontrent dans toutes les contrées chaudes du globe, mais principalement en Amérique du Sud et en Océanie. Qui ne connaît que les Perroquets habituels des marchands ne peut se faire une idée de la diversité des espèces.
- En dehors des plumages dissemblables, cette diversité se manifeste de plusieurs façons. Ainsi, la taille du rare Ara hyacinthe, tout de bleu vêtu, habitant le centre du Brésil, dépasse un mètre, tandis qu’un Micropsitte, minuscule Perroquet de la Nouvelle-Guinée, coloré comme un arlequin, n’est pas plus grand qu’un Roitelet.
- Si dans le régime alimentaire, les graines sont la nourriture principale de beaucoup d’espèces, d’autres, comme les magnifiques Loris et Loriquets d’Océanie, recherchent surtout le nectar des fleurs. Leur langue longue et mince terminée par une sorte de pinceau leur permet de recueillir ce liquide crémeux dans le fond des corolles. Nourriture parfumée, qui fait que parfois, ces oiseaux exhalent une odeur agréable. Une espèce porte le nom de Loriquet musqué. Dans les mêmes régions, se rencontrent les Lori-cules, de la taille d’une Alouette, au plumage soyeux, recherchant parmi les belles floraisons exotiques toutes les variétés de fruits juteux et sucrés. Véritables acrobates, ils s’endorment le soir suspendus à une branche la tête en bas, dans la position adoptée par les Chauves-souris pour leur repos.
- En Australie, perchés sur les Eucalyptus géants, les gros Cacatoès noirs à la queue barrée de rouge recherchent, même sous l’écorce, toutes les formes d’insectes, élément indispensable de leur menu journalier. En Nouvelle-Zélande, les Nestors, perroquets terrestres aux plumages peu brillants, fouillent la terre pour y trouver tubercules et racines, grâce à leur mandibule supérieure taillée en forme de faucille. Il en est de même du Perroquet-hibou, qui possède, son nom l’indique, un faciès d’oiseau nocturne. Caché le jour au fond d’un terrier comme un vulgaire lapin, il ne sort que la nuit.
- Dans les montagnes de Nouvelle-Guinée existe un curieux Perroquet de grande taille, brun et rouge, avec la tête en partie dénudée, pourvu d’un long bec recourbé à la pointe, imitant ainsi celui du Vautour. Simple ressemblance, car ce bec d’aspect dangereux est de faible complexité. Les mœurs de cet oiseau, nommé « Perroquet de
- 1. Les dénominations «Perruche» et «Perroquet» sont synonymes ; cependant on désigne généralement du nom de Perruche les Psittacidés à queue longue et du nom de Perroquet ceux à queue courte.
- par Marcel Legendre
- Pesquet », sont peu connues, mais l’on pense que dans la nature, son régime alimentaire se compose de fruits mous et bourgeons tendres. Les rares captifs qu’on a faits de cette espèce ont survécu peu de temps. Us étaient nourris d’une pâtée composée de bananes bien mûres et de biscuits écrasés, ainsi que de fruits tendres.
- L’espèce la plus septentrionale, la Perruche de la Caroline, a disparu récemment : les derniers sujets libres ont été aperçus en avril 1915. C’était le seul Psittacidé appartenant à la faune des Etats-Unis. Elle a été complètement exterminée par l’homme dit «civilisé» en même temps que le Pigeon migrateur des mêmes contrées (voir La Nature, août 1957, p. 310-311). Par contre, au sud du continent américain, la grande Perruche australe, dont l’habitat s’étend du Chili au détroit de Magellan, vit encore bien tranquille, peu en contact avec la présence humaine. «Pour vivre heureux, vivons caché », ce vieil adage garde ici toute sa valeur.
- De la taille d’un moineau
- Ce petit aperçu sur le monde des Perroquets nous permet de présenter de façon plus compréhensible pour le lecteur non initié le joli groupe des Perroquets nains, originaires du continent africain (une espèce à Madagascar). Ce groupe très homogène (genre Agapornis) comprend neuf espèces de petits Perroquets à queue courte. La couleur fondamentale des plumages est le vert, avec les têtes et les queues ornées de teintes vives. Quelques-uns montrent autour des yeux un cercle blanc très apparent. Leur véritable nom courant est celui d’inséparables, qui leur est donné parce que mâles et femelles demeurent étroitement unis. Cette appellation est souvent appliquée, à tort, à la Perruche ondulée, de provenance australienne, très commune dans le commerce, ce qui crée une confusion.
- D’une taille égale ou légèrement supérieure, selon les espèces, à celle d’un Moineau, les Inséparables sont des oiseaux ravissants, non seulement par la beauté des couleurs, mais par une plume soyeuse qui rend les plumages brillants. Très recherchés comme oiseaux de cage et de volière, ce sont les Love-Birds des amateurs anglais.
- Au sud du Sahara, les différentes espèces d’inséparables se partagent quelques grandes régions de l’Afrique noire. Réunis en petites bandes, ces oiseaux fréquentent les lisières des forêts, les alentours des villages, parfois les plantations, à la recherche du menu journalier composé de baies, de graminées de toutes sortes, et de fruits. A l’époque des nidifications, une nourriture animale, sous forme d’insectes, est également recherchée.
- Dans leurs pérégrinations, nos Perroquets nains sont
- 172
- p.172 - vue 176/551
-
-
-
- souvent accompagnés de petits Passereaux venus se joindre à eux. Ces associations d’oiseaux si divers, à la recherche d’une même nourriture, sont intéressantes à observer. On se demande en effet si les petites espèces, se mettant à la remorque d’une plus grande, recherchent en cette dernière un guide ou une protection. Rappelons que des associations analogues s’observent dans nos contrées, principalement à l’automne. Les plus curieuses sont les réunions de Mésanges de différentes espèces, prenant comme chefs de file des Pics Epeichettes.
- L’époque de la reproduction marque l’arrêt de ce vagabondage en commun. On se sépare et chacun part vers son destin. Chaque couple d’inséparables, anciennement ou nouvellement formé, va choisir l’endroit où sera édifié le nid. Généralement c’est une cavité dans un arbre, mais parfois, pour des raisons qui nous échappent, il y a dérogation.
- Ainsi une espèce du Sud s’approprie souvent des nids de Tisserins, petits Passereaux dont le nom évoque bien l’habileté et le mode d’édification de leurs nids. Ce n’est pas un mauvais choix, car ces nids en forme de poires n’ayant qu’une ouverture à la base, sont bien attachés à une branche et solidement tressés à l’aide de lanières arrachées le plus souvent à des feuilles de palmier. Un autre Inséparable, de l’Est africain, qui s’est enhardi jusqu’à s’approcher peu à peu des villages, niche parfois dans les crevasses des vieilles maisons. Enfin une espèce de l’Ouest choisit des termitières, si nombreuses dans le pays, et les œufs sont déposés au fond d’une cavité creusée par le couple. On sait que des serpents recherchent également ce milieu chaud et humide. Du reste, nos petits Perroquets africains ne sont pas les seuls de la famille à agir ainsi ; en Australie, plusieurs grandes Perruches nidifient également dans les termitières.
- Les Inséparables garnissent beaucoup leurs nids, y
- entassent feuilles, fleurs desséchées, morceaux d’écorce, etc. On a pu observer que certaines espèces, agissant de même en captivité, ont une curieuse façon de transporter ces matériaux. S’emparant des brins de paille et des fines branchettes que l’on met à leur disposition, elles les insèrent entre les plumes de leur queue pour les porter au nid.
- En captivité, ces Perroquets nains sont des oiseaux très attractifs, faciles à soigner, propres et robustes. En volière de jardin, c’est-à-dire à l’air libre, ils deviennent très rustiques et leurs belles couleurs sont mises en valeur dans leurs vols. Ils peuvent passer l’hiver dehors, à condition que la volière possède un abri comportant un toit et trois côtés pleins.
- En cage d’appartement, ces oiseaux vivent également bien, devenant très familiers si on le désire. Us peuvent même nicher à condition qu’on procure au couple une cage dont les dimensions ne soient pas inférieures à 80 cm de long et 50 cm de large et de haut. A l’ouverture d’une porte, placée sur l’un des petits côtés, sera accroché un nichoir.
- La nourriture à distribuer aux Inséparables est simple : millet blanc, millet en branches, alpiste, accompagnés de verdure et de fruits. De temps en temps, un peu d’avoine. A l’approche des nidifications, si vous le pouvez, des graminées sauvages. Ceci pour obtenir, selon la formule, «de beaux enfants ».
- Les espèces
- Présentons maintenant les espèces, en indiquant sommairement leurs caractères distinctifs.
- L’Inséparable à tête grise (Agapornis cana) possède un plumage vert avec la tête et le cou gris pâle ; queue marquée de noir. C’est la seule espèce qui présente une couleur
- p.173 - vue 177/551
-
-
-
- aussi claire dans son plumage. La femelle est entièrement vert-olivâtre. Originaire de Madagascar et acclimaté à La Réunion, ce petit Perroquet, qui se reproduit assez rarement en captivité, est connu depuis longtemps (fig. 3). Dans une chronique de 1670, on peut lire que deux navires reviennent de la grande Ile avec un chargement d’oiseaux et plusieurs centaines de singes que l’on se dispute à Paris. Ces prétendus singes étaient bien entendu des Lémuriens, et les oiseaux tous des Perroquets : Inséparables, Perroquets Vasa (2 espèces) et Perroquets mascarins (ces derniers aujourd’hui disparus !).
- L’Inséparable à tête rouge (A. pullaria) est très joli avec son plumage vert pré, tête et gorge rouges et bas du dos bleu ; queue marquée de noir et de rouge. La femelle en diffère par le rouge de la tête plus terne, et surtout par le dessous vert de ses ailes, qui est noir chez le mâle. Habite un très vaste territoire en Afrique Occidentale. Egalement connue à la même époque que l’espèce précédente, on l’appelait alors «Perruche poussine ». Se reproduit rarement. Pendant longtemps, ces deux espèces restèrent, chez les éleveurs, les seules connues du groupe Agapornis.
- En 1862, on signale en Angleterre l’importation de l’Inséparable à face rose (A. roseicollis) du Sud-Africain, et en
- 1906 en Italie, de l’Inséparable d’Abyssinie j(A. tarant a). Ce sont les espèces les plus grandes de la famille. La première est magnifique, avec son plumage vert amande où le rouge du front, passant au rose, s’étend à la face et va se fondre graduellement dans le vert de la gorge ; croupion bleu et queue marquée de noir. Les deux sexes sont semblables. Elle se reproduit facilement, pouvant en trois nidifications donner naissance à une douzaine de jeunes. L’espèce d’Abyssinie a le plumage vert vif, avec le front rouge, les ailes et la queue fortement marquées de noir. La femelle ne possède pas de rouge au front. Se reproduit difficilement.
- En 1908, c’est en Allemagne qu’apparaît pour la première fois l’Inséparable à joues noires (A. nigrigenys), espèce découverte deux ans plus tôt en Afrique Australe par l’ornithologue anglais W.L. Selater. De petite taille et d’aspect curieux, elle est vite recherchée des amateurs d’oiseaux. Plumage vert, avec la tête brunâtre où les joues très noires font ressortir les yeux cerclés de blanc ; gorge jaune orangé, ailes marquées de noir. Très rustique, elle nidifie facilement. Les sexes sont assez semblables (femelle avec teintes plus ternes).
- Enfin en 1927-28 arrivent en Angleterre : l’Inséparable
- p.174 - vue 178/551
-
-
-
- Fig. y. —Inséparables à tête grise de Madagascar, les premiers introduits en Europe, d’après une gravure ancienne.
- masquée (A. personata) de la région du Tanganyka ; l’Inséparable de Fischer (A. Fischeri) (fig. i et 2) de l’Est Africain, et l’Inséparable de Liliane (A. LJ/ianae) du Sud-Est africain. Toujours en plumage vert, la première possède la tête noire, un large collier jaune et la poitrine de teinte orangée ; queue marquée de bleu et de jaune. Les deux autres se ressemblent beaucoup, avec leurs têtes plus ou moins rouge brique et rose, leurs gorges lavées de jaune, et leurs queues marquées de rouge, de bleu et de noir ;
- toutefois l’espèce de Fischer a le collier jaune plus marqué. Ces trois espèces possèdent des cercles oculaires blancs. Toutes se reproduisent facilement et font d’excellents oiseaux de cage. Malheureusement, la distinction des sexes pose souvent un problème à l’acheteur : mâles et femelles portent un semblable plumage et on ne peut les différencier qu’en observant le comportement des sujets accouplés.
- Ajoutons qu’il nous reste toujours à connaître l’Inséparable du Libéria (A. Swinderniana), qui n’a jamais été importé; espèce assez dissemblable c#es précédentes, ne présentant comme couleurs vives, sur son plumage vert-jaunâtre, qu’un double collier jaune et noir assez étroit ; queue marquée de rouge et de noir.
- *
- * *
- A partir de 1928, c’est-à-dire après l’apparition des dernières espèces d’inséparables connues, et par la suite, avec l’apparition de mutations de couleurs, donnant naissance à de ravissants sujets blancs, jaunes et bleus, l’élevage de ces petits Perroquets a pris dans le monde entier un essor considérable. La guerre, naturellement, a ralenti tous ces élevages, mais aujourd’hui, on recherche de nouveau ces oiseaux.
- Nous les retrouvons nombreux chez les amateurs et, en Allemagne où ils sont devenus très à la mode, j’ai pu admirer dernièrement de superbes sujets de pure race. Je veux dire par là indemnes de fâcheuses hybridations entre espèces, comme j’en vois trop souvent dans mes fonctions de juge aux Expositions françaises. En effet, pourquoi croiser des espèces si morphologiquement semblables, pour obtenir dans la descendance des sujets nettement inférieurs en beauté.
- Marcel Legendre,
- Vice-Président
- de la Société Ornithologique de France.
- Illustrations extraites de l’ouvrage de M. Legendre, La Perruche ondulée et les Inséparables, Editions N. Boubée, Paris, et aimablement communiquées par l’éditeur.
- L’évolution révélée par le comportement
- Des observations poursuivies pendant cinq ans par M. William C. Dilger et ses collaborateurs du Laboratoire d’Ornithologie de l’Université Cornell, aux Etats-Unis, ont permis de connaître en détail le comportement de toutes les espèces d’inséparables (sauf de l’Inséparable du Libéria, qu’on n’a pu se procurer vivant) et de montrer l’évolution de ce comportement d’une espèce à l’autre, en faisant apparaître clairement par là l’ordre d’apparition de ces espèces dans le passé, par comparaison avec le comportement des autres Perroquets et en particulier des Loricules d’Asie, qui sont les parents les plus proches des Inséparables.
- Par exemple les Loricules sont, avec certains Inséparables, les seuls oiseaux qui ont la curieuse habitude de transporter dans leur plumage les matériaux destinés à meubler leur nid. Les quatre espèces d’inséparables qui
- agissent ainsi (celui à tête grise de Madagascar, celui d’Abyssinie, celui à tête rouge d’Afrique occidentale et celui à face rose d’Afrique du Sud) sont donc plus anciennes que les autres, ce comportement étant hérité de la souche commune des Loricules et des Inséparables. D’autre part, les Inséparables sont les seuls Perroquets qui ont développé une nidification quelque peu perfectionnée. Or cette évolution est bien plus poussée chez les autres espèces que chez les quatre déjà nommées et, parmi celles-ci, l’Inséparable à face rose montre toutefois une supériorité.
- D’autres observations du même ordre venant s’y ajouter, M. Dilger pense donc que les espèces actuelles sont apparues dans l’ordre suivant : les trois plus anciennes, qu’il appelle « primitives », sont les Inséparables de Madagascar, d’Abyssinie et à tête rouge, l’Inséparable du Libéria (ou de Swindern) venant après eux ; plus récent est l’Inséparable
- 175
- p.175 - vue 179/551
-
-
-
- à face rose ; et enfin les derniers venus sont les quatre autres, reconnaissables à leurs yeux cerclés de blanc : Inséparables de Fischer, I. masqué, I. de Liliane, I. à joues noires, qui ne seraient d’ailleurs que quatre sous-espèces d’une même espèce. Empruntons à un récent article de M. Dilger dans Scientific American quelques données de cette intéressante étude.
- Les trois espèces « primitives » vivent par couples isolés, et ce sont les seules où mâle et femelle diffèrent par leur plumage. A l’âge %le 4 mois, les jeunes prennent leur plumage d’adulte et deviennent indépendants. C’est alors qu’ils se forment en couples, qui en principe resteront unis toute leur vie.
- Chez les autres espèces, où mâles et femelles ont les mêmes couleurs et qui nidifient en colonies, les jeunes des nids voisins sont en contact dès leur plus jeune âge et les couples se forment encore plus tôt, à z mois, alors qu’ils ont encore leur plumage juvénile.
- Dans toutes les espèces, la copulation est précédée de parades rituelles. Le mâle doit accomplir certains rites pour être accepté de sa compagne, qui volontiers se détourne de lui ou le rabroue. Si les rites sont évidemment fixés héréditairement, leur exécution devient toutefois plus parfaite avec l’âge et ^expérience, et la femelle est alors plus vite consentante. Comme chez tant d’autres oiseaux, la frustration entraîne des « gestes de remplacement » : le mâle débouté se gratte la tête, fait entendre des sons particuliers, etc. On constate une évolution de ces rites des espèces primitives aux espèces récentes. Ainsi dans les plus évoluées, le mâle a conservé l’habitude de se gratter la tête même si la femelle ne le déçoit pas. L’offrande de nourriture est mutuelle chez les espèces primitives ; elle n’est faite que par le mâle chez les autres.
- Les femelles des espèces récentes ont aussi des comportements plus spécialisés pour faire connaître au mâle leur acquiescement (ébouriffage des plumes, etc.). Ne se distinguant pas des mâles par leur plumage, elles auraient besoin de se faire reconnaître, dit M. Dilger. A vrai dire, on ne comprend pas bien pourquoi leurs compagnons de toujours auraient soudain un doute sur leur identité. Quoi qu’il en soit, l’évolution de ces comportements sexuels complexes, qui est donnée en détail, intéressera fort les biologistes.
- Des différences caractéristiques apparaissent aussi dans les comportements à l’égard des intrus et dans les règlements de comptes entré congénères. Les Inséparables plus récents semblent moins agressifs individuellement envers les prédateurs ou les indiscrets qui viennent les troubler dans leur nid, mais en revanche c’est la colonie qui intervient par des manifestations collectives. Les disputes y sont aussi réglées par un rituel plus élaboré, sinon plus efficace, pour éviter les vraies batailles qui, quand néanmoins elles se produisent, peuvent être mortelles.
- Les instincts en contradiction chez le malheureux hybride
- Enfin, comme déjà indiqué, on constate une complexité croissante du nid des espèces plus anciennes aux plus récentes, éloignant progressivement, à cet égard, les Inséparables des autres groupes de Perroquets.
- On a évoqué l’habitude qu’avaient certains Inséparables de placer dans leur plumage dorsal, pour les transporter,
- les menus matériaux destinés à garnir leur nid. Cette habitude, qu’on trouve aussi chez les Loricules d’Asie, est réservée aux trois espèces d’inséparables primitives (de Madagascar, d’Abyssinie et à tête rouge) et à l’Inséparable à face rose. Ce dernier marque d’ailleurs un degré d’évolution en faisant choix de matériaux adaptés à la confection d’un nid mieux structuré et plus confortable. Par exemple, dans du papier qu’on met à sa disposition, il ne découpe pas de petits morceaux, comme le font les trois espèces plus anciennes, mais de longues lanières. Pour les transporter, il dresse ses plumes, surtout celles du bas du dos, entre lesquelles il insère ces matériaux. Moyen au demeurant peu commode, car il en perd la moitié en cours de route. D’ailleurs, de temps à autre (dans 3 pour 100 des cas), il fait aussi le transport dans son bec (ce qui peut être l’indice d’une évolution vers un retour au mode normal de transport de la plupart des oiseaux).
- Cette dualité de comportement de l’Inséparable à face rose a donné l’idée d’une expérience. M. Dilger a croisé cette espèce avec l’Inséparable de Fischer qui, comme les trois autres aux yeux cerclés de blanc, véhicule toujours ses matériaux dans le bec. Le comportement des hybrides a été curieux à observer. Il était d’abord très confus : les oiseaux semblaient ne pas savoir s’ils devaient garder les lanières de papier dans leur bec ou les insérer dans leurs plumes. Ils ne réussissaient à les porter au nid que dans leur bec, et ce résultat n’était acquis que dans 6 pour 100 des tentatives. Au cours des nidifications suivantes, le taux des transports réussis (par le bec) s’éleva constamment, mais jusqu’à la fin les hybrides continuèrent à retrousser leurs plumes comme s’ils devaient y placer des objets, quoiqu’ils ne le fissent pas. Malheureusement, ces hybrides sont stériles, ce qui ne permet pas d’étudier plus complètement la génétique de ce comportement.
- On voit que chez ces oiseaux comme chez tous les animaux sans doute, et même en partie chez l’Homme, le fond du comportement est imposé par une structuration héréditaire (c’est ce qu’on est convenu d’appeler l’instinct). Mais cette structuration est aussi sous la dépendance de l’apprentissage, de l’expérience vécue, qui seule l’amène à sa perfection, du moins chez les animaux supérieurs.
- Finissons sur un autre exemple. On connaît la célèbre expérience de Lorentz sur les canards. Un canard sorti de l’œuf se met à suivre le premier être vivant de plus grande taille qui se trouve à proximité, et il le suivra dès lors pendant toute son enfance, sa structure innée le lui impose. D’ordinaire cet être est sa mère, mais ce peut être expérimentalement n’importe qui et Lorentz a été accompagné ainsi, obstinément, par de jeunes canards qu’il avait élevés en couveuse.
- M. Dilger nous offre une expérience d’un genre analogue sur les Inséparables. Normalement une femelle d’inséparable ne consent à élever que des jeunes de son espèce, bien reconnaissables à la couleur spéciale de leur duvet. Si, la première fois qu’elle est mère, on substitue à ses œufs des œufs d’une autre espèce, elle adoptera fort bien les jeunes qui en sortiront et, aux couvées suivantes, elle n’en voudra plus d’autres, refusant alors d’élever ses propres petits. Il serait intéressant de voir ce qui se passerait si on lui donnait à couver, la première fois, des œufs de deux espèces différentes. Deviendrait-elle alors plus éclectique ?
- Jean Grive.
- 176
- p.176 - vue 180/551
-
-
-
- La microfaune terricole,
- réactif biologique
- des modifications du milieu
- par Lucien Chopard
- Sous le titre Relations entre le couvert végétal et la micro-faune, M. M.E. Maldague a publié récemment une très intéressante étude sur la microfaune des sols en Afrique tropicale (-1). Au cours des dernières années, les recherches sur les animaux endogés se sont multipliées et les résultats obtenus ont montré l’importance de la faune dans l’équilibre biologique du sol. Les quatre facteurs : climat, sol, végétation et faune sont interdépendants et contribuent à former des complexes équilibrés qui évoluent en fonction du temps. Les modifications de cet équilibre peuvent s’être déroulées à l’échelle des phénomènes géologiques. Au point de vue écologique, les plus connues sont celles qui ont résulté en Europe des glaciations quaternaires ; ainsi, dans les Alpes, les catastrophes climatiques ont dévasté la faune autochtone de certains groupes, comme les petits vers plats du groupe des Turbellariés (Planaires), dont un petit nombre d’espèces ont seules été capables de reconquérir les régions libérées par le retrait des glaciers. D’autres modifications, souvent provoquées par l’homme, ont une portée plus limitée mais plus brutale. On constate que toute variation d’un constituant de l’équilibre influence les autres constituants et une modification en chaîne peut se produire, de sorte que l’ensemble de l’habitat n’est jamais stationnaire. C’est en Afrique surtout que ce phénomène a pu être observé.
- Les éléments qui constituent une « biocénose » sont, d’après Gaussen, les suivants : le milieu climatique, le milieu édaphique (sol), le groupement végétal et le groupement animal. Les êtres vivants peuvent eux-mêmes être divisés en quatre groupes : les végétaux autotrophes (plantes à chlorophylle), les végétaux hétérotrophes qui en dépendent (champignons), les animaux qui consomment des matières végétales ou décomposées, et les animaux carnivores. Les végétaux autotrophes sont les seuls « producteurs », capables d’opérer la synthèse de la matière organique ; les autres sont des « consommateurs ». On a montré aussi que beaucoup de plantes contiennent des produits (vitamines, auxines, hormones, ferments) qui peuvent être libérés par la décomposition des substances végétales mortes, mais aussi par la sécrétion des racines des végétaux vivants. Libérés dans le sol, ils peuvent inhiber le développement de certains microorganismes et les faire disparaître, ou au contraire en favoriser d’autres dont la multiplication sera stimulée. Les sécrétions radiculaires contiennent de nombreuses substances chimiques dont l’action détermine le développement d’une microflore et d’une microfaune caractéristiques de la plante productrice de ces substances.
- (x) Publications de l’Institut national pour l’étude agronomique du Congo (I.N.E.A.C.), série scientifique n° 90, Bruxelles, 1961. Prix : 120 F belges.
- Les végétaux jouent donc un rôle primordial dans la composition du sol et dans la composition des biocénoses végétales et animales. Ils fournissent ce que Gaussen appelle les organismes autotrophes pionniers, dont la faune dépend, tant par l’abri qu’ils lui ménagent que pour l’énergie potentielle qu’ils représentent. Il s’en suit que la faune subit les modifications apportées au milieu par la végétation alors que l’inverse est plus rare. La microfaune endogée (c’est-à-dire vivant dans le sol) est particulièrement affectée par le jeu des différents facteurs et spécialement par les changements de la végétation. Elle subit de ce fait des perturbations plus ou moins profondes, des variations quantitatives et qualitatives qui sont une réaction aux stimulus engendrés par les autres constituants du milieu.
- On ne sera pas étonné de constater aussi que la destruction du couvert végétal par déboisement ou défrichements culturaux peut avoir une influence décisive sur la flore et sur la faune du sol. En Afrique particulièrement, la pratique des feux de brousse provoque non seulement la destruction des matières organiques (litières et humus), mais un effet indirect par la disparition du feutrage du sol qui se trouve soumis à l’action directe des facteurs du climat, et par une stérilisation qui résulte de la température élevée atteinte par les couches superficielles, les plus riches en microflore et microfaune.
- Dans cette dégradation des sols, il ne faut pas négliger l’action de certains animaux, les termites surtout dans les pays tropicaux. Ils peuvent agir à la fois sur la matière organique et sur le sol. Les termites humicoles utilisent de grandes quantités de substances organiques ayant subi une décomposition préalable par les moisissures, les bactéries ou la microfaune, tandis que les xvlicoles détruisent le bois
- <
- ——<
- S-
- Fig. 1. — Un Collembole du genre Tomocerus, insecte caractéristique de la faune du sol (x 10).
- On voit en / l’appareil saltatoire ou furca, dont les deux branches, repliées sous l’abdomen et accrochées à un prolongement du 3e sternite (rétinacle), se détendent brusquement, projetant l’insecte en avant.
- 177
- p.177 - vue 181/551
-
-
-
- grâce aux Protozoaires de leur intestin qui digèrent la cellulose. Mais les termites grands constructeurs, comme les Macrotermitidés, prennent en profondeur la terre nécessaire à leurs énormes termitières et transportent de ce fait des tonnes de matériel argileux. De plus, leurs galeries souterraines constituent un réseau dont l’influence porte sur l’aération du sol, son ameublement et l’augmentation de sa perméabilité.
- La faune du sol groupe les organismes animaux qui vivent dans les profondeurs du sol et dans les horizons supérieurs, la litière, la couche de fragmentation, l’humus. On peut considérer ce biotope superficiel comme le milieu de contact entre le sol, l’atmosphère et les végétaux. Les conditions qu’il doit remplir pour l’épanouissement d’une faune endogée sont la richesse en matières organiques, source énergétique, l’humidité proche de la saturation, l’obscurité, l’agitation de l’air nulle, les faibles variations de la température et du degré hygrométrique ; enfin un état du sol permettant la circulation des petits animaux. Ces conditions se rapprochent de façon remarquable de celles qui sont réalisées dans les grottes.
- En équilibre avec ce milieu s’établit une faune spéciale qui présente souvent des. caractères adaptatifs remarquables. Cette faune se compose surtout de très petits Invertébrés, le plus souvent très variés et très abondants. Une des adaptations concerne le mode de respiration, en rapport avec la très grande humidité du milieu ; chez les insectes on constate une réduction de l’appareil trachéen et la prépondérance de la respiration cutanée, rendue possible par
- l’amincissement et la faible sclérification des téguments. Certaines différences morphologiques se manifestent également entre les animaux d’un meme groupe habitant les couches superficielles et ceux des horizons plus profonds. Ainsi, parmi les Insectes, les Collemboles de surface sont pigmentés, avec des yeux et un organe du saut (furca) bien développés (fig. i) ; les formes de profondeur sont par contre blanchâtres, aveugles, et leur furca est réduite ou absente. Les Acariens du groupe des Oribates (fig. 2), particulièrement nombreux, montrent une adaptation toute différente ; les espèces de surface, qui vivent dans la litière où elles se meuvent facilement, sont délicates, à membres grêles et allongés ; les espèces fouisseuses sont plus fortes, recouvertes d’un bouclier épais, à pattes plus courtes.
- Connaissant la faune terricole qui caractérise un biotope dont les paramètres écologiques sont connus, il est possible de suivre les modifications de cette faune et leur rapport avec les variations des facteurs de l’habitat et l’évolution du milieu. C’est à cette fin que M. Maldague a analysé, dans les environs de Yangambe au Congo, 24 biotopes différents allant de la forêt primitive aux différentes cultures et peuplements artificiels. L’étude de la microfaune joue un grand rôle dans ce travail ; elle montre la valeur très différente des nombreux Invertébrés terricoles en ce qui concerne les renseignements que leur présence peut fournir sur l’état des sols. Les plus caractéristiques à ce point de vue sont les Oribates parmi les Acariens et les Collemboles parmi les Insectes. On constate que les rapports de proportion numérique entre ces deux groupes sont très variables suivant la couverture végétale. Les Oribates sont beaucoup plus nombreux que les Collemboles dans les biotopes forestiers, tandis que l’inverse se produit dans les biotopes de cultures ou de peuplements arbustifs artificiels, la différence arrivant au maximum dans le peuplement arbustif monospécifique à Æchornea cordifolia, Euphorbiacée qui trouve certains emplois en pharmacopée. Mais plus intéressante encore est l’analyse de la microfaune dans le temps car elle permet de reconnaître des modifications mineures de la couverture végétale que les analyses pédologiques ne révèlent pas. On peut ainsi déceler les premiers stades de la dégradation des sols ou la diminution de leur fertilité, particulièrement intéressants en Afrique où, suivant les conclusions de M. E. Maldague, « les cultures des autochtones ont des rendements faibles, qui épuisent relativement peu le sol, à tel point qu’il est difficile de mettre en évidence des réductions sensibles de ce rendement».
- L. C.
- Poisson faucardeur
- La « stichovite » du Meteor Crater
- Les étangs et les canaux de l’U.R.S.S. finissaient par s’engorger peu à peu en raison de l’exubérance de la végétation aquatique. Le faucar-dage ne suffisait plus à assurer un nettoyage convenable. On a eu recours à un poisson importé de Chine, le Ctenopharyngodon idella, connu aussi sous le nom d’« amour blanc ». Ce poisson atteint le poids respectable de 32 kg. Il ressemble beaucoup à la carpe et vit jusqu’à 20 ans. L’amour blanc possède la curieuse particularité de se nourrir des jeunes pousses des prêles et des laiches (Carex), plantes aquatiques dont aucun autre animal ne veut. Il protège maintenant efficacement les canaux et les étangs de l’engorgement.
- Une équipe de géologues américains vient de découvrir dans le Meteor Crater situé en Arizona (voir La Nature-Science Progrès, septembre 1961, p. 381) un nouveau minéral, qui a reçu le nom de stichovite. Ce minéral aurait été formé, à partir de grains de quartz noyés dans le roc, sous l’action de l’énorme pression (plus de xoo 000 kg/cm2) développée par l’onde de choc due à l’impact de la météorite. Avant d’être découverte dans le Meteor Crater, la stichovite avait été réalisée synthétiquement en laboratoire par un savant russe, S.M. Stichov (d’où le nom du minéral) en collaboration avec S.V. Popova, à l’Institut de la physique des hautes pressions de l’Université de Moscou.
- 178
- p.178 - vue 182/551
-
-
-
- L’ACTUALITÉ
- INSTRUMENTALE
- La luminescence des solides
- et Vune de ses plus récentes applications : la détermination des températures de surface
- par Jean-Pierre Leroux
- Jusqu’aux 17e et 18e siècles, les solides luminescents étaient considérés comme une curiosité alchimique sans importance ; leur premier usage comme détecteurs lumineux de particules matérielles invisibles et de rayonnements ultraviolets ou X remonte au 19e siècle. Aux environs de 1930 ces produits commencent à prendre une réelle importance avec la confection d’écrans luminescents pour rayons X et leur emploi pour réaliser les cadrans lumineux de divers instruments. En fait, la véritable industrie de fabrication de ces substances ne prend naissance qu’au cours de la deuxième guerre mondiale pendant laquelle des centaines de tonnes de poudres luminescentes ont été utilisées, en particulier pour la réalisation d’écrans radar. Depuis la guerre et surtout durant ces dernières années, les développements considérables de l’éclairage dit « fluorescent » (*) et de la télévision ont fait monter les chiffres annuels de production mondiale qui, en 1950, atteignaient déjà 200000 kg pour les lampes «fluorescentes », 20 000 kg pour les écrans radar et de télévision, 20 000 kg pour les autres usages.
- Naturellement, une telle production implique une somme très importante d’études expérimentales et théoriques. A l’heure actuelle cependant, l’interprétation de certains phénomènes de luminescence des corps solides n’est pas fermement établie. Nous essaierons toutefois de montrer ici un schéma théorique simple qui permet d’expliquer dans leurs grandes lignes de nombreux faits. Ensuite, après avoir donné quelques indications sur la nature, la préparation et l’émission des solides luminescents, nous envisagerons une très récente exploitation de leurs émissions : nous décrirons ainsi deux méthodes et un appareillage qui permettent d’accéder à la détermination des températures de surface.
- *
- * *
- Tout corps porté à une température absolue non nulle émet de ce seul fait une certaine quantité de radiations appelées radiations thermiques. Toute émission de radiations visibles ou non qui apparaît en plus de cette émission purement thermique est un phénomène de luminescence.
- x. Voir, dans La Nature : L'éclairage par fluorescence, i. Bases théoriques, par Yves Le Grand (novembre 1955, p. 430) ; 2. Lampes ; couleur de la lumière, par Henri Thèsio (décembre 1955, p. 472) ; 3. Appareils de stabilisation ou ballasts, par Henri Thésio (janvier 1956, p. 30) ; 4. Modalités d’installation ; choix des appareils, par B. Henri-Martin (février 1956, p. 72).
- Cet article doit, pensons-nous, intéresser tous nos lecteurs. Nous Vavons néanmoins inséré dans cette rubrique en raison du caractère de sa dernière partie, qui retiendra surtout Vattention des spécialistes.
- Certains gaz, liquides ou solides peuvent devenir luminescents lorsqu’ils absorbent une énergie externe convenable appelée énergie d'excitation ou d'activation. Cette énergie est temporairement localisée dans les atomes ou un petit groupe d’atomes, puis elle est partiellement libérée sous forme de radiations de luminescence. La différence entre l’énergie absorbée et l’énergie lumineuse émise est en grande partie dissipée en chaleur dans la matière elle-même.
- Le grand nombre de substances actives et la diversité des sources d’excitation font de la luminescence un phénomène très vaste et très varié qu’il est difficile d’aborder en quelques pages dans toute sa généralité. Nous n’envisagerons ici que la luminescence des solides, souvent moins connue que celle des gaz et vapeurs métalliques par exemple ; les théories qui s’y rattachent sont celles de l’état solide cristallisé qui intéressent aussi les métaux et les semi-conducteurs. Par ses développements récents, cette question occupe une place importante dans la physique moderne.
- Bases de la théorie de l’état solide cristallisé
- Rappelons tout d’abord que les échanges d’énergie rayonnante entre la matière et l’extérieur se font, selon les théories quantiques, par l’intermédiaire des électrons et par quantités très petites appelées quanta. Ces quanta sont en quelque sorte des « grains » d’énergie.
- Un rayonnement lumineux de fréquence bien déterminée v peut être considéré comme un ensemble de corpuscules immatériels ou photons transportant chacun le même quantum d’énergie ; ce rayonnement est ainsi absorbé ou émis par la matière sous forme de nombreux quanta de valeur W (joules) — h v ; h est la constante universelle de
- 179
- p.179 - vue 183/551
-
-
-
- Planck égale à 6,62 io~34 joule x seconde. La valeur de ces quanta peut aussi s’exprimer plus simplement en électron-volt (2) à partir de la longueur d’onde (en microns) du rayonnement, par W (eV) = 1,24/£ (p).
- Si l’on considère un atome isolé dans un état « normal » ou « fondamental » (absence d’excitation), un électron de cet atome possède une certaine énergie potentielle minimale d’origine électrostatique dont la valeur croît avec la distance de l’électron au noyau. Sous l’effet d’une influence extérieure cette énergie potentielle peut augmenter, mais seulement par quantités de valeurs bien définies pour un atome donné. Ainsi les états énergétiques possibles de l’électron sont caractérisés par une suite discontinue de niveaux d’énergie « étroits » ou « discrets » ; on dit que l’énergie potentielle d’un électron appartenant à un atome est quantifiée (fig. 1). Le passage d’un électron d’un certain niveau d’énergie £4 à un niveau supérieur E3 par exemple nécessite l’absorption d’un quantum Wa = £4 — £4 fourni par un photon, un champ électrique, un choc particulaire... Inversement, la transition de l’électron depuis l’état énergétique £4 jusqu’à un état énergétique inférieur £4 ou £4 s’accompagne de l’émission d’un quantum We = £4 — £4 (ou £4 — £4) d’énergie radiante dont la fréquence électromagnétique v est donnée par h v = We.
- espèce d’atome donnent dans le diagramme d’énergie du cristal un ensemble de niveaux d’énergie différenciés mais extrêmement resserrés qui constituent une bande d’énergie « permise ». Les bandes de basse énergie sont étroites et celles de haute énergie beaucoup plus étalées ; entre chaque bande permise se place, sauf pour certains métaux, une zone ou bande d’énergie « interdite » (fig. 2). Pour plus de précision, il faudrait aussi tenir compte de l’état de vibration du réseau cristallin qui dépend de la température ; le schéma énergétique s’en trouverait bien entendu compliqué.
- Bande de > conductibilité ou de conduction
- Bande de valence
- mmmmm
- £3
- £2
- .03
- jFig. 1. — Représentation schématique d’une partie de la suite discontinue des niveaux d’énergie possibles pour l’électron de l’atome d’hydrogène.
- £1
- Si l’on envisage maintenant le cas d’une molécule libre composée de plusieurs atomes, la complexité s’accroît. Il faut faire intervenir non seulement l’énergie de l’électron dans l’atome auquel il appartient, mais aussi les énergies de vibration et de rotation des noyaux des atomes constitutifs ; ces dernières formes d’énergie sont aussi quantifiées. Naturellement le diagramme énergétique résultant est beaucoup plus compliqué.
- De telles considérations sont à la base de l’interprétation théorique des spectres optiques de raies et de bandes des vapeurs et des gaz.
- Dans la théorie de P état solide, le réseau cristallin supposé parfait est considéré comme une molécule géante. Les électrons des couches les plus profondes de chaque atome constitutif du cristal restent très liés à cet atome ; par contre, les électrons périphériques ou électrons de valence ont plus de facilité pour échapper à l’attraction de leur noyau d’origine et se mouvoir à travers le cristal.
- Par suite des perturbations qui résultent des interactions entre atomes, les mêmes niveaux d’énergie d’une même
- 2. L’électron-volt (eV) est la variation d’énergie subie par un électron entre deux points qui présentent une différence de potentiel d’un volt :
- 1 eV = i,6.i o-19 joule.
- Bandes
- permises
- Bande incomplète ou vide Bandes pleines
- | | Jones ou bandes interdites
- Fig. 2. — Diagramme d’énergie d’un cristal parfait.
- La bande de valence correspond aux états d’énergie des électrons de la couche périphérique des atomes qui constituent le cristal : ces électrons jouent un rôle essentiel dans les liaisons chimiques. Les bandes inférieures correspondent aux états d’énergie des électrons des couches sous-jacentes. Les électrons qui sont ou qui passent dans la bande de conduction deviennent libres de se mouvoir à l’intérieur du cristal ; c’est à l’existence de ces électrons qu’est liée la conductibilité électrique de la substance.
- Si à un instant déterminé aucun électron n’est dans un état énergétique correspondant à l’un des niveaux d’une bande permise, ce niveau est dit « inoccupé » ou « vide ». Au zéro absolu et en l’absence d’excitation, les bandes de plus basse énergie sont complètement occupées ou saturées ; la plus haute des bandes saturées s’appelle bande de valence car elle correspond à l’énergie d’électrons de valence ; celle immédiatement supérieure est la bande de conductibilité ou de conduction (fig. 2) ; cette dernière est incomplètement remplie ou vide, et c’est en général à son niveau que les électrons assurent le phénomène de conductibilité électrique.
- Avec ce schéma simple dû à Wilson, il est possible d’expliquer les propriétés électriques des métaux, des isolants et des semi-conducteurs intrinsèques (cristaux purs). Pour interpréter le comportement des solides cristallins impurs (semi-conducteurs extrinsèques, solides luminescents), on est conduit à le compléter en supposant toutefois que la présence des impuretés en très faibles quantités et l’existence des défauts de structure cristalline modifient peu son allure générale. On admet ainsi que chaque atome étranger
- 180
- p.180 - vue 184/551
-
-
-
- et chaque défaut géométrique du réseau cristallin introduisent seulement des niveaux d’énergie discrets qui peuvent se placer dans les zones interdites. De plus, ces niveaux sont « localisés », c’est-à-dire ne sont accessibles qu’à des électrons situés dans le voisinage immédiat de l’atome étranger ou de l’imperfection. Remarquons ici que les niveaux discrets constituant les bandes permises peuvent au contraire être occupés par des électrons situés dans une région quelconque du cristal.
- Le rôle fondamental de ces niveaux apparus avec les impuretés est par exemple mis en évidence par l’absence de luminescence du sulfure de zinc pur.
- Nous allons maintenant préciser le schéma de Wilson relatif aux cristaux luminescents les plus courants ; en l’absence d’excitation, il comporte une bande de conduc-tibibté vide et placée à plusieurs électron-volts au-dessus de la bande de valence. Cette double particularité classe ces substances parmi les isolants électriques : en effet, selon le principe d’exclusion de Pauli, le passage du courant électrique dans un cristal nécessite l’existence d’une bande non saturée mais non vide (3). Les impuretés introduites dans le réseau cristallin font naître entre la bande de valence et la bande de conductibilité deux sortes de niveaux « localisés ». Les uns situés près de la bande de valence sont normalement occupés, on les appelle niveaux « centres luminogènes » (4) ; les autres avoisinent la bande de conduction et sont vides à l’état normal, ce sont les niveaux « pièges » (fig. 3).
- Bande de conduction
- \\\\\\\^\\\\\\\\\\\^
- Bande de valence
- a Niveaux " centres luminogènes occupés à l'état normal
- __ Niveaux "pièges"vides
- à l'état normal
- Fig. y. — Schéma de Wilson d’un cristal luminescent de type courant: niveaux localisés introduits par les impuretés ou les défauts de structure
- du cristal.
- E = 3,7 eV pour le sulfure de zinc ; 2,4 eV pour le sulfure de cadmium.
- Avant d’utiliser ce diagramme pour schématiser le mécanisme de la luminescence des solides, il peut être utile de rappeler quelques définitions. La terminologie attachée aux phénomènes de luminescence des solides tient compte de la nature de l’énergie d’excitation et de certains aspects
- 3. Sous une forme simplifiée, le principe d’exclusion de Pauli suppose qu’un même niveau d’énergie ne peut être occupé par plus d’un électron à la fois ; or le déplacement d’un électron à. travers le réseau cristallin tout entier sous l’influence d’un champ électrique, même très faible, implique des changements de niveau d’énergie. L’existence de niveaux inoccupés accessibles est donc obligatoire pour que l’électron puisse se mouvoir.
- 4. Ce type de centre n’est pas le seul modèle de centre luminogène concevable ; c’est seulement le modèle le plus couramment utilisé jusqu’ici.
- du rayonnement émis. En ce qui concerne la nature de l’excitation, le tableau I résume la question.
- Tableau I. — Terminologie attachée aux phénomènes DE LUMINESCENCE DES SOLIDES
- Nature de l’excitation
- Photons de basse énergie (lumière visible ou ultraviolette).
- Photons de haute énergie rayons X.
- Rayons cathodiques.
- Champ électrique.
- Particules alpha — ions.
- Particules ou rayonnements issus de radiations nucléaires.
- Rupture mécanique des cristaux.
- Désignation du phénomène
- Photoluminescence.
- Rœntgenoluminescence.
- Cathodoluminescence. Electroluminescence ou effet Destriau (1).
- Ionoluminescence.
- Radioluminescence.
- Triboluminescence.
- 1. Voir : L’Electroluminescence, La Nature, août 1958, p. 305.
- En première analyse, les émissions qui cessent immédiatement après arrêt de l’excitation sont appelées fluorescences ; la prolongation de l’émission au delà de la durée de l’excitation est une phosphorescence. Mais ces définitions sont très insuffisantes ; à ces deux termes correspondent en fait deux processus d’émission bien distincts.
- Mécanisme de la luminescence des solides
- Absorption de l’énergie d’excitation. — Pour que l’absorption d’une énergie externe puisse donner naissance à une émission de luminescence, il faut d’abord que cette absorption de quanta conduise à l’excitation d’un certain nombre de centres luminogènes, c’est-à-dire à la montée des électrons de ces centres dans la bande de conductibilité. Cette excitation peut se faire soit directement (fig. 4), soit
- ZZx
- Bande de conductibilité
- hVgx
- <h
- Bande de valence
- • Electron
- -OCentre luminogène vide h^ex Quantum d’excitation
- Fig. 4. — Excitation directe d’un centre luminogène.
- Pour la photoluminescence, cette excitation directe correspond aux grandes longueurs d’onde du spectre d’absorption (queue d’absorption).
- 181
- p.181 - vue 185/551
-
-
-
- par l’intermédiaire du passage d’un électron de la bande de valence dans la bande de conductibilité (fig. 5). L’apparition temporaire d’électrons dans la bande de conductibilité explique les phénomènes de conductibilité électrique qui accompagnent le plus souvent la luminescence des solides.
- Dans le cas simple de la photoluminescence, l’excitation
- Bande de conductibilité
- L'h'Vex
- Centre iuminogène
- W WWWW XXL
- 0 >"0
- Bande de i/atence
- G Electron O Trou positif
- Fig. j. — Excitation d’un centre Iuminogène par l’intermédiaire d’une excitation bande à bande.
- Rappelons que la place d’un électron de valence, quand elle est inoccupée, est appelée « trou positif » (l’électron étant négatif) ; le déplacement d’un électron qui va occuper un tel trou équivaut évidemment à un déplacement de ce trou en sens inverse, i, Création d’un trou positif dans la bande de valence par suite de l’absorption du quantum d’excitation h z, Déplacement du trou positif dans la bande de valence et vers un centre Iuminogène. 3, L’électron du centre vient combler le trou positif, mais sans émission de lumière. Tout se passe comme si l’électron du centre Iuminogène était directement venu dans la bande de conductibilité. Pour la photoluminescence, ce processus correspond aux courtes longueurs d’onde du spectre d’absorption ; c’est l’absorption fondamentale du
- réseau.
- des centres luminogènes est due à l’absorption directe par les électrons des quanta de 2 à 5 eV transportés par les photons incidents. Pour la radioluminescence, la rœntgeno-luminescence, la ionoluminescence et la cathodoluminescence, le vidage des centres luminogènes ne se fait pas directement : chaque photon de haute énergie (de 100 à xoo 000 eV pour les rayons X) ou chaque particule matérielle donne naissance à un certain nombre d’ « excitants secondaires » de moindre énergie qui, à leur tour, peuvent produire des « excitants tertiaires » ; ce processus cesse lorsque les quanta transportés par les excitants sont de l’ordre de quelques électron-volts et peuvent exciter les centres luminogènes. Ce mécanisme fait certainement intervenir les électrons des couches profondes des atomes et les excitants intermédiaires seraient des électrons, des photons ou des « excitons » (système formé d’un électron gravitant autour d’un trou positif auquel il reste lié par attraction électrostatique). Cette question n’est pas tranchée à l’heure actuelle.
- Au cours de ce processus, une grande partie de l’énergie incidente (80, 90 pour 100 ou même plus) est transformée en chaleur ou donne lieu à une émission d’électrons ou de photons X. En fait, le phénomène d’absorption des photons de haute énergie ou des particules matérielles est assez mal connu. L’interprétation des résultats expérimentaux est délicate car la plupart de ceux-ci proviennent d’études faites sur des écrans formés de couches pulvérulentes à l’intérieur desquelles se produisent des diffusions et des réabsorptions difficiles à analyser (fig. 6).
- Fig. 6. — Taches lumineuses formées par un. faisceau d’électrons sur trois types différents d’écrans luminescents.
- A gauche, il s’agit d’un écran d’oscillographe de type classique fermé de couches pulvérulentes de sulfure de zinc. La tache, due au seul faisceau d’électrons, est entourée d’un halo intense dû à la diffraction et à la diflusicn d : la lumière par les grains de grosseur variable, orientés dans toutes les directions. Au centre, l’écran est constitué par un film transparent de sulfure de zinc déposé sur une surface de verre avec lequel il est en contact optique. Les phénomènes de diffraction et de diffusion deviennent inexistants et le spot a les dimensions du fa’sceau a’Jectrons. De tels écrans présentent donc une résolution et un contraste très élevés. Toutefois ils ne sont pas encore commercialisés, essentiellement parce que la luminosité du spot est t:ès faible (ce fait n’apparaît pas
- sur les photographies en raison du temps de pose adopté qui est très long). A droite, il s’agit d’un écran constitué d’une couche mince de sulfure de zinc réalisant un contact optique également parfait avec la lame de verre, mais sur laquelle on a déposé ultérieurement une poudre luminescente. Le spot a encore à peu près les dimensions du faisceau d’électrons, mais il est entouré d’anneaux alternativement sombres et clairs dus à la diffraction de la lumière par les grains
- du dépôt pulvérulent.
- (D’après F.-J. Studer et D.-A. Cusano, Journal of tbe Qptical Society of America, juillet 1955).
- 182
- p.182 - vue 186/551
-
-
-
- Emission de luminescence. — L’émission de luminescence a lieu lors du retour des électrons dans les centres vidés par l’excitation. Cette retombée s’accompagne d’une émission de quanta presque toujours plus petits que les quanta absorbés : c’est la loi de Stokes qui prévoit, pour la photoluminescence, des longueurs d’ondes émises supérieures aux longueurs d’ondes absorbées. Il faut noter que la recombinaison optique d’un électron de la bande de conductibilité avec un trou positif de la bande de valence n’a pratiquement aucune chance de se faire ; ce fait, qui se justifie théoriquement, explique la non-luminescence des cristaux purs.
- L’émission est une fluorescence si la « redescente » des électrons dans les centres se fait spontanément (fig. 7). La durée du séjour des électrons dans la bande de conductibilité est de l’ordre de io-8 à io-5 seconde et l’émission diffère très peu de l’excitation.
- Fig. 7. — Emission de fluorescence.
- Electron
- Après un séjour de io~8 à to~5 seconde dans la bande de conductibilité, l’électron retourne spontanément dans un centre lumi-nogène vide avec émission^du quantum h vL.m.
- h'Vem
- Centre luminogène ~0~ 1/7 c/e
- Pour expliquer la phosphorescence, on fait intervenir les niveaux « pièges » qui capturent certains électrons issus de la bande de conductibilité. Les pièges, mêtastables, ne peuvent libérer les électrons que vers des énergies plus élevées ; il faut pour cela l’apport d’une énergie E l (fig. 8) empruntée soit à l’extérieur (rayonnement infrarouge), soit à l’agitation thermique du cristal lui-même. L’électron libéré retourne dans la bande de conductibilité ; à ce niveau d’énergie, il peut se déplacer dans le cristal, puis retomber dans un centre luminogène avec production de lumière différée par rapport à l’excitation. Ainsi, après excitation, l’action des rayons infrarouges ou de la chaleur stimulera l’émission de phosphorescence (thermolumines-cmce dans le cas de la chaleur), mais cette action ne peut à elle seule provoquer une émission de luminescence ; elle ns fait que la stimuler temporairement. La chaleur, sans action sur les durées de fluorescence, peut servir de test pour distinguer une fluorescence longue d’une phosphorescence brève (J. et F. Perrin).
- A la température ambiante, la durée de vie des électrons dans les pièges est très variable ; certaines émissions sont détectables par un œil habitué à l’obscurité quelques jours après arrêt de l’excitation.
- Fig. 8. — Emission de phosphorescence.
- i, Un apport extérieur d’énergie El libère un électron qui était piégé. 2, Déplacement de l’électron dans la bande de conductibilité, vers un centre luminogène.
- 3, Recombinaison optique de l’électron avec un centre luminogène vide, avec émission du quantum b vcm.
- Hei
- AZ
- 3 "hv
- em
- -Ô-
- Electron piégé -O- Centre luminogène
- La persistance des émissions est liée à la profondeur énergétique El des pièges sous la bande de conduction (fig. 8) ; les pièges les plus profonds fournissent les rémanences les plus longues.
- Sous excitation, l’émission d’une substance phosphorescente se compose à la fois de fluorescence et de phosphorescence, mais les deux sortes d’émission sont alors indiscernables.
- A partir du schéma de Wilson, il est aussi possible d’interpréter une multitude d’autres faits liés à la luminescence des solides ; toutefois, malgré la progression incessante des théories, il se montre parfois insuffisant ou incomplet.
- Nature et préparation des solides luminescents
- Les solides luminescents sont parfois appelés « phosphores » ; ils sont organiques ou minéraux.
- Les substances organiques luminescentes sont des composés chimiques définis purs. Des corps tels que le naphtalène (C10H8) et l’anthracène (Cx H10) ont une structure composée de noyaux benzéniques accolés. Les émissions de ces composés organiques ont la propriété remarquable d’être purement fluorescentes : la persistance des émissions après cessation brusque de l’excitation est de l’ordre de 10“8 s. Cette particularité les fait utiliser, en association avec un récepteur photoélectrique très sensible (photomultiplicateur), dans les compteurs à scintillations employés pour la détection ou le comptage des produits issus de réactions nucléaires (rayons gamma et particules matérielles).
- Les phosphores minéraux au contraire ont une émission phosphorescente. Ce sont des solutions solides qui comprennent :
- i° le diluant, composé de cristaux à haut point de fusion (oxyde de zinc, sulfure ou séléniure de zinc ou de cadmium, sulfure de strontium, tungstate de calcium, fluorure de calcium, silicate de zinc, germanate de magnésium...) ;
- 20 un activateur cocristallisé ou luminogène qui provient soit d’une décomposition du diluant (c’est par exemple le zinc pour l’oxyde ou le sulfure de zinc), soit le plus souvent d’une inclusion volontaire de très petites quantités (0,001 à 1 pour 100) d’un ou plusieurs éléments multivalents (Cu, Ag, Au, Mn, Bi, Pb, Cr, Eu, Sm...).
- La substance luminescente obtenue après calcination à haute température (de 600 à 2 000 °C environ) puis refroidissement se présente sous forme de poudre dont les éléments (microcristaux) ont des dimensions de l’ordre d’une à quelques dizaines de microns. Ses propriétés pour un usage donné dépendent de sa composition et de tous les détails de fabrication. Ainsi la teneur en luminogène, les conditions de calcination (température, durée, nature de l’atmosphère du four) et de refroidissement ont une influence marquée sur l’intensité lumineuse, la répartition spectrale et la phosphorescence de l’émission.
- La symbolisation la plus simple d’un produit donné ne fait intervenir que la nature du diluant et du luminogène, par exemple ZnS(Ag), ZnaSi04(Mn), CdS-ZnS(Mn, Au).
- Au cours de la préparation, de grandes précautions sont prises afin d’éviter l’introduction de toutes substances étrangères dans les produits de base dont le degré de pureté est très élevé.
- A ce propos, signalons que la présence dans le réseau
- 183
- p.183 - vue 187/551
-
-
-
- Fig. 9. — Spectromètre S.P.I. 3, utilisé en physique nucléaire pour le comptage des particules émises par les substances radioactives.
- Fig. 10. — Spectres de photoluminescence de trois fabrications différentes d’un même sulfure mixte de zinc et de cadmium activé par le manganèse
- et l’or.
- Ces spectres sont formés de deux bandes élémentaires rapprochées, l’une verte, l’autre orangée, dont l’existence apparaît par chauffage du produit (voir fig. 12).
- cristallin de certains métaux tels que Fe, Ni, Co, appelés « poisons », a un effet extrêmement néfaste sur le rendement lumineux des phosphores. Ces « poisons » agissent à des doses minimes ; ainsi la présence du nickel se fait sentir à io~5 pour 100 (ou 1 pour 10 millions).
- Malgré les précautions prises, il est fréquent qu’un même produit préparé par différents laboratoires n’ait pas rigoureusement les mêmes propriétés (fig. 10). Même à l’échelle industrielle, une grande difficulté réside dans la parfaite reproductibilité de fabrication d’une substance donnée.
- Spectres d’émission des solides luminescents
- La majeure partie des spectres d’émission se situe dans la région des longueurs d’onde visibles ; toutefois, certains produits luminescents émettent dans le proche ultraviolet comme Ca3(PO ) activé par le césium, ou l’infrarouge tels certains sulfures mixtes Zn-Cd activés par le cuivre.
- A la température ambiante, les spectres d’émission sont en général (5) composés d’une ou plusieurs bandes élémentaires à profils symétriques dont la largeur à la demi-intensité est très variable : environ 6 mp pour l’anthracène, 50 mp. pour la bande bleue ou verte d’un ZnS(Cu) (fig. 11),
- 4000 4500 5000 5500 6000 6500
- Longueur d'onde ( A)
- Fig. 11. — Spectre de photoluminescence d’un sulfure de zinc contenant 0,01 pour 100 de cuivre et calciné à 1 25o°C.
- Les deux bandes élémentaires sont en évidence : bande bleue, 460 mv ; bande verte, 5 2.5 mu.
- (Imité de H.W. Leverenz, Luminescence of Solids).
- plus de 100 mp pour des sulfures mixtes Zn-Cd activés par le cuivre ou l’argent. La position des bandes élémentaires d’émission est pratiquement insensible à la nature de l’énergie d’excitation, contrairement à leur intensité relative qui peut en dépendre fortement ; cette intensité relative des bandes varie beaucoup pour un même type de substance avec la concentration de l’activateur et la température de calcination.
- On admet en général que chaque bande d’un même
- 5. L’emploi comme luminogène d’éléments tels que le samarium ou le chrome dont certaines couches électroniques internes sont incomplètes conduit à un spectre d’émission formé de raies et de bandes étroites.
- La luminescence de Ewles-Kroger présente un spectre d’émission à structure fine ; elle se manifeste à très basse température avec des cristaux non activés (ZnO, ZnS, CdS).
- 184
- p.184 - vue 188/551
-
-
-
- spectre est due à un même type de centre luminogène caractérisé par la nature et la valence de l’impureté introduite dans les cristaux. La largeur de chaque bande peut être interprétée en supposant dans le schéma de Wilson une certaine répartition en profondeur d’un même type de centre ; ce n’est pas la seule hypothèse possible.
- La température intervient simultanément sur la largeur, la position du maximum et l’intensité des bandes élémentaires d’émission.
- En règle générale, on observe avec l’élévation de la température un élargissement des bandes d’émission ; les évolutions des positions des maximums sont le plus souvent peu sensibles, mais celles des intensités sont parfois très rapides. Pour toute bande il existe une température TD au delà de laquelle l’intensité décroît régulièrement jusqu’à extinction complète. Les valeurs de TD s’échelonnent depuis les très basses températures jusqu’à 4oo°C et dépendent de la préparation du phosphore, de la nature et de l’intensité de l’excitation. Cette question de l’extinction thermique de
- la luminescence est complexe et donne lieu à de nombreuses théories.
- Dans le cas d’un spectre d’émission composé de plusieurs bandes, les modifications spectrales sous l’influence de la température peuvent être importantes puisque les bandes composantes sont susceptibles d’évoluer très différemment ; cela se traduit par des variations de couleur parfois spectaculaires : Ed. Becquerel mentionne un échantillon de sulfure de strontium dont la couleur d’émission évoluait depuis le violet à — 2o°C jusqu’à l’orangé à -f- 2oo0C, en passant par le bleu, le vert et le jaune.
- Nous verrons dans la suite une application quantitative de ces déformations spectrales. Après arrêt de l’excitation, c’est-à-dire en phosphorescence pure, le spectre d’émission est constitué des mêmes bandes élémentaires que le spectre de luminescence sous excitation, mais les bandes de plus grandes longueurs d’onde sont plus intenses et plus persistantes ; il s’ensuit que la couleur de phosphorescence est toujours de plus grande longueur d’onde.
- Détermination des températures superficielles : le photothermomètre de surface
- La détermination d’une température de surface est une opération souvent délicate que les méthodes habituelles ne permettent pas toujours de mener à bien.
- Pour être précise, la pyrométrie infrarouge exige la connaissance des pouvoirs émissifs des corps examinés et les procédés électriques ne peuvent être séparés des difficultés liées à la mise en place des sondes, aux contacts et liaisons électriques.
- Des travaux effectués dans le laboratoire d’études thermiques de l’Ecole Nationale Supérieure de Mécanique et d’Aérotechnique de Poitiers ont abouti à la réalisation du Photothermomètre de surface qui permet de déterminer par voie optique une température superficielle comprise entre o et 4oo0C avec une précision qui est indépendante de l’objet solide examiné. Cet appareil utilise la sensibilité thermique des émissions visibles de minces couches luminescentes déposées sur la surface ; la luminescence de ces couches est excitée par un rayonnement du proche ultraviolet.
- Deux méthodes. — Deux méthodes brevetées par le Centre national de la Recherche scientifique sont exploitées par le dispositif constituant le photothermomètre.
- i° Méthode de couleur (P. Thureau). — Nous avons déjà mentionné que certains produits luminescents ont une émission visible dont le spectre se déforme sous l’influence de la température (fig. 12). A partir de cette déformation, qui se manifeste par des changements de couleur, on peut définir un paramètre thermosensible ; il est choisi égal, à un facteur près déterminé par l’appareillage, au quotient des intensités lumineuses émises correspondant à deux bandes spectrales centrées sur des longueurs d’onde Xx et X2 (fig. 12). Soit C (Xx, X2) ce paramètre de couleur ; pour une substance luminescente et deux bandes spectrales données, ses évolutions en fonction de la température sont réversibles ; elles sont déterminées par un étalonnage à l’aide de thermocouples.
- 210 °c
- 6500
- 6000
- Fig. 12. — Principe de la méthode de couleur : spectres d’émission d’un CdS-ZnS(Mn, Au) relevés à diverses températures.
- 2° Méthode de phosphorescence (J.P. Leroux). — Nous avons vu précédemment que le phénomène de phosphorescence présenté par la plupart des substances luminescentes minérales se manifeste par un retard de l’émission de luminescence sur l’excitation :
- Ier exemple : si l’intensité de l’excitation varie en fonction du temps selon la courbe rectangulaire Cx de la figure 13 a> l’intensité de l’émission de luminescence correspondante sera représentée par une courbe du type C2 (fig. 13 h).
- 2e exemple : si l’excitation est modulée à 100 hertz (fig. 14 a), elle provoquera une émission elle-même modulée à 100 hertz, mais dont la profondeur de la modulation sera
- 185
- p.185 - vue 189/551
-
-
-
- Destinée à faire circuler toutes sortes de fluides, qu’ils soient liquides ou gazeux„
- Pompe WAB
- à tuyau flexible
- A
- Cette pompe de petites dimensions rend de grands services toutes les fois que l’on veut réaliser une circulation de liquide ou de gaz dans un montage à petite échelle.
- • Le débit est réglable, en faisant varier la vitesse de rotation. Le débit dépend aussi du diamètre du tuyau souple utilisé : débit maximum : 300 litres/heure à 500 tours/minute avec un tuyau de 10/13,5 mm.
- • La pompe peut aspirer ou refouler; elle s’amorce d’elle-même ; elle peut tourner dans les deux sens.
- • Le fluide pompé est uniquement en contact avec le tuyau souple. L’échange de ce tuyau est très rapide.
- PROIABO
- 12, Rue Pelée PARIS XI*
- TEL. VOL. 11-90 et 41-19
- ECOLE SUPERIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'Ëtat — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e — ODE 54-83
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d'Etat. Brevets de Techniciens d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- COMMENT
- POSER ET RÉSOUDRE UN PROBLÈME
- Mathématiques, Physique, Jeux, Philosophie PAR G. POLYA
- Traduit de l'Américain par C. MESNAGK Préface de G. DARMOIS
- xx-240 pages 15 x 21, avec 31 figures. 2« édition. 1962.
- Broché sous couverture illustrée.......... 14 NF
- En vente dans toutes les bonnes librairies et chez
- DUNOD Éditeur, 92, rue Bonaparte, Paris-6e. DAN 99-15.
- APPAREILS ELECTRONIQUES DE MESURE
- A HAUTES PERFORMANCES
- QUELQUES POSSIBILITÉS :
- Tensions : 100 (iV à 50 k V - R. d'entrée 10Mq Intensités : 10-15 à 10-3 ampère R. d'entrée nulle Résistances : 10 '7h à 100 R. d’entrée nulle Capacités : 0,1 pF à 10.000 n F - R. d’entrée nulle Champs : 0,1 gauss à 10.000 gauss
- FONDÉ EN 1915
- Electrisations : 10 pico-coulombs à 1.000 coulombs Pertes en watts des tôles : 0,5 à 5 W.
- Fluctuations de tension : depuis 1m V/î.000 ou 2.000 V Intégration : (analogique) 1 seconde à 60 mn.1 à 20 voies Conductivité : 1 Q à 1.000 M a (mesure à distance)
- Fournisseur de'2.000 laboratoires officiels et privés toutes industries
- - 63 RUE DE CHARENTON- PARIS 12e- DID. 07.74
- 186
- p.186 - vue 190/551
-
-
-
- Temps
- Temps
- le secteur alternatif 5 o Hz. La lumière émise par cette lampe après filtrage par un verre de Wood est constituée presque exclusivement d’un rayonnement proche ultraviolet (366 mp) modulé à 100 Hz ; une lentille convergente le concentre sur la partie examinée du revêtement.
- L’émission de luminescence provoquée par le rayonnement ultraviolet est reçue par un appareil d’analyse qui Fig. ij. — Retard de comprend, outre le système de lentilles : une fente d’entrée,
- rémission sur Fexci- y ’ . J . ’
- tation. des filtres optiques permutables et un photomultiplicateur
- dont le signal de sortie conduira à la valeur des paramètres thermosensibles. La lampe à vapeur de mercure et l’appareil d’analyse sont rassemblés sur un socle rectangulaire ; le tout forme un appareil d’exploration facile à déplacer ; les figures 15 et 16 en montrent respectivement un schéma et la réalisation.
- plus faible et dépendra de la température du revêtement phosphorescent (fig. 14 b et 14 c).
- Le principe de la méthode de phosphorescence repose sur ce deuxième exemple : pour une source d’excitation et une substance luminescente données, la forme de la fonction-émission dépend de la température de la substance. Cette forme est caractérisée par un paramètre de phosphorescence, défini ci-après, dont les évolutions en fonction de la température sont déterminées par étalonnage à l’aide de thermocouples.
- Excitation modulée à 100 Hz
- Temps
- ç'.fl)
- Emission provoquée à 20 °C
- Temps
- Emission provoquée à 350 °C
- Temps
- Fig. 14. — Influence de la température d’une substance luminescente sur l’intensité de l’émission pour une même intensité d’excitation.
- Principe de fonctionnement du photothermomètre de surface. — Le revêtement luminescent est fixé sur la surface à l’aide d’une résine de silicone. Il peut être déposé très facilement avec un pinceau ; son épaisseur est de quelques centièmes de millimètre.
- XJ excitation de la luminescence de ces revêtements est fournie par une lampe à vapeur de mercure alimentée par
- Socle
- Lampe à vapeur de mercure
- l/erre de Wood
- Revêtement
- luminescent
- ' Emission
- I Fente d'entrée
- Filtres optiques permutables
- Photomultiplicateur
- Fig. IJ. — Schéma de l’appareil d’exploration.
- Fig. 16. — Appareil d’exploration.
- i° 'Exploitation de la méthode de couleur. —• Les deux bandes spectrales Xx et X2 sont définies par deux filtres optiques qui se placent tour à tour sur le trajet du faisceau lumineux issu du revêtement. Les énergies lumineuses moyennes transmises sont mesurées successivement à la sortie du photomultiplicateur par un même galvanomètre. Le rapport des élongations correspondantes du galvanomètre constitue le paramètre de couleur C (Xx, X2). La permutation des filtres est manuelle ou automatique et les élongations peuvent
- 187
- p.187 - vue 191/551
-
-
-
- être enregistrées. Pratiquement, un dépouillement simple est nécessaire pour accéder aux valeurs de C (Xx, X2) d’où l’on déduit la température à l’aide d’une courbe d’étalonnage.
- 2° Exploitation de la méthode de phosphorescence. —- La méthode se prête très naturellement à l’usage d’un seul photomultiplicateur ; un filtre optique sélectionne la partie utile de l’émission en provenance du revêtement. Soit V le signal de sortie du photomultiplicateur ; il est modulé à xoo hertz et sa composante alternative est pratiquement sinusoïdale (fig. 14 h et 14 c). Le paramètre thermosensible ou paramètre de phosphorescence P est défini par :
- Valeur efficace de la composante alternative de V Ve Valeur moyenne de V Vm
- A l’aide d’un dispositif de régulation, la valeur de P est déterminée directement par simple lecture sur le cadran d’un millivoltmètre électronique basse fréquence. Les valeurs de P reportées sur une courbe d’étalonnage fourniront les températures recherchées.
- Caractéristiques d’emploi du photothermomètre. —
- Le dépôt et le séchage des revêtements sont rapides et ne dépassent pas en général quelques minutes ; leur adhérence sur les solides est très bonne ; ils sont éliminés aisément par dissolution et le support reste intact.
- Vénus tournerait bien en 13 jours
- La période de rotation de Vénus autour de son axe est controversée, cette planète étant enveloppée d’une atmosphère trop dense pour qu’il soit possible d’effectuer des observations directes de son sol. Tandis que nombre de spécialistes français sont d’avis que la rotation de Vénus doit s’effectuer en 225 jours et que par conséquent la planète doit montrer toujours la même face au Soleil, des astronomes américains, se fondant sur de récentes mesures de l’effet Doppler et sur le retour périodique d’un maximum dans l’émission radio de Vénus, ont conclu à une rotation beaucoup plus rapide, en 13 jours (voir La Nature, janvier i960, p. 16). Selon un entrefilet succinct du Bureau soviétique d’information, des calculs théoriques sur les relations entre le champ magnétique et la période de rotation des corps célestes ont permis aux astrophysiciens Gregori Idlis et Saken Obochev de conclure que la période de rotation de Vénus serait de l’ordre de deux semaines terrestres, venant ainsi à l’appui de l’opinion des Américains.
- Les ultrasons en métallurgie
- L’emploi des ultrasons en métallurgie conduit à d’intéressantes réalisations. Ils permettent déjà la détection des défauts dans les métaux comme dans d’autres matériaux (La Nature, novembre 1959, p. joi). D’après une information de l’agence soviétique Novosti, un faisceau d’ultrasons dirigé sur les lingotières remplies de métal en fusion permet aussi d’éliminer les gaz occlus, d’égaliser la température et d’homogénéiser parfaitement le métal. Les qualités mécaniques du métal sont ainsi améliorées : les lingots présentent moins de soufflures et se laminent plus facilement. Une installation complète utilisant les ultrasons a été mise au point par des chercheurs de l’Institut de Sidérurgie de Moscou.
- Sans système optique auxiliaire, l’appareil permet d’explorer une surface située à une distance comprise entre 20 cm et 1,20 m environ ; les éléments d’aire examinés peuvent ne pas excéder quelques millimètres carrés et même un millimètre carré dans certaines conditions.
- Sous réserve d’un facteur de transmission suffisant et stable dans le proche ultraviolet, les mesures peuvent se faire à travers un système optique quelconque.
- L’appareil peut être utilisé dans une ambiance semi-claire de lumière stable.
- Précision des déterminations de température : actuellement, avec la méthode de couleur, on peut opérer dans la gamme 0-200 °C avec une précision de 2 pour 100. L’erreur absolue ne peut toutefois être inférieure à 1,5 °C. La méthode de phosphorescence permet de déterminer toutes températures de l’intervalle 0-400 °C avec une erreur de 1 à 4°C suivant le produit luminescent employé et la température.
- Les applications possibles de ces deux méthodes sont multiples : détermination de températures de conducteurs électriques, de températures superficielles dans les enceintes à vide ou à surpression, dans les souffleries ou à l’air libre, sur tous matériaux solides, isolants ou métalliques, quels que soient leurs formes, l’état de leurs surfaces, leurs potentiels.
- Jean-Pierre Leroux.
- Plastiques pour le traitement des grands brûlés
- Les grands brûlés pourront peut-être être traités dans l’avenir en utilisant des produits synthétiques de remplacement, tout au moins provisoire, de la peau. Un médecin américain vient en effet de faire état de travaux selon lesquels plusieurs enfants qui souffraient de brûlures au troisième degré intéressant plus de 30 pour 100 du corps avaient subi avec succès un traitement avec des matières plastiques de synthèse, en l’occurence des mousses de polyuréthane ou des feuilles spongieuses d’alcools polyvinyliques. Les feuilles de matériau synthétique sont appliquées sur les parties brûlées et les protègent de l’infection et des irritations diverses. Par ailleurs, lorsqu’on enlève la feuille de tissu synthétique, la couche lisse et uniforme de tissu en voie de guérison constitue une excellente base pour les greffes de la peau. Ces nouveaux matériaux présentent l’avantage de pouvoir être conservés en grande quantité dans des conditions de stérilité parfaite et de pouvoir être appliqués directement sur les brûlures, puis enlevés progressivement et remplacés par des greffes successives de peau humaine.
- Mannequins astronautes
- Trois mannequins de la taille d’un homme vont être construits pour l’Armée de l’Air américaine et seront utilisés pour étudier les effets biologiques des radiations à l’occasion des voyages interplanétaires. Ces mannequins, qui pèsent chacun 73 kg et mesurent 1,73 m, seront constitués d’une matière plastique appliquée sur un support de caoutchouc et recouvrant une charpente qui reproduit le squelette humain. Ils seront équipés d’instruments permettant de mesurer les doses de radiations reçues par les différentes parties du corps à diverses profondeurs. Ces mannequins voyageront à bord de véhicules spatiaux et les instruments dont ils seront munis transmettront par radio les résultats des mesures à des stations au sol.
- 188
- p.188 - vue 192/551
-
-
-
- Le Ciel en Mai 1962
- SOLEIL : du Ier mai au Ier juin (à oh) sa déclinaison croît de -f- i4°52/ à + 2i°57/ et la durée du jour de à 15*147111 ;
- diamètre apparent le Ier (à oh) = 3i'47"8, le 31 (à 24*1) =
- 3i'35"7. — LUNE : Phases : N.L. le 4 à 4*i25m, P. Q. le 11 à 12*145 m, p_ ie jp à i4h32m, D. Q. le 26 à i9h6m ; périgée le 2 à 2*1, diamètre app. 3 2^ 6" ; apogée le 13 à 23*1, diamètre app. 29/3i// ; périgée le 29 à 13*1, diamètre app. Principales conjonctions :
- avec Mars le Ier à 19*1, à 3 °x7^ S ; avec Mercure le 5 à 12*1, à 7°ii/ S ; avec Vénus le 5 à 23b, à 5 °22/ S ; avec Uranus le 12 à ih, à o°zi' N ; avecNeptune le 18 à 5*1, à 3 °2i/N ; avec Saturne le 25 à 3*1, à o°34'N; avec Jupiter le 27 à 4*1, à i°35/ S ; avec Mars le 30 à 15b, à 4°22/ S.
- Principale occultation : le 23, de i; Sagittaire (mag. 3,6), émersion à
- Amateurs d'ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- 28, rue Serpente, Paris-6e
- Vous aurez à votre disposition une importante Bibliothèque, un Observatoire, des séances mensuelles, cours, conférences, etc... Vous recevrez la revue mensuelle L'ASTRONOMIE Spécimen gratuit et conditions sur demande.
- Permanence au Siège social, tous les jours non fériés de 14 àl7 heures.
- POUR CONSTRUIRE VOUS-MÊMES votre INSTRUMENT achetez l’important ouvrage :
- LA CONSTRUCTION DU TÉLESCOPE D’AMATEUR
- par Jean Texereau,
- Ingénieur du Laboratoire d’Optique de l’Observatoire de Paris.
- 2e édition considérablement augmentée, magnifique volume 16 x 24 de 296 pages, illustré de 156 flg. et IV planches hors texte, sous reliure toile, 25,50 NF franco, réduit à 19,50 NF pour les Membres de la Société, payable à la commande : Ch. Post. Paris 1733.
- obq^jO. — PLANÈTES : Mercure, belle étoile du soir durant la plus grande partie du mois, se couche le 13 à 21*13om, soit 2*i9m après le Soleil ; Vénus, radieuse étoile du soir, suit Mercure, se couche le 13 à 2ih45m, soit 2*i24m après le Soleil ; Mars, réapparaît un peu le matin à la fin du mois, dans l’aube ; Jupiter, dans le Verseau, étoile du matin se montrant plus de 2 heures avant le lever du Soleil ; Saturne, dans le Capricorne se lève plus d’une heure avant Jupiter, le 13 à 0*148m ; Uranus, stationne au N-W de Règulus et se couche après minuit, le 15, position : 9*i56m et + i3°24/, diamètre app. 3*8 ; Neptune, à l’ouest de fr Balance visible toute la nuit, le 15, position : i4*i4om et — I3°38/, diamètre app. 2"5, mag. 7.7. — ÉTOILES VARIABLES : minima de ^ Lyre (3m,4-4m,3) le 4 à 15*1,1, le 17 à 13*1,5, le 30 à iih,8; maxima de Y) Aigle (3m,7-4m,4) le 8 à oh,2, le 15 à4*i,5,le 22 à 8*1,7, le 29 à 12*1,9; maximum de v Licorne le Ier, de Mira Ceti (2m,o-iom,i)
- le 10, de R Lièvre (5m,9-iom,5) le 10, de R Andromède (6m,i-i4m,9) le 13. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U. ) : le Ier : 14*14311175, le xi ; i5*i22m32s, le 21 : i6him58s, le 31 : iô*^11^8.
- Phénomènes intéressants : Surveiller l’apparition de taches à la surface du Soleil. — Du 6 au 9, lumière cendrée de la Lune, le soir. — On remarquera l’excellente visibilité de la planète Mercure le soir, l’astre étant à sa plus grande élongation le 14 à oh, à 21 “3 8' Est du Soleil et se couchant plus de 2 heures après lui. — Les planètes Uranus et Neptune sont facilement observables dans une petite lunette, la seconde est en opposition avec le Soleil le 3 à ih. — Etoiles filantes : du ier au 13, Aquarides (radiant y Verseau), maximum le 4, météores rapides à traînées.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- LES L 1 V
- Leçons d’algèbre moderne, par P. Dubreil et M.-L. Dubreil-Jacotin, professeurs à la Sorbonne. 1 vol. 16 X 25, 404 p. Collection universitaire de Mathématiques. Dunod, Paris, 1961. Prix, relié toile sous jaquette : 35 NF.
- Cet ouvrage conçu à l’intention des étudiants qui préparent « l’option algèbre » de la licence d’enseignement, en couvre le programme maximum et comporte également les matières utiles aux enseignements plus spécialisés du 3e cycle. Dans son développement prodigieux des quarante dernières années, l’algèbre s’est en outre « débarrassée de ses techniques réharbatives pour devenir une science séduisante par l’élégance des méthodes et des démonstrations ». De nombreux lecteurs, sans doute, aimeront assister au renouvellement du raisonnement mathématique qui est un des aspects les plus significatifs de la pensée scientifique moderne.
- Tables numériques de fonctions élémentaires, par J. Laborde. i vol. 18 X 22, xx-170 p. Dunod, Paris, 1961. Prix, broché : 12 NF; relié : 13,60 NF.
- Ces tables destinées principalement aux candidats aux concours des grandes écoles, correspondent aux nouveaux programmes. Elles sont d’une présentation agréable et aérée. Une bonne introduction donne les renseignements concernant la précision des interpolations et ceux nécessaires au meilleur usage des tables. On trouvera des tables de puissance, exponentielles, fonctions hyperboliques, logarithmes népériens et décimaux, fonctions trigonométriques (en radians, grades, degrés décimaux et sexagésimaux). On regrettera peut-être l’absence des logarithmes des fonctions t rigonométriques.
- R E S NO
- Algèbre et analyse. Exercices. Illustration du cours de mathématiques générales, par G. Lefort. 1 vol. 16 X 25, xn-529 p., 29 fig. Collection Universitaire de Mathématiques. Dunod, Paris, 1961. Prix, relié : 44 NF.
- Recueil d’exercices couvrant tout le programme d’algèbre et d’analyse du certificat de mathématiques générales. Chaque exercice est accompagné de sa solution et l’on doit féliciter l’auteur d’avoir beaucoup plus insisté sur la rigueur des raisonnements que sur la technique même des calculs, traités de façon plus sommaire. Les seules connaissances exigées pour aborder ces exercices
- ------ A NOS LECTEURS ---------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- est à la disposition des lecteurs de LA NATURE - SCIENCE PROGRÈS pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- U V E A U X
- sont celles données dans le cours lui-même, l’ordre suivi étant celui du cours de Mathématiques générales de MM. Pinot et Zamansky.
- Boolean Algebra and its applications, par J. Eldon Whitesitt. i vol. 15,5 X 23,5, 182 p., fig. Addison-Wesley Publishing Company, Reading (Mass.), 1961. Prix, relié : 6,75 dollars.
- Traitement élémentaire de l’algèbre de Boole à l’usage des lecteurs ayant des connaissances limitées de mathématiques. Les applications à la logique symbolique et aux circuits sont aussi traitées.
- La mathématique moderne à l’usage du physicien et de l’ingénieur, par Marc Blanc-Lapierre. Tome I : Eléments mathématiques. 1 vol. 16 x 25, 670 p., 70 fig. Eyrolles, Paris, 1961. Prix, relié : 98 NF.
- La « théorie des ensembles » qui, hier encore, n’était cultivée que par un cercle restreint de mathématiciens, apparaît maintenant indispensable pour l’assimilation pratique des récentes découvertes scientifiques. Par suite, la mathématique moderne pénètre de plus en plus dans l’enseignement des Facultés des sciences et commence même à être enseignée, à un niveau bien entendu très élémentaire, dans les classes de l’enseignement secondaire. Par ailleurs, un nombre croissant d’ingénieurs et de chercheurs doivent utiliser les ressources de cet Instrument mathématique. L’auteur a assayé d’être aussi didactique que possible : le plan de l’idée ttaitée est indiqué au début de chaque chapitre; tout le long du texte se trouvent, régulièrement distribués, des « énoncés » dont chacun contient la formulation d’un résultat : concept, définition, loi, théorème ou
- 189
- p.189 - vue 193/551
-
-
-
- convention. Le reste du texte n’est que l’explication ou la démonstration des énoncés. Un seul reproche : contrairement à son titre, l’ouvrage ne paraît pas directement utilisable par le physicien. — R. R.
- General Astronomy, par Harold Spencer Jones, i vol. 14 X 22,5, x-470 p., 118 fig., 31 pl. hors texte. Edward Arnold Ltd, Londres, 1961. Prix, relié : 60 sh.
- Révisé après le décès de l’auteur, cet ouvrage a été composé selon le plan le plus classique : la sphère céleste, la Terre, l’instrumentation astronomique, la Lune, le Soleil, les planètes, etc. On ne saurait douter, connaissant les titres scientifiques de l’auteur, de la valeur de ce traité d’astronomie, qui en est d’ailleurs à sa 4e édition.
- The Moon : our nearest celestial neighbour, par Zdenek Kopal. i vol. 14,5 X 22, 131 p., 15 photos. Chapman and Hall Ltd, Londres, i960. Prix, relié : 25 sh.
- L’auteur, professeur d’astronomie à l’université de Manchester, présente ici, à la portée du profane, un résumé des connaissances que nous avons de notre satellite « naturel ». Ces connaissances sont nombreuses, mais l’auteur conclut cependant qu’il vaut encore la peine d’aller les vérifier sur place et étudie même les projets d’expédition lunaire. U donne non seulement les résultats les plus intéressants des études faites, mais explique soigneusement comment ils ont été obtenus et illustre abondamment son texte d’excellentes photographies.
- L’astronomie d’aujourd’hui, par Hilaire Cuny.
- 1 vol. 11,5 X 18, 196 p. Savoir et Connaître,
- Paris, 1961. Prix : 4,95 NF.
- Cette Astronomie d’aujourd’hui commence par une rétrospective assez copieuse de l’Astronomie d’hier et nous conduit, avec l’Astronautique, jusqu’à l’Astronomie de demain. Sans entrer dans aucun détail technique, l’auteur nous promène à travers les planètes, les étoiles et les galaxies, évoquant les principales théories du jour.
- Servomécanismes et Régulation, par H. Chest-nut et R.-W, Mayer. Vol. II. Traduit de l’américain par J. Le Gall. i vol. 16 x 25, 420 p., nombr. fig. Dunod, Paris, 1961. Prix, relié toile sous jaquette : 68 NF.
- Ce deuxième tome de l’ouvrage de MM. Chest-nut et Mayer est plus particulièrement orienté vers les applications. Un premier chapitre traite des méthodes de mesures; on passe ensuite aux spécifications des asservissements qui sont particulièrement utiles pour faciliter les communications entre constructeur et utilisateur. Les différentes parties d’un asservissement sont ensuite examinées d’un point de vue pratique. La dernière partie de l’ouvrage est consacrée aux phénomènes non linéaires. Ce deuxième tome complète donc et met à jour sur de nombreux points le premier. L’ensemble constitue maintenant une étude approfondie des asservissements.
- Theory of Elasticity, par V.V. Novozhilov. Traduit du russe en anglais par J.K. Lusher. 1 vol. 14 X 21,5, xn-448 p., fig. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1961. Prix, relié : 80 sh.
- Les principes fondamentaux de la théorie de l’élasticité des corps solides isotropes ou anisotropes est connue depuis le 19e siècle. Mais l’intérêt de ce livre, plus du niveau de l’ingénieur que de l’étudiant, réside surtout dans le chapitre consacré à l’énergie de déformation et au principe des déplacements virtuels. Le chapitre sur l’emploi des coordonnées curvilignes est intéressant, mais il manque un ou deux exemples concrets justifiant l’introduction d’un arsenal mathématique aussi fastidieux. Il est dommage que la typographie soit assez mauvaise, rendant parfois difficile la lecture des indices. — J. J.
- The new âge in Physics, par Sir Harry Massey.
- ï vol. 15 X 22,5, 342 p., fig. Elek Books Ltd,
- Londres, i960. Prix, relié : 42 sh.
- Ce livre traite en termes non techniques de l’état actuel des recherches en physique; il met en évidence les résultats remarquables qui ont été obtenus et l’efficacité extraordinaire des techniques qui ont été mises au point. La ire partie traite de physique atomique et électronique : microscope électronique, machines à calculer électroniques, physique de l’état solide, très basses températures, tels sont quelques-uns des sujets abordés. La 2e partie est consacrée à la physique nucléaire : matière, antimatière, particules étranges, fission et énergie atomique. La dernière partie va de l’infiniment petit à l’infiniment grand et passe en revue les dernières acquisitions de l’astronomie, de la radio-astronomie et de l’astrophysique. Sir Harry Massey, qui est un savant atomiste de réputation mondiale, a su mettre son savoir à la portée de presque tout le monde.
- Plasmas and controlled fusion, par David J. Rose et Melville Clark Jr. 1 vol. 15,5 x 23,5, xiv-493 p., fig. M.I.T. Press (Massachusetts Institute of Technology) et John Wiley and Sons Ltd, New York et Londres, 1961. Prix, relié : 86 sh.
- Voici un manuel très attendu, destiné à amener l’étudiant ou le chercheur au niveau de la littérature scientifique courante dans le domaine des plasmas « chauds ». Il nécessite une connaissance de niveau universitaire de la physique atomique, de l’électricité, des équations différentielles et de la thermodynamique. On étudie dans les premiers chapitres les principes de base de la physique des gaz ionisés. Le texte est déjà orienté vers les applications à la fusion contrôlée. Les derniers chapitres traitent des diverses méthodes à l’étude pour essayer de réaliser cette fusion contrôlée. Nombreuses références très à jour.
- Théorie des ondes dans les plasmas, par J.-F. Denisse et J.-L. Delcroix. i vol. 11 x 16, 180 p., 40 fig. Monographies Dunod, Paris, 1961. Prix : 16 NF.
- Peu nombreux sont ceux qui, étudiant les plasmas, n’ont pas à connaître les différents types d’ondes qui peuvent s’y propager. Cette monographie expose systématiquement ce domaine, ren-
- dant ainsi grand service au chercheur et à l’étudiant qui devaient jusqu’à présent assimiler une littérature très dispersée et le plus souvent en langue étrangère. Les différents types d’ondes'sont analysés et leurs relations sont clairement expliquées. Un excellent livre et qui s’imposait.
- Infrared Physics. An International Research Journal. 18,5 x 24,5. Pergamon Press Ltd, Oxford, Londres, New York et Paris. Abonnement annuel : 7 livres sterling.
- Sous ce titre, Pergamon Press édite depuis peu une revue internationale qui publie des travaux originaux réalisés dans cette importante branche de la physique moderne, se limitant toutefois aux domaines de l’astrophysique, de la recherche spatiale, de la géophysique et de la météorologie. La spectroscopie moléculaire et l’analyse spectro-photométrique sont donc exclues dans la mesure où elles n’ont pas un rapport avec ces domaines. Les notes de recherches sont acceptées et on y trouve aussi des revues d’ensemble et des critiques d’ouvrages récents. Langues admises : anglais, allemand, français.
- Synthetic inorganic chemistry, par William L. Jolly. i vol. 15,5 x 23,5, x-196 p., fig. Prentice Hall Inc., Englewood Cliffs (N. J.) et New York,
- 1960.
- Malgré le développement et le rajeunissement que connaît la chimie minérale, les manipulations demandées aux étudiants sont parfois encore assez vieillottes; l’auteur, pour y remédier, propose une série de travaux pratiques qui comportent l’étude de certaines techniques et la préparation de quelques composés peu courants comme le diborane, l’étain tétraphényle, le dicobalt-octo-carbonyle, etc.
- L’essai des métaux, par P. Riebensahm et P.W. Schmidt. Traduit de l’allemand par A. Clerc, i vol. 16 x 25, 112 p., 145 fig. Dunod, Paris, 1961. Prix : 16 NF.
- Les auteurs ont voulu vulgariser les connaissances qui sont à la base des essais qui permettent de déterminer quantitativement les caractéristiques des métaux et celles des pièces mécaniques. On examine successivement : essais statiques tels que celui de traction, essais par chocs, essais de fatigue, essais de dureté et divers autres essais technologiques, étude de la structure et enfin essais non destructifs, tels que la mesure des contraintes et la recherche des défauts, notamment par le magnétoscope ou par les ultrasons.
- The use of oxygen in the electrometallurgy of Steel, par G.M. Borodulin. Traduit du russe par G.F. Modlen. Edité par H.T. Protheroe.
- 1 vol. 14 X 22, vm-112 p., 20 fig. Pergamon Press Ltd, Oxford, Londres, New York et Paris,
- 1961. Prix, relié : 50 sh.
- L’utilisation de l’oxygène pour la fabrication de l’acier au four électrique se développe de plus en plus en France, de telle sorte que des aciéries comme celles de Pompey consomment suffisamment d’oxygène pour que soit apparue nécessaire la construction d’une conduite entre les usines qui produisent ce gaz à Nancy et les ateliers de Pompey. Le présent ouvrage montre le développement de cet emploi en U.R.S.S., où il a été introduit dès 1948; il décrit les méthodes utilisées et examine la qualité des aciers préparés dans ces conditions.
- Le monde végétal, par Jacques Blot. Illustrations de Aude Vasseur, i vol. 15,5 X 21,5, 384 p. Photos et dessins. Editions de l’Ecole, Paris, i960, Prix : 14 NF.
- Ce livre, destiné à la classe de seconde M’, n’est pas un cours mais veut être un guide et un instrument d’étude où, selon la méthode qui prévaut actuellement, l’élève est incité à vérifier lui-même sur du matériel vivant toutes les notions qui lui sont proposées. Après la description rapide d’un milieu végétal (la forêt), les grandes divisions du règne sont analysées dans leurs principales caractéristiques sur des exemples concrets, des champignons aux plantes à fleurs. Les chapitres
- 190
- p.190 - vue 194/551
-
-
-
- LA GRAVURE
- ORIGINALES des meilleurs peintres de notre époque tels que BUFFET, CARZOU, L. FINI, LURÇAT, LARS-BO, JANSEM, BRAYER, OUDOT, HUMBLOT, PLANSON, VERTES, DAUCHOT, etc...
- J. DUFY : Pigalle la nuit Lithographie n couleurs. 220 ex. : 150 NF
- A
- Tous nos tirages sont limités, numérotés et signés par les artistes.
- Prix : de 45 à 250 NF
- CATALOGUE N SUR DEMANDE
- *
- EXPOSITION PERMANENTE
- E. RIGHETTI : Nature morte aux poissons
- 41, Rue de Seine, PARIS-6e DANtOn 05-44 Eau-forte 12 couleurs. 220 ex. : 60 NF
- DECOREZ
- vos murs avec des LITHOGRAPHIES
- suivants présentent la cellule et les tissus, la fleur, la graine, les données générales de la physiologie (on regrette qu’il ne soit pas question des auxines), quelques pages assez nourries sur les plantes fossiles. Enfin des tableaux donnent les caractéristiques des principales familles de plantes à fleurs. Nombreuses photos de détail et microscopiques, avec dessins explicatifs.
- Précis de Toxicologie, par René Fabre, de l’Institut et de la Faculté de Médecine, Doyen de la Faculté de Pharmacie de Paris, et René Truhaut, professeur à la Faculté de Pharmacie, pharmacien-chef des hôpitaux psychiatriques de la Seine. 2 vol. 16 X 24, 717 p., 33 fig. Sedes, Paris, i960. Prix, vol. I : 25 NF; vol. II : 33 NF.
- Ce précis, destiné d’abord aux étudiants, contient en outre nombre de développements qui seront utiles au praticien; des astérisques signalent les parties du texte que l’étudiant pourra négliger. Après une brève introduction, les auteurs traitent des modes de pénétration et d’action des poisons, de leur distribution et de leurs transformations dans l’organisme, de leur élimination. De brefs chapitres sont consacrés aux notions générales sur la toxicité, aux traitements, à la protection contre les gaz, vapeurs et poussières, et on aborde l’étude des principaux toxiques gazeux et volatils, auxquels sont consacrées plus de 200 pages dans le tome I. Le tome II traite des méthodes d’extraction des toxiques organiques par l’emploi des solvants, et des toxiques fixes de nature minérale. Un court chapitre est consacré aux radioéléments naturels et artificiels. Index alphabétique.
- Cybemetics or Control and communication in the animal and the machine, par Norbert Wiener. 2e édition. 1 vol. 15,5 X 23,5, xvm-212 p., 11 fig. The M.I.T. Press, Cambridge (Mass.); John Wiley and Sons, New York et Londres, 1961. Prix, relié ; 52 dollars.
- L’ouvrage intéresse aussi bien les spécialistes que ceux qui, possédant des connaissances suffisantes en mathématiques, désirent s’initier à la
- cybernétique. Cette 2e édition contient dix chapitres dont deux nouveaux. Les huit premiers, révisés et complétés, traitent du temps brownien et bergsonien, de la mécanique statistique, des calculatrices électroniques et du système nerveux, du rapport entre la cybernétique et la psychopathologie. Les deux nouveaux chapitres se font pendant. Le dernier chapitre, comme le dit l’auteur, est la contrepartie de l’avant-dernier, l’un traitant des organismes vivants, aptes à s’organiser eux-mêmes, l’autre des machines pouvant, elles aussi, s’organiser, apprendre et même, en quelque sorte, se reproduire. Le dernier chapitre est principalement consacré aux ondes cérébrales.
- Stammesgeschichte der Sâugetiere, par E. The-nius et Helmut Hofer. i vol. 24 X 16, vi-322 p., 53 fig. Springer-Verlag, Berlin, i960. Prix, relié : 79 DM.
- La systématique des Mammifères fossiles est vue ici exclusivement sous l’angle de la phylogénie. Les données sont rassemblées sous une forme particulièrement utile pour le paléontologiste professionnel. La bibliographie notamment est très étendue et très récente. Plusieurs des diagrammes évolutifs sont originaux et pourront être utilisés par les enseignants. Ce manuel complète celui que le professeur Thenius a déjà fait paraître ('Tertiâr, II. Teil, Wirbeltierfaunen) et qui était consacré à l’aspect stratigraphique de la Paléontologie des Vertébrés (plus particulièrement des Mammifères). Un chapitre entièrement consacré à cette discipline nouvelle qu’est la paléoneurologie (étude des moulages endocriniens) est dû ' à la plume de M. Hofer, qui d’autre part a collaboré à la rédaction de quelques autres chapitres de paléontologie générale.
- Les problèmes de la vie. Essai sur la pensée biologique moderne, par Ludwig von Bertalanfly. ancien professeur à l’Université de Vienne. Trad. de l’allemand par Michel Deutsch. i vol, 14 X 20,5, 288 p. Collection Aux frontières de la Science. Gallimard, Paris, 1961. Prix : 12 NF + t.l.
- L’auteur est bien connu pour l’effort de réflexion qu’il a développé depuis nombre d’années sur les fondements théoriques de la biologie et l’intégration de cette science dans une conception unitaire de la connaissance. Il a toujours soutenu qu’il était vain, pourtant, de chercher à décrire l’être vivant comme une somme de phénomènes distincts et simplement juxtaposés ou intriqués, selon un schéma mécaniciste classique. Mais il n’opte pas davantage pour un vitalisme qu’il réfute tout aussi bien. Transposant d’abord la Gestalttheorie du plan psychologique sur celui de la physiologie, il a montré que l’être vivant réagit comme un tout, un système actif, et qui tend toujours à rétablir sa totale activité. Nos connaissances sont insuffisantes pour que ce principe soit d’ores et déjà explicatif. Mais une biologie plus avancée pourra, tout comme l’a fait la physique contemporaine, élaborer des descriptions de forme mathématique selon un formalisme approprié. En attendant, M. von Bertalanfly montre que la thermodynamique des systèmes ouverts peut conduire à dégager des points de vue novateurs.
- Alerte à l’homme, par Nicolas Skrotzky. i vol. 11 X 18, 206 p., 6 pl. hors-texte. Del Duca, Paris, 1961. Prix : 6,50 NF.
- Composé autour d’un thème (la défense de la nature) qui apparaît souvent dans notre revue, l’ouvrage dresse le bilan des1 destructions nombreuses qui sont imputables à l’homme. Plusieurs réserves, en France et dans le monde, sont ensuite décrites sous des aspects propices à obtenir l’audience du grand public.
- Psychologie des accidents, présenté par P. Aboulker, L. Chertok et M. Sapir. i vol. 13 X 21, xn-172 p. L’Expansion scientifique française, Paris, 1961. Prix ; 9,50 NF.
- Un des thèmes favoris de l’Organisation mondiale de la Santé est : « L’accident n’est pas accidentel ». A cela s’ajoute la triste constatation que l’accident se classe désormais parmi les principales causes de décès. Il prime même toutes les autres pour la tranche d’âge de 3 à 19 ans. Plusieurs
- 191
- p.191 - vue 195/551
-
-
-
- psychologues et médecins, chacun pour une branche déterminée, analysent ici les facteurs humains qui président à la genèse des accidents. Ils n’ont pas de peine à démontrer que, dans leur immense majorité, les fauteurs ou victimes d’accidents manifestent une nette prédisposition, d'ordre généralement psychologique.
- La relaxation, par R. Durand de Bousinguen. i vol. 11,5 x 17,5 de la collection Que sais-je ? 128 p., 20 fig. Presses Universitaires de France, Paris, 1961. Prix : 2,50 NF.
- Beaucoup apprendront avec surprise que la relaxation n’est pas un simple processus de décon-
- traction qu imet nerfs et muscles au repos, mais une méthode, ou plutôt des méthodes assez complexes que seul un spécialiste peut mettre en œuvre. Ces méthodes sont ici décrites avec détail. On aimerait en savoir plus sur les bases expérimentales qui ont permis de les élaborer.
- Nouvelles perspectives dans l’étude du travail, par M. de Montmollin. Collection Voies nouvelles de l’organisation. 1 vol. 14 X 22, viii-116 p., 5 fig. Dunod, Paris, 1961. Prix : 9 NF.
- Sous une forme parfaitement claire et n’hésitant pas à critiquer certaines des méthodes actuel-
- le dessin technique directement au net
- CRAYONS et MINES
- TECHNOGRAPH
- en graphite
- • r
- micromse
- Un
- NOUVEAU PROCEDE
- CARAN d'ACHE
- permet d'obtenir du graphite " au grain quasi
- colloïdal, donnant à la mine des qualités fort appréciées :
- • Pointe extra-fine • Trait onctueux
- • Résistance accrue • Usure minime
- • Reproductions photo et hëlio aussi nettes qu'à l'encre de CHINE.
- • 17 graduations.
- Eh. COUÜUAkS, crayons et mines PRISMATEC offrent les mêmes avantages. (18 teintes)
- chez votre papetier
- DISTRIBUÉ par CO RECTOR-ADHÉS |N E
- :.CH. IEMONNIER W
- lement en honneur dans les études du travail, l’auteur expose ses idées sur les approches scientifiques qui doivent être connues par tous ceux qui se consacrent à ces études. C’est dire que son ouvrage ne peut manquer d’intéresser les ingénieurs des branches fabrication et organisation, ainsi que les psychologues industriels.
- La vie et l’œuvre d’Albert Calmette, par Noël Bernard, sous-directeur honoraire de l’Institut Pasteur, ancien directeur général des Instituts Pasteur d’Indochine.Préface de Pasteur Vallery-Radot, de l’Académie Française, i vol. 13 X 20, 314 p., 2 photos hors-texte. Collection Les savants et le monde. Albin Michel, Paris, 1961. Prix : 15 NF.
- Trois noms dominent l’histoire des Instituts Pasteur d’Extrême-Orient : Yersin, Calmette et leur commun disciple Noël Bernard, qui s’est fait l’historiographe de ses maîtres et de l’œuvre française en Indochine. Après la vie de Yersin, voici celle de Calmette. Médecin de la Marine, puis médecin colonial, Calmette devient l’élève de Roux. Créateur de l’Institut- Pasteur de Saigon, il consacre dix ans de recherches aux venins et à d’autres sujets, avant de s’atteler, à Lille à partir de 1898, puis à Paris, à l’étude de la tuberculose qui, en 25 ans d’efforts, le conduit avec Guérin à établir et imposer le B.C.G. M. Noël Bernard nous donne là un beau chapitre de l’histoire de la médecine.
- Pages choisies de Claude Bernard, avec introduction et notes par Ernest Kahane, professeur à la Faculté des Sciences de Montpellier, x vol. xi X 17,5, 200 p. Editions sociales, Paris, 1961. Prix : 5,50 NF.
- Avec beaucoup de sympathie, mais aussi avec profondeur et un esprit critique toujours en éveil, E. Kahane s’est penché sur l’œuvre de Claude Bernard et sur ses écrits, comme il l’avait fait précédemment pour Pasteur. Son excellente introduction qui fait revivre l’hornme en même temps que le savant, avec sa grandeur et ses menus défauts, et le choix judicieux de textes qu’il nous offre nous aident à mieux comprendre une pensée qui a eu tant d’influence sur le développement de la biologie et l’affermissement de la méthode expérimentale.
- J’aime les bêtes, par Maurice Toesca. i vol.
- 12 X 19, 222 p. Albin Michel, Paris, 1961.
- Prix : 7,50 NF.
- Lisant ces quelques histoires de bêtes, alertement contées et non dénuées d’une émotion discrète, on se prend à regretter que l’auteur ne soit pas naturaliste. Les bêtes sauvages y ont leur part, assez modeste. La mort du petit lapin de garenne fait dire à l’auteur « qu’il n’y a pas de lien possible avec un animal libre, si jeune soit-il ». Il y a cent preuves du contraire et c’est un beau sujet pour M. Toesca s’il a le loisir de l’approfondir.
- Erratum pour l’hydroaimant. — Notre article sur l’hydroaimant (février 1962) comportait un tableau donnant les caractéristiques de fonctionnement en faisant varier divers paramètres (p. 65). M. Robert Granboulan a bien voulu nous signaler une erreur dans la colonne 4 de ce tableau. Etant donné les valeurs indiquées du débit (20 000 1/mn) et du champ magnétique (100 000 gauss), la pression exercée sur les parois n’est pas de 180 t/cm*, mais de 18 t/cms. Présentons nos excuses.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Le Gérant : F. Dunod. — DUNOD, Éditeur, Paris. — Dépôt légal : 2e trimestre^ôz, N° 3957. — Imprimé en France. Imprimerie Bayeusaine, 6-8, rue Royale, Bayeux (Calvados), N° 3163. — 4-1962.
- p.192 - vue 196/551
-
-
-
- Les satellites de télécommunications remédieront à la surcharge
- des voies classiques par Félix Roy
- L’homme moderne ne mesure pas toujours exactement à quel point il est devenu tributaire du réseau mondial des télécommunications. Et c’est sans la moindre surprise qu’il écoute ou lit des informations concernant des faits survenus quelques minutes auparavant à l’autre bout de la Terre ou même loin de notre planète. Lorsqu’en 1964 il pourra suivre les jeux olympiques de Tokio directement à la télévision, saisira-t-il pleinement les progrès de la science des télécommunications qui auront rendu possible un tel exploit technique ?
- Limites des moyens classiques
- On dispose, à l’heure actuelle, de trois moyens de communications intercontinentales : le câble télégraphique, le radiotéléphone et le câble téléphonique. Le premier câble télégraphique transatlantique fut mis en service en 1866 non sans avoir occasionné de très grandes difficultés techniques. Puis il fallut attendre 1927 pour que des conversations puissent être échangées à travers l’Atlantique par radiotéléphone, et ce fut seulement en 1956 que le premier câble téléphonique fut posé sur le même parcours.
- Pour les communications continentales on dispose d’un quatrième moyen : les relais hertziens qui fournissent pour un prix relativement bas une forte capacité de transmissions. Quant aux câbles téléphoniques terrestres, qui sont soumis à des conditions physiques beaucoup moins dures, ils fournissent de meilleures performances que les câbles sous-marins; ils peuvent, en particulier, transmettre les signaux de télévision.
- La capacité d’un système de transmission est déterminée par la largeur de la bande de fréquences qu’il peut transmettre. On sait que la gamme de fréquences sonores auxquelles l’oreille est sensible s’étend de 20 à 20 000 hertz (A) environ. Mais l’expérience montre que l’on peut transmettre une conversation de façon satisfaisante en se limitant à une bande allant de 50 à 5 000 Hz. Par les méthodes actuelles de « multiplex », il est possible de superposer plusieurs conversations dans le même canal de communications en transposant leurs fréquences.
- Supposons que l’on dispose d’un câble capable de trans-
- 1. Le hertz est l’unité de fréquence : i hertz = x période par seconde ou encore 1 cycle par seconde (x c/s). Les multiples sont : le kilohertz (KHz) et le Méga-
- hertz MHz) valant respeci
- un million de hertz.
- mettre des fréquences allant jusqu’à 15 000 Hz. On pourra transmettre une conversation téléphonique dans la bande comprise entre o et 5 000 Hz, une autre entre 5 000 et xo 000 Hz, une troisième entre 10 000 et 15 000 Hz.
- Un système complexe de filtres reprend à la sortie du câble les différentes conversations et les retranspose dans leur gamme de fréquence d’origine. C’est ainsi que le câble téléphonique transatlantique, câble coaxial à deux conducteurs, peut transporter 36 conversations simultanées, alors que les câbles téléphoniques locaux comportent autant de paires de fils que de conversations. En fait, la capacité de ce câble a récemment été portée à 26 voies par l’application d’un ingénieux procédé qui permet de commuter très rapidement les conversations entre les différentes voies. Ce procédé est fondé sur le fait, reconnu grâce aux enregistrements phoniques, qu’une parole, en apparence continue, est fragmentée par un grand nombre de silences. C’est ainsi que dès qu’une voie est libre, ne serait-ce que pour une fraction de seconde, on y fait passer l’élément d’une conversation. Ces conversations sont ainsi entrelacées les unes dans les silences des autres. Et c’est ce qui permet cette grande augmentation de capacité. Il n’en reste pas moins que le nombre de voies disponibles est encore insuffisant et l’on doit avoir recours au radiotéléphone qui n’est certainement pas aussi satisfaisant que le câble.
- Le radiotéléphone n’est autre chose qu’une radiodiffusion sur ondes courtes où le nombre de canaux disponibles est limité par l’encombrement de l’éther et aussi par le fait que les ondes courtes doivent se réfléchir sur l’ionosphère pour parvenir à destination. Or les caractéristiques de l’ionosphère sont éminemment variables car elles dépendent de l’activité solaire. On sait que ce sont les électrons libres créés dans la haute atmosphère par le rayonnement solaire qui réfléchissent les ondes de radio et leur permettent de contourner la rotondité de la terre. Pour une densité d’électrons donnée, toutes les fréquences inférieures à une certaine fréquence (fréquence dite de plasma) seront réfléchies par l’ionosphère. On voit donc que plus la densité d’électrons sera élevée et plus la gamme des fréquences disponibles pour les communications sera étendue. Et c’est donc, en définitive, la plus ou moins grande activité solaire qui élargit ou rétrécit la bande des fréquences disponibles.
- Au cours des années 1957 à i960 le Soleil a été particulièrement actif, ce qui a grandement facilité les liaisons
- 193
- p.193 - vue 197/551
-
-
-
- Fig. r. — Le problème des communications radioélectriques.
- La rotondité de la'Terre’limite la portée d’un émetteur.
- y//.//
- L’ionosphère, en réfléchissant les ondes, leur permet de contourner la surface terrestre.
- Satellites artificiels :
- en réémettant ou réfléchissant les ondes qu’il reçoit, un satellite permet d’atteindre une région étendue du globe.
- radio par ondes courtes. Mais nous entrons maintenant dans une période de déclin de l’activité solaire, le prochain « pic » n’étant prévu que pour 1970. Or on estime que lors des minimums, la bande de fréquence disponible et par conséquent le nombre des voies pouvant être empruntées par la radiotéléphonie seront réduits de moitié par rapport à la période des maximums.
- Pour remédier à cet état de fait on se retourne vers les baisons sous-marines et des études ont été entreprises pour la pose d’un nouveau câble transatlantique. Sa capacité
- sera de 128 conversations simultanées et sa mise en service est prévue pour 1963.
- Il est en tout cas certain que les voies de communications dont on dispose actuellement auront vite tendance à être saturées si l’augmentation régubère des besoins se conjugue avec une compression des gammes disponibles. La figure 2 montre l’augmentation du nombre de communications transatlantiques demandées à partir des Etats-Unis depuis 1930.
- Dépassant les considérations purement quantitatives, il convient également de tenir compte de la qualité des transmissions. Jusqu’ici en effet, nous n’avons envisagé que la téléphonie, où l’on peut se contenter d’une bande de 5 000 Hz, suffisante pour transmettre la parole humaine de manière satisfaisante. Tout change à partir du moment où il s’agit de véhiculer de la musique (sur une largeur de 15 000 à 20 000 Hz) et surtout les signaux de la télévision qui s’étendent sur une bande de 5 000 000 Hz (5 MHz) Une transmission de télévision occupe donc autant de place que 1 000 conversations téléphoniques. Cela se conçoit assez bien si l’on songe au grand débit d’informations que représente la transmission de 24 images complètes par seconde. A titre de comparaison, on peut dire que le débit d’informations qui doit être « écoulé » exige une bande de fréquences adéquate, comme le débit
- e 10Q
- 1930 1340 1950 1360 1970 1980
- Année
- Fig. 2. — Volume des communications téléphoniques intercontinentales demandées et reçues par an aux Etats-Unis.
- On constate une augmentation régulière depuis 1946, correspondant à des tarifs stables. Toute diminution de tarif provoque une rapide augmentation de trafic. C’est ce qui s’est produit en 1935 et entre 1940 et 1945. La partie pointillée de la courbe correspond aux prévisions qu’on peut faire.
- (D’après W. Mecklxng, dans Science).
- 194
- p.194 - vue 198/551
-
-
-
- d’une masse liquide est fonction du diamètre de la canalisation qu’elle emprunte.
- Pour les télécommunications terrestres, tous ces problèmes sont très élégamment résolus par l’emploi de faisceaux hertziens à très hautes fréquences. Il s’agit toujours de liaisons radio mais alors que le domaine des ondes courtes est limité à une fréquence plafond de 25 MHz, celui des relais hertziens s’étend de 4 000 à 12 000 MHz environ. Dans cette gamme des « hyperfréquences », les ondes ont des propriétés qui commencent à ressembler à celles de la lumière. Leur longueur qui est de l’ordre de 5 cm permet de les focaliser à l’aide de réflecteurs et même de lentilles de grandes dimensions. Mais on a pu constater que leur fréquence, largement supérieure à la fréquence de plasma, est trop élevée pour qu’elles se réfléchissent sur l’ionosphère. Il en résulte que les transmissions ne peuvent se faire qu’entre des points en « vue directe » les uns des autres sans pouvoir surmonter 1’ « écran » que dresse devant elles la rotondité terrestre. La portée est donc limitée à une cinquantaine de kilomètres et il faut de nombreux relais, ce qui restreint l’emploi de cette méthode à des réseaux continentaux. Sous cette restriction et du fait de la très haute fréquence de l’onde radio, les faisceaux hertziens possèdent une très grande largeur de bande et permettent de relayer des émissions de télévision à de grandes distances. Mentionnons également qu’en de nombreux cas les faisceaux hertziens sont focalisés grâce à des antennes « directionnelles » et ne se dispersent pas dans l’espace. Ils ne risquent donc pas de se mélanger avec les émissions radiodiffusées. C’est pour cette raison qu’on les assimile souvent à des câbles. L’expression « câbles hertziens » est couramment employée. Mais pour les communications intercontinentales, les faisceaux hertziens qui semblent sur terre apporter la solution idéale, se heurtent au problème insoluble des nombreuses stations relais nécessaires.
- C’est cette constatation qui mène directement à l’idée d’utiliser un satellite artificiel comme relais dans une telle liaison.
- Satellites de relais
- Dès que fut connue la possibilité de créer des satellites artificiels de la terre, les spécialistes des télécommunications y virent une possibilité d’extension des méthodes employées pour les faisceaux hertziens.
- C’est en 1945 qu’un journaliste scientifique anglais, A.C. Clarke, lança l’idée. Il fit remarquer qu’un satellite placé sur une orbite circulaire à 36 000 km de la surface terrestre aurait une durée de révolution égale à celle de la rotation de la Terre. Si en outre, cette révolution se faisait sur une orbite équatoriale et dans le même sens, le satellite resterait en permanence à la verticale d’un point donné de l’équateur et paraîtrait fixe pour tout observateur terrestre. Si trois satellites de cette nature étaient régulièrement espacés sur une orbite équatoriale, l’un d’entre eux au moins serait visible d’un point quelconque du globe, à l’exception de quelques régions inhabitées près des pôles (fig. 3 et 9). Clarke proposait de mettre en orbite des satellites habités munis d’appareils de réception et de retransmission.
- En 1955, J.R. Pierce, des Bell Laboratories, proposa un système de satellites « passifs », simples réflecteurs
- 36000 km
- Fig. 3. — Satellites synchrones.
- Les trois satellites effectuent une révolution en 24 h dans le plan de l’équateur; chacun d’eux surmonte donc toujours le même point de la surface terrestre et ils paraissent fixes dans le ciel vu de la Terre. Les émissions des trois satellites peuvent couvrir pratiquement toute la surface terrestre.
- évoluant à plus basse altitude et qui ne seraient par conséquent pas fixes dans le ciel. Il envisageait aussi des satellites « actifs » (répéteurs), soit « synchrones » (c’est-à-dire conformes au modèle de Clarke et ayant leur orbite à 36 000 km), soit à basse altitude. Ces derniers, n’étant pas fixes dans le ciel, devaient nécessairement être plus nombreux pour permettre une liaison à peu près continue entre deux points quelconques du globe.
- Un dernier système fut proposé en i960 par W.E. Mor-row, du Massachusetts Institute of Technology. Ce système consiste à placer autour de la Terre une ceinture de petites aiguilles qui servent de réflecteurs aux ondes hyperfréquence, créant ainsi une sorte d’ionosphère artificielle, capable de réfléchir ces ondes.
- Dans ce qui suit, nous allons examiner avec quelques détails les différents systèmes proposés et les réalisations entreprises.
- Les satellites passifs
- C’est un satellite passif qui a été expérimenté en août i960 sous le nom de projet Echo. Un satellite est lancé sur une orbite circulaire. Pour réaliser une liaison entre deux points du globe on envoie un faisceau d’ondes hyperfréquence dans la direction du satellite. Celui-ci réfléchit le faisceau vers la Terre et l’on capte à l’autre bout de la chaîne l’onde réfléchie. Ce système avait déj à été expérimenté en utilisant la Lune comme réflecteur et une bonne Hais on avait pu être réalisée à travers les Etats-Unis, du Pacifique à l’Atlantique. Un ensemble complet comporterait un grand nombre de tels satellites afin qu’il y en ait toujours au moins un en vue de deux points quelconques du globe. Ce principe semble prometteur à première vue : les satellites sont très simples et ne comportent aucun équipement, une même fusée peut en mettre plusieurs sur orbite en une seule fois ; les satelhtes et leur lancement sont donc économiques.
- Par contre, du fait que le sateHite est passif, la puissance nécessaire à l’émission est très grande si l’on veut obtenir une bonne transmission; les équipements de réception doivent être sensibles, donc onéreux, et sujets à des interférences provenant d’autres émetteurs. Il semble donc qu’à l’heure actuelle on ne considère pas ce système comme devant être retenu pour des apphcations généraHsées.
- Les essais qui ont été faits avec le satelhte Echo ont cependant fourni une expérience précieuse qui reste utüisée dans la mise en œuvre des autres systèmes.
- Le satellite Echo était un ballon de 30 m de diamètre en matière plastique (Mylar) aluminisée. Il fut placé le
- 195
- p.195 - vue 199/551
-
-
-
- Fig. 4. — Le satellite passif Echo II.
- Photographié ici pendant ses essais de résistance, ce ballon doit être mis en orbite cette année au cours de l’expérience « Rebound ». Il mesure 43 m de diamètre, alors que son prédécesseur Echo I, mis en orbite en août i960, ne mesurait que 30 m.Tous deux sont en Mylar aluminisé, mais Echo II est beaucoup plus rigide et conservera donc plus longtemps sa forme sphérique.
- {Photo aimablement communiquée par le Centre culturel américain).
- 12 août 1960 à x 600 km d’altitude sur une orbite circulaire presque parfaite, inclinée à 450 environ sur l’équateur.
- Une fois le satellite mis en orbite, les problèmes à résoudre étaient de deux ordres : repérage du ballon et asservissement des antennes d’une part, sensibilité de la réception d’autre part. De nombreuses liaisons furent réalisées entre les stations de Holmdel, New Jersey (Bell Laboratories) et Goldstone, Californie (Jet Propulsion Labora-tory). Des liaisons furent également réalisées avec le Centre National d’Etudes des Télécommunications (C.N.E.T.) en France à Issy-les-Moulineaux et avec l’observatoire de Jodrell Bank en Grande-Bretagne. On a même pu transmettre une photographie de l’Atlantique au Pacifique par bélinographe. Comme nous le verrons plus loin, un ballon semblable, mais plus grand, baptisé Echo II, doit être lancé cette année (fig. 4).
- Sensibilité et bruit de fond
- Les principaux problèmes qui se sont posés concernent la sensibilité des récepteurs et le bruit de fond. Seules les techniques les plus avancées ont permis de les résoudre. Rappelons qu’on appelle bruit de fond tout phénomène qui, étant de même nature qu’un signal, tend à brouiller la détection de ce signal.
- En réalité ce n’est pas tellement le manque de sensibilité des récepteurs qui limite les performances que la compétition entre le bruit de fond et le signal à recevoir. En l’absence de tout signal on détecte malgré tout un effet dû essentiellement à deux causes : le récepteur lui-même produit un bruit provenant de l’agitation thermique des électrons dans les circuits. Cette agitation crée des courants aléatoires qui se traduisent par un bruit à la réception. D’autre part toute antenne reçoit en permanence des signaux provenant, soit de l’atmosphère, soit de l’espace. Les premiers sont dus eux aussi à l’agitation thermique; quant à ceux qui proviennent de l’espace, ils font l’objet des études de la radio-astronomie et leur origine est encore mal connue. Dans la bande de 1 000 à 5 000 MHz, le bruit
- p.196 - vue 200/551
-
-
-
- provenant de l’espace est heureusement négligeable. Les sources de bruit sont caractérisées par leurs températures de bruit. Cette mesure conventionnelle est obtenue en comparant l’intensité du bruit émis par une source et celle du bruit émis par un filament de tungstène porté à une température donnée. Si par exemple la température du filament est X°, la source qui émet un bruit équivalent a une température de bruit égale à X°. Ceci n’implique pas que la source se trouve soumise à cette même température dans l’échelle du thermomètre. La température de bruit, tout en étant en relation avec la « température tout court », représente, en règle générale, une valeur différente.
- Voici quelques températures de bruit pour des fréquences
- voisines de 5 000 MHz :
- Atmosphère observée à la verticale . . 30 Kelvin
- Atmosphère observée à l’horizontale . 1 oo° —
- Sources cosmiques ................. i° —
- Sol................................ 300° —
- Récepteur Radar classique ......... 2 ooo° —
- Récepteur utilisant un « maser » .... io° —-
- Pour qu’un récepteur puisse extraire une information
- d’un signal reçu il faut, normalement, que la puissance de ce signal soit environ 20 fois supérieure à la puissance de bruit. Cette puissance de bruit est proportionnelle à la somme des températures de bruit des différentes sources auxquelles est soumis le récepteur et à la largeur de la
- bande de fréquences à laquelle il est sensible. Or nous avons vu que plus on veut transmettre d’informations, plus on doit avoir recours à une grande largeur de bande.
- Des procédés techniques récents permettent cependant de tricher en quelque sorte avec ces impératifs apparemment contradictoires. En utilisant des procédés de modulation spéciaux, on peut arriver à extraire l’information d’un signal, même quand sa puissance dépasse à peine celle du bruit. D’autre part on arrive à réduire la bande de fréquences qui conditionne le bruit reçu sans pour cela diminuer celle qui détermine la capacité de transmission du canal.
- De toute manière et afin de ne pas augmenter indéfiniment la puissance de l’émission (on utilisait une puissance de 10 kW, ce qui est déjà fort important), on s’est attaché à réduire la température de bruit du récepteur. Pour ce faire, deux procédés ont été employés : diminuer d’une part le bruit reçu par les antennes et d’autre part le bruit intrinsèque du récepteur.
- Fig. j. — L’antenne-cornet utilisée pour l’expérience Echo. L’énergie reçue par l’ouverture se réfléchit sur la paroi inclinée, qui est une portion de paraboloïde de révolution, et se concentre au foyer situé dans la cabine. Cette disposition présente l’avantage de limiter considérablement le bruit parasite. L’antenne mesure 20 m de long et 10 m de haut. Une antenne de même forme mesurant 50 m de hauteur et 60 m de longueur est en construction à Rumford aux Etats-Unis pour servir aux prochaines expériences de communications par satellites.
- {Photo Bell Téléphoné Laboratories).
- p.197 - vue 201/551
-
-
-
- Antennes de 25 m de diamètre „
- 16D0km
- [metteur 10kW
- Goddard spaceflight Center
- ///Goldstone (côte pacifique)
- \ Réseau Minitrack
- Fig. 6. — Schéma de l’expérience Echo.
- Le ballon [de 30 m de diamètre sert de réflecteur aux ondes émises soit de la côte Atlantique, soit de la côte Pacifique des Etats-Unis. Le centre de calcul de Washington détermine, à partir des éléments fournis par le réseau de repérage « Minitrack », la direction dans laquelle les antennes doivent être pointées.
- (Imité de W.C. Jakes, The Bell System Technical Journal).
- Le premier de ces résultats est obtenu en évitant tout d’abord de diriger l’antenne selon un axe voisin de l’horizontale. On doit l’orienter sous un angle minimal de j° pour lequel la température de bruit de l’atmosphère est de 20° Kelvin seulement. On utilise de plus une antenne de réception spéciale en forme de cornet (fig. 5). Cette antenne, très fermée, diminue beaucoup le bruit reçu du sol. Alors qu’une antenne parabolique classique, pointée vers le zénith, reçoit du sol une puissance de bruit correspondant à une température de 5 o° Kelvin environ, l’antenne-cornet, dans les mêmes conditions, ne « voit » qu’une source de 250 Kelvin environ et on espère réduire ce chiffre à io° Kelvin dans l’avenir.
- C’est l’amplificateur quantique « maser » qui contribue le mieux à la lutte contre le bruit : recevant en effet l’énergie captée par l’antenne, il lui fournit une première amplification, sans que cette opération produise une température de bruit supérieure à io° Kelvin environ. Il s’agit d’un maser à rubis fonctionnant à la température de l’hélium liquide. Ce même type d’instrument sert aussi couramment en radio-astronomie où des problèmes analogues se posent.
- La figure 6 donne le principe de l’expérience Echo. La station de Goldstone disposait de deux antennes paraboliques classiques de 25 m de diamètre, l’une pour l’émission, l’autre pour la réception. Celle de Holmdel disposait d’une antenne parabolique de 18 m de diamètre pour l’émission et d’une antenne-cornet pour la réception. Le but de ces grandes antennes est, à l’émission, de concentrer autant que possible l’énergie émise en un faisceau dirigé vers le satellite; et à la réception, d’augmenter l’énergie reçue en concentrant sur le récepteur, placé au foyer de l’antenne, l’énergie tombant sur toute la surface du réflecteur.
- Nous avons vu que le succès de l’expérience dépendait en grande partie de la directivité des antennes d’émission et de réception. En contrepartie cette directivité impose que les antennes soient braquées avec précision sur le satellite. Ce problème n’a pu être résolu qu’en mettant en œuvre d’importants moyens.
- Repérage et pointage
- Quiconque a pu observer, la nuit, le satellite Echo à l’œil nu aura remarqué qu’il traversait le ciel avec une vitesse importante. Il passait d’un horizon à l’autre en
- 30 mn environ et de plus sa luminosité apparente n’était pas supérieure à celle d’une étoile de première grandeur. On conçoit dès lors que le problème du repérage et du pointage des antennes ait pu présenter des difficultés. Il a été résolu de la façon suivante. Le centre de calcul du Goddard Space Flight Center, à Washington, prédisait l’orbite du satellite grâce aux renseignements du réseau « Minitrack ». Ce réseau est composé de stations d’observation réparties sur le globe et qui utilisent des pointages optiques, une détection par radar et les indications obtenues à l’aide d’un petit émetteur placé sur le ballon. Le centre de calcul de Washington était ainsi en mesure de produire un ruban perforé qui était transmis aux deux stations et servait directement à pointer les antennes, grâce à une calculatrice qui transformait à tout instant les indications du ruban perforé en signaux électriques qui commandaient les moteurs de pointage des antennes.
- Après quelques passages, le pointage ainsi obtenu était exact à quelques dixièmes de degrés près. Pour parfaire le pointage et remédier à une éventuelle défection de ce système, deux autres méthodes étaient employées concurremment. Un radar et une lunette astronomique étaient pointés sur le satellite en même temps que les antennes. Ces deux appareils permettaient de mesurer à tout moment l’écart entre la direction de pointage et la position vraie du satellite et de corriger manuellement si nécessaire.
- Il faut noter ici la perfection du lancement de ce satellite dont témoigne le fait suivant. Lors du premier tour du satellite sur son orbite, la visibilité était mauvaise et le système optique ne pouvait être utilisé. Le radar de poursuite n’était pas encore en état de marche à la station de Holmdel. Seul par conséquent, le ruban perforé permettait de pointer les antennes. Ce ruban avait été préparé avant la mise en orbite et cependant il permit un pointage assez exact pour qu’un message ait pu être transmis lors de ce premier passage.
- Grâce à ces techniques ultra-modernes de télécommunication, une excellente liaison téléphonique a pu être obtenue entre les deux stations. Malgré ce succès, il ne semble pas, à l’heure actuelle, qu’un système de ce genre puisse être envisagé pour fournir les liaisons à grande capacité. On se heurte en effet rapidement à des difficultés. C’est ainsi qu’au bout de quelque temps le ballon Echo a commencé à se déformer et sa réflectivité a diminué de ce fait. En une telle occurrence et ne pouvant plus améliorer
- 198
- p.198 - vue 202/551
-
-
-
- sensiblement la qualité des récepteurs, on serait obligé, pour augmenter la capacité de la transmission, d’accroître fortement la puissance des émetteurs. Il faudrait par exemple une puissance d’une centaine de kilowatts pour pouvoir faire passer une émission de télévision (ou mille conversations téléphoniques). Cette puissance est assez importante et les risques d’interférences deviendraient prohibitifs. C’est pourquoi on semble s’orienter actuellement vers des satellites « actifs » qui nécessitent beaucoup moins de puissance à l’émission.
- Les satellites actifs
- Le qualificatif actif est appliqué à des satellites qui ne se contentent plus, comme dans le cas d’Echo, de réfléchir passivement les ondes qu’ils reçoivent; ils les captent, les amplifient et les retransmettent vers le sol. Il est évident qu’avec ce relais « actif » la puissance nécessaire à l’émission est beaucoup plus faible. D’après l’expérience acquise avec Echo, on admet qu’une puissance de 2 W seulement serait suffisante pour qu’un signal émis d’un satellite actif puisse être capté par une station du genre de celle utilisée à Holmdel pour l’expérience Echo. Avec cette puissance, on pourrait transmettre une émission de télévision ou les i ooo conversations téléphoniques correspondantes. La puissance nécessaire au sol, à l’émission, serait de quelques kilowatts seulement.
- Il existe actuellement deux sortes de projets de satellites actifs : les satellites dits « basse altitude » et ceux dits « synchrones ».
- Système basse altitude
- Un système de satellites actifs de basse altitude a été proposé pour les applications civiles par le trust américain des téléphones (American Téléphoné and Telegraph Company) et sa filiale les Bell Laboratories (fig. 7 et 8). On utiliserait des satellites répéteurs évoluant sur des orbites situées entre 5 000 et 15 000 km d’altitude. De tels satellites, se déplaçant assez rapidement par rapport à la surface terrestre, nécessitent un système de pointage des antennes analogues à celui du projet Echo. Il faut de plus prévoir^un assez grand nombre de satellites pour que deux points quelconques de la Terre puissent entrer en communication presque à n’importe quel moment. Les études faites montrent que 40 satellites répartis au hasard sur des orbites polaires et 15 sur des orbites équatoriales à 10 000 km d’altitude permettraient de relier tous les points du globe pendant 99,9 pour 100 du temps, soit une interruption totale de service d’une minute et demie par jour répartie sur différentes heures de la journée.
- Un satellite doit évidemment posséder une source d’énergie pour faire fonctionner son émetteur. Tous les projets comportent des piles solaires au silicium et une batterie au nickel-cadmium pour régulariser le débit, compte tenu des périodes où le satellite se trouve dans l’ombre de la Terre. Pour un poids de 15 kg environ, une telle source peut produire une puissance de 20 W, ce qui est suffisant pour faire fonctionner l’émetteur de 2 W envisagé.
- Le gros problème à résoudre dans tous les systèmes
- Fig. 7. — Les piles solaires du satellite actif A.T.T.
- On voit ici un technicien posant sur les piles solaires de minces lames de saphir artificiel, qui doivent les protéger contre les radiations. Ces lames sont enchâssées dans des cadres de platine qui ont le même coefficient d’expansion thermique. On espère que les piles conserveront ainsi plus de la moitié de leur efficacité pendant 5 à 10 ans.
- {Photo Bell Téléphoné Laboratories).
- actifs est celui de la sécurité d’emploi. Etant donnés les frais élevés de mise en orbite, on estime qu’un satellite devra pouvoir fonctionner pendant 5 à 10 ans sans défaillance pour que le système puisse être rentable. De tels problèmes de sécurité ne seraient pas pour effrayer les techniciens du téléphone s’il n’y avait l’inconnue de l’intensité des radiations dans l’espace. Des problèmes analogues ont été résolus par le câble téléphonique transatlantique. Ce câble comporte des répéteurs (amplificateurs) tous les 70 km environ. Jusqu’à présent les 1 500 lampes de radio que comportent les répéteurs ont assuré sans défaillance leur service pendant 6 ans. Aucune crainte par conséquent de ce côté. Et par ailleurs des expériences sont actuellement en cours pour déterminer dans quelle mesure les pièces détachées qui entrent dans la fabrication des satellites résistent aux radiations. Mais seul l’essai d’un satellite réel dans ses conditions d’emploi permettra de déterminer les techniques à employer pour assurer une sécurité suffisante.
- Satellites synchrones
- On en revient ici (à l’automatisme près) à l’idée émise par Clarke.
- Nous avons vu que trois satellites régulièrement espacés sur une orbite circulaire équatoriale à 36000 km d’altitude, donc immobiles par rapport à nous, permettraient de couvrir pratiquement tous les points du globe. Un satellite
- 199
- p.199 - vue 203/551
-
-
-
- p.200 - vue 204/551
-
-
-
- Fig. 8. — Le satellite actif de basse altitude A.T.T.
- Les techniciens procèdent ici aux essais d’un modèle de satellite. On distingue les piles solaires et, à l’équateur de la sphère, le réseau d’antennes d’émission
- et de réception.
- (Photo Bell Téléphoné Laboratories).
- unique au-dessus de l’Atlantique permettrait déjà d’excellentes liaisons entre l’Europe et le continent américain et serait donc du plus haut intérêt (fig. 9).
- Le fait que le satellite soit synchrone, c’est-à-dire stationnaire dans le ciel, présente de grands avantages, car cela permet de simplifier le réglage des antennes qui doit seulement compenser de légères dérives de l’engin. Par contre si l’on veut pouvoir se contenter d’une puissance de quelques watts seulement sur le satellite, il faut le munir d’une antenne directionnelle pointée vers la Terre. Les problèmes du pointage automatique de l’antenne et de la stabilisation du satellite sur son orbite sont actuellement l’objet d’études mais ne semblent pas encore être résolus de façon définitive.
- Au cours de l’exploitation les différentes stations qui voudraient entrer en communication se verraient attribuer chacune un certain nombre de canaux de fréquence, parmi les 1 000 disponibles, le nombre de canaux attribués à une station donnée pouvant d’ailleurs varier d’heure en heure suivant les besoins. Chaque station pourrait à tout moment entrer en communication avec n’importe quelle autre en utilisant la même antenne mais des canaux différents.
- Ce système semble donc plus souple que le précédent. Dans le cas des satellites à basse altitude, en effet, si la communication avec deux stations différentes nécessite l’emploi de deux satellites, il faudra aussi deux antennes pointées chacune vers un de ces satellites. Le système
- synchrone offre l’avantage de réclamer moins de satellites, mais outre le problème de stabilisation il présente des difficultés majeures : la mise sur orbite doit se faire avec une grande précision; il est difficile de dire si cette précision est réalisable ou non dans l’immédiat; on admet toutefois qu’elle ne semble pas hors de portée.
- Un autre problème inquiète assez sérieusement les spécialistes, c’est celui du délai de transmission. Bien que l’information se propage ici à la vitesse de la lumière, il lui faudra trois dixièmes de seconde environ pour effectuer le parcours Terre-Satellite-Terre. On craint que dans ces conditions un nouveau problème, celui de l’écho, ne devienne difficile à résoudre. Déjà, dans le cas de lignes intercontinentales, il est nécessaire de prendre des précautions pour éviter que l’usager n’entende l’écho de sa propre voix se réfléchissant à l’autre bout de la ligne. L’expérience montre en effet que le fait d’entendre sa propre voix avec un certain décalage pendant que l’on parle est très gênant : les acousticiens savent que cela provoque un bégaiement qui inhibe la parole. Normalement on emploie une méthode de suppression de l’écho qui empêche purement et simplement tout son de parcourir la ligne en direction d’un usager donné pendant qu’il parle. Cette méthode fonctionne de façon satisfaisante tant que le délai de transmission est faible, mais si le blocage de l’écho impose (pour l’aller et retour) un « blanc » de six dixièmes de seconde, il est clair que chacun des interlocuteurs devra se taire pendant cet espace de temps, après que l’autre aura terminé sa phrase. Il sera dès lors difficile sinon impossible à l’un des interlocuteurs d’interrompre l’autre ou même d’entrer dans la conversation. Des expériences sont en cours pour essayer de déterminer quels sont les inconvénients exacts de ce phénomène et de voir s’il est vraiment rédhibitoire. On pourra évidemment se
- Fig. 9. — Zones terrestres
- couvertes par les émissions de satellites synchrones.
- Les petits cercles en trait continu représentent les positions de deux satellites synchrones à zo° Ouest et 1800. Les trois petits cercles en traits interrompus situent trois satellites synchrones à 300 Ouest, 1700 Ouest et 96° Est. Les courbes en traits pleins ou interrompus représentent les limites des zones respectives d’où ces satellites seraient visibles. On voit qu’à lui seul, un satellite immobile au-dessus de l’Atlantique serait visible à la fois de l’Est des Etats-Unis et de l’Europe occidentale et pourrait servir de relais pour les télécommunications entre les deux continents.
- (D’après RCA Reviem).
- a
- equateur
- équateur
- 201
- p.201 - vue 205/551
-
-
-
- rabattre sur la solution du « Duplex » qui consiste à attribuer à chaque conversation deux canaux distincts à sens unique. Ceci résout le problème mais nécessite évidemment une capacité double.
- Les projets en cours
- Il nous reste, pour terminer, à passer en revue les projets de communication par satellites déjà réalisés ou en cours de réalisation.
- Quatre projets ont été réalisés à l’heure actuelle. Ce sont par ordre chronologique les projets « Score», « Courrier», « Echo » et « Westford ».
- Le projet « Score» a été le premier système de communication par satellite. Lancé en décembre 1958 par l’Armée américaine, « Score » était un satellite actif répéteur. « Courrier», lancé en octobre i960, fonctionnait sur le même principe : un message envoyé d’une station était enregistré par le satellite sur bande magnétique et réémis quelque temps après à la demande d’une autre station quand le satellite passait à proximité. Toutes les fonctions étaient télécommandées du sol. Les deux stations construites constituent la base d’un réseau militaire de communications qui sera peut-être amené à se développer. Ces satellites se rangent dans la catégorie basse altitude, mais le fait qu’ils transmettent les messages avec un long retard les rend inutilisables pour la téléphonie.
- Le projet Écho a débuté en août i960 et le ballon a été utilisé pendant plus d’une année pour une série d’expériences de transmissions. On a pu se rendre compte des limitations de la méthode passive exposée plus haut, mais une importante expérience a été acquise qui sera précieuse par la suite.
- Le projet Westford est connu par l’opposition qu’il a rencontrée dans les milieux scientifiques. Il s’agissait de réaliser autour de la terre un anneau de fines aiguilles métalliques (2 cm de long et 25 microns de diamètre) constituant un réflecteur pour les ondes hyperfréquence (fréquence voisine de 7 500 MHz). Un poids total de 100 kg de métal devait suffire pour réaliser un anneau à 5 000 km d’altitude. On espérait pouvoir réaliser par ce moyen des liaisons téléphoniques à 32 voies avec un émetteur de 10 kW environ. L’anneau a été lancé à la fin de 1961, mais à notre connaissance les résultats de l’expérience n’ont pas encore été publiés. De nombreux astronomes et radio-astronomes, rappelons-le, se sont élevés contre ce projet, craignant que ce fin nuage métallique ne perturbe les observations, soit en interceptant les radiations venant de l’espace, soit
- Engrais en pilules
- Lorsque les engrais sont incorporés au sol par les méthodes courantes, les éléments nutritifs se trouvent en surabondance après l’application puis, au cours de leur croissance, les plantes peuvent en manquer à nouveau. Des chercheurs de l’Université du Wisconsin ont eu l’idée d’enrober les engrais dans des capsules de matière plastique afin d’en rendre la distribution progressive. Une expérience avec le paturin des prés a montré que cette herbe poussait alors de façon beaucoup plus uniforme, et les pertes d’engrais ont été réduites de i<$ pour 100.
- en réfléchissant celles provenant de la Terre, au point de brouiller les récepteurs très sensibles qu’ils utilisent. Les promoteurs assurent que la pression de radiation solaire fera rentrer l’anneau dans l’atmosphère où il se désintégrera dans un délai d’un an. Réponse bien peu satisfaisante s’il est vrai que l’anneau Westford aura pu perturber les observations astronomiques de toute la planète pendant un an ! Voici à présent les différents projets à réaliser dans l’avenir.
- Trois expériences doivent être entreprises dans le courant de l’année 1962 : Le projet « Rebound» (Rebondissement). Il s’agit d’une version plus développée du proje-Echo; le nouveau ballon aura un diamètre de 43 m et sera plus rigide (fig. 5). Il sera placé sur une orbite circulaire à 2 700 km d’altitude. Trois ballons seront lancés par la même fusée.
- Le projet « Relay » (Relais) patronné comme le précédent par la National Aeronautics and Space Administration (N.A.S.A.) utilise un satellite actif à basse altitude.
- La N.A.S.A. va également lancer un satellite pour le compte de l’American Téléphoné and Telegraph Company (coût de l’opération, supportée par l’A.T.T. : 30 millions de NF). Ce sera également un satellite actif à basse altitude. L’A.T.T. construit actuellement à Rumford (Maine) une nouvelle antenne-cornet plus grande que celle utilisée pour le projet Echo. Cette antenne servira pour les projets « Relay» et A.T.T. Si le système basse altitude est adopté, Rumford doit devenir une des stations du futur système et quatre autres antennes semblables doivent y être construites.
- Des accords ont été conclus avec les services des postes anglais et français pour procéder à des expériences de téléphonie et de télévision transatlantiques au cours de ces trois réalisations. Pour cela, le Centre national des Télécommunications construit à Lannion en Bretagne une antenne-cornet de grandes dimensions.
- L’armée américaine de son côté étudie des satellites synchrones à usage militaire qui devraient être expérimentés prochainement (Projet «Advent»).
- Il est certain que plusieurs années s’écouleront encore avant qu’un réseau civil international de télécommunications par satellites entre définitivement en service, mais 1962 verra presque sûrement des réalisations expérimentales de la plus grande importance. Les satellites qui seront prochainement mis en service seront déjà de nature à révolutionner nos conceptions en matière de liaisons à grande distance par la qualité et le volume des services qu’ils pourront fournir.
- Félix Roy.
- Eclairs en forme de boucle
- La revue soviétique Priroda signale que des éclairs d’une forme inaccoutumée ont été observés lors d’un orage, dans la région de Moscou, le 6 juillet 1959. D’un éclat vif et bleuâtre, ces éclairs parurent décrire, en descendant vers le sol, une boucle rappelant le dessin de la lettre grecque alpha. Ils s’éteignirent dans le ciel, avant d’atteindre le sol. Des cas d’éclairs en forme de spirale avaient déjà été signalés, en U.R.S.S. Mais c’est la première fois, semble-t-il, que des éclairs en forme de boucle ont été observés.
- 202
- p.202 - vue 206/551
-
-
-
- Vers une nouvelle définition
- de l’unité de temps
- Pour mesurer le temps, on fait pratiquement appel à l’observation de phénomènes périodiques. La rotation de la Terre (période i jour) a fourni l’unité de temps jusqu’en 1956. Mais on a reconnu que ce phénomène n’était pas stable (voir La Nature - Science Progrès, mars 1961, p. 79-102), et en 1956 on a pris en considération la révolution de la Terre autour du Soleil (période 1 an).
- Les horloges artificielles servaient, à l’origine, à interpoler facilement le temps entre deux observations astronomiques; elles étaient donc réglées par les astronomes. Mais la précision et la stabilité des horloges modernes est devenue telle que la situation s’est inversée et que les horloges peuvent servir à déterminer les irrégularités des phénomènes astronomiques : irrégularités de la rotation de la Terre par exemple.
- Ces horloges aussi précises sont des horloges à quartz, contrôlées par des étalons de temps basés sur la transition entre deux niveaux d’énergie d’un atome ou d’une molécule. C’est ce qu’on appelle en résumé « horloges atomiques ».
- Dans l’article précité, La Nature-Science Progrès a publié la photographie d’une « horloge à ammoniac » associée à une horloge à quartz, mais il a été omis de signaler qu’il s’agissait d’un étalon de temps construit par les physiciens et ingénieurs du Laboratoire Suisse de Recherches Horlo-gères à Neuchâtel, associé à une horloge de Ebauches S.A.
- En avril 1961 s’est réuni à Paris le Comité consultatif pour la définition de la Seconde. Les physiciens ont présenté les résultats de leurs travaux sur les étalons de temps et sur leurs comparaisons. En particulier, le Laboratoire Suisse de Recherches Horlogères, qui a construit deux étalons à ammoniac et un étalon à césium (fig. 1), a pu effectuer des comparaisons directes et montrer qu’un intervalle de temps est reproductible avec une erreur relative de l’ordre 2 X io"11 par ces divers étalons. La stabilité à long terme est du même ordre ou meilleure. De nombreuses autres comparaisons à distance, par voie radio-électrique, confirment l’excellente précision des étalons atomiques.
- Dans ces circonstances, le Comité consultatif recommande aux Laboratoires de pousser leurs recherches pour qu’une nouvelle définition de la seconde puisse être soumise à la 12e Conférence générale des Poids et Mesures, en 19 66.
- Ainsi, nous verrons sans doute, dans un proche avenir, les astronomes abandonner leur définition de l’unité de temps. Néanmoins le temps astronomique défini par la
- Fig. x. — Etalon de fréquence au césium.
- Laboratoire suisse de recherches horlogères, Neuchâtel (Suisse).
- Photo G. Muller).
- rotation de la Terre (Temps Universel) continuera à régler la vie courante et sera toujours employé pour les besoins de la navigation, tandis que le temps défini par la révolution de la Terre autour du Soleil (Temps des Ephémérides) sera utilisé pour la Mécanique céleste.
- Bernard Guinot.
- 203
- p.203 - vue 207/551
-
-
-
- Domaine élargi pour les radioéléments à Saclay
- L’industrie nationale en miniature que représente, en France, la fabrication des radioéléments a été décrite dans notre revue (juillet 1961, p. 273-282). L’article qui lui était consacré faisait même allusion au nouveau bâtiment construit à son intention sur le terrain de Saclay et qui a été officiellement inauguré le 8 mars 1962.
- La conception architecturale de ce bâtiment est donc déjà connue et l’on sait qu’elle élimine, de manière fort ingénieuse, les « laboratoires chauds » où le personnel, principalement composé de chimistes, a dû travailler jusqu’à présent. Seuls désormais sont exposés à la radioactivité les couloirs actifs où sont logés les appareils de production et qui sont en principe réservés aux manutentions sporadiques des radioéléments. La mise constante en dépression de ces couloirs limite d’ailleurs les risques de contamination.
- Quant aux travailleurs stables, ils n’entrent en contact avec les produits radioactifs que par l’intermédiaire des
- Fig. 1. — Cloison de protection en briques de plomb.
- Cette cloison est vue ici du laboratoire de l’or colloïdal. Sur son autre face se trouve l’appareil de production, logé dans un couloir « actif ». On remarque la série de hublots en verre au plomb et les commandes des pinces, utilisées pour les manipulations.
- gants, des pinces et des télémanipulateurs (fig. 2). Notons que ce matériel, dont la fabrication a pu être standardisée et qui comprend en outre les enceintes de plexiglas, plomb (fig. x), béton, ainsi que les hublots de verre au plomb, a représenté une dépense de 7 millions de NF. Le bâtiment lui-même a coûté 15 millions.
- Il est incontestable que ce nouvel équipement va permettre de développer certaines fabrications, celles notamment qui exigent le maximum de protection. C’est ainsi qu’un effort tout particulier sera porté sur le cobalt 60, que produisent déjà massivement les Etats-Unis, en vue d’applications industrielles dont la principale est la gamma-graphie. On doit retenir en effet que cette technique se substitue avantageusement à la radiographie classique, dès qu’il s’agit de contrôler la qualité de métaux ou d’autres matériaux. Une source de cobalt 60, émettrice de radiations et ayant une énergie disponible de 1,25 MeV, est plus légère, plus maniable et plus efficace qu’un poste à rayons X de 0,3 MeV. Ce poste n’est en outre utilisable que s’il est branché sur un courant électrique adéquat.
- Les autres développements attendus concernent les produits de fission, césium 137 et strontium 90. Deux séries d’applications sont en train de prendre corps : la
- p.204 - vue 208/551
-
-
-
- chimie sous radiations et les génératrices d’électricité. Pour ces dernières, on exploite en particulier le dégagement intense de chaleur qui accompagne la désintégration du strontium 90, dont la période, rappelons-le, est de 28 ans. Ainsi peut se trouver réalisée, non pas « le mouvement perpétuel », mais ce qu’on pourrait appeler : l’énergie inépuisable à l’échelle d’une large fraction de la vie humaine.
- A l’occasion de l’inauguration du bâtiment de Saclay, nous mentionnerons deux applications médicales peu connues des radioéléments.
- Des flacons sont livrés par Saclay qui contiennent 50 millicuries de phosphate de chrome colloïdal. La molécule de ce corps est marquée au phosphore 32. La préparation physique comporte un broyage où les particules destinées à être mises en suspension dans la solution doivent être réduites à une finesse de 1 000 angstrôms (un dixième de micron). Le phosphate de chrome a la propriété de se fixer électivement sur les ganglions du système lymphatique qui, on le sait, est la voie par où se propagent les cellules cancéreuses. C’est donc afin d’inhiber ce processus de métastase que les molécules marquées sont injectées à des malades (à la dose de 5 millicuries), cela
- Fig. 2. — Télémanipulateur en action dans une cellule du nouveau bâtiment de Saclay.
- (Photos J.-P. Sudre, obligeamment communiquées par le C.E.A.).
- généralement à la suite de l’ablation d’une tumeur. On évalue à 70 pour 100 l’efficacité de cette irradiation des ganglions.
- Moins dramatique, la bêtathêrapie par applications superficielles a pour but de faire disparaître les taches de vin ou de café qui se forment sur la peau des jeunes enfants. Un des laboratoires de Saclay incorpore, sous forme d’acide phosphorique, le phosphore 32 à une mince feuille spongieuse de chlorure de polyvinyle. Cette feuille est collée sur un support, également en résine synthétique, l’ensemble pouvant être découpé à la forme exacte de la tache. L’irradiation se prolonge en principe pendant 3 heures et comporte l’absorption par la peau de 1 000 rads par heure. Les radiations [3 ne pénètrent pas à plus de 3 à 7 mm de profondeur. Quant à la substance des résines, elle n’est pas attaquée par les sucs digestifs; on évite ainsi qu’une fois avalée accidentellement par l’enfant, elle risque de passer dans la circulation sanguine. La bêtathêrapie des taches a une efficacité de 85 pour 100.
- Y. M.
- 205
- p.205 - vue 209/551
-
-
-
- par Lucien Chopard
- Les Zygènes papillons
- à acide cyanhydrique
- Les Zygènes sont de jolis petits papillons qui forment la famille spéciale des Zygénidés et sont caractérisés par une coloration très vive, le plus souvent formée de taches rouges sur un fond bleu foncé. Bien que complètement différentes des papillons de jour ou Rhopalocères, les zygènes volent en plein soleil, butinant sur les fleurs des prairies, en particulier sur les capitules des scabieuses et des chardons ; leurs chenilles vivent sur les plantes basses, surtout les Papilionacées. Remarquons tout d’abord que la coloration des zygènes entre de façon indiscutable parmi ce qu’on appelle les couleurs aposématiques, ou avertissantes. Ces couleurs, très voyantes, sont souvent celles d’espèces qui ont un goût très désagréable ou même sont toxiques pour les prédateurs, au moins pour les vertébrés. Quand un oiseau, par exemple, a rejeté plusieurs fois un insecte d’une telle espèce par suite du désagrément qu’il en a éprouvé, il l’évitera désormais ; l’insecte, dans ce cas, a donc intérêt à être le plus visible et le plus facilement reconnaissable.
- Les entomologistes ont remarqué depuis fort longtemps l’extraordinaire résistance que les zygènes opposent à l’action des vapeurs d’acide cyanhydrique. Il est inutile de plonger une zygène dans le classique flacon de chasse à cyanure de potassium ; on l’en retire après plus d’une heure parfaitement vivante et il est préférable d’employer le tétrachlorure de carbone. Cette résistance au cyanure est assez rare chez les papillons pour qu’on la considère comme un des caractères de la famille des Zygénidés. Elle s’observe un peu plus souvent chez les Coléoptères comme les Curculionides et les Ténébrionides. Enfin, il semble bien qu’outre cette résistance naturelle, il puisse se développer, chez certains insectes, une résistance acquise dont on peut mesurer l’importance lorsqu’il s’agit d’espèces nuisibles contre lesquelles on lutte par l’émission de vapeurs d’acide cyanhydrique. Le cas le plus connu est celui d’une cochenille très nuisible aux agrumes, YAonidella aurantii, connue sous le nom commun de Pou rouge de Californie. L’importance de cet insecte au point de vue économique a provoqué des recherches sur les réactions qui lui assurent une immunité contre un violent poison.
- On connaît depuis peu l’action des enzymes respiratoires sur la consommation d’oxygène des insectes ; l’inactivation de ces enzymes peut être cause de l’action inhibitrice du cyanure sur la respiration. On sait aussi qu’il existe chez certains insectes des enzymes capables de transformer les insecticides en composés inoffensifs, telle la rhodanèse qui transforme les cyanures en thiocyanates non toxiques. Bien qu’aucune recherche n’ait encore été faite dans ce sens, il est possible qu’il existe chez les zygènes
- un produit de ce groupe, peut-être du type des flavopro-téines.
- Ce n’est d’ailleurs pas tant la résistance des zygènes au cyanure qui a été récemment étudiée, mais plutôt les moyens de défense que ces papillons présentent et leur rapport avec la coloration aposématique. Il est bien reconnu que les zygènes sont très généralement négligées par les Vertébrés prédateurs, reptiles, oiseaux et mammifères insectivores. Un lézard auquel on a fait saisir une zygène la rejette aussitôt et frotte son museau sur une pierre, indiquant très nettement qu’il a subi un contact pénible. C’est qu’aussitôt saisie, la zygène rejette par la base de la trompe des bulles d’un liquide transparent, volatil, à forte odeur rappelant celle du liquide émis à la base des pattes par les coccinelles. Ce liquide ressemble assez au sang dont la toxicité a été montrée par Rocci dès 1916. Cet auteur a récolté le sang de 240 zygènes et en a préparé, après dessiccation, une solution dont il injecta 0,2 cm3 à une souris de 15 grammes. Celle-ci fut aussitôt prise d’agitation et d’accélération des mouvements respiratoires ; au bout de 3 mn sa marche devint incertaine, la paralysie s’établit et la mort survint 25 minutes après l’injection ; le sang des zygènes s’est montré également toxique pour les grenouilles et les lézards.
- Une expérience faite en Angleterre par Mrs Lane, en 1959, est encore plus intéressante. Elle a été faite non avec le sang mais avec le liquide émis autour de la bouche par la zygène ; deux gouttes de ce liquide ont été déposées par Mrs Lane sur son avant-bras et introduites dans la circulation par de légères scarifications. Le résultat de cette opération a été beaucoup plus sérieux que ne pouvaient le faire supposer quelques expériences du même genre faites avec le sang d’autres papillons. En quelques minutes une tache d’un rouge sombre, de 7 cm de diamètre environ, s’est étendue autour des deux points touchés, sans douleur ni enflure ; mais presque immédiatement l’expérimentatrice a ressenti une sensation d’oppression, avec pâleur intense, transpiration et pouls rapide atteignant 120-130 à la minute ; ces phénomènes, accompagnés d’une grande agitation, se sont montrés au maximum 40 mn après l’inoculation ; dans l’heure qui suivit les symptômes s’atténuèrent et disparurent, ne laissant qu’une tache foncée sur la peau (Ent. m. Mag., 95, 1959, p. 93). Même en attribuant, comme le fait Mrs Lane elle-même, une certaine partie des phénomènes observés à une réaction psychologique, il n’en reste pas moins la preuve que les tissus des zygènes contiennent un produit fortement toxique pour l’homme et les mammifères. Bien que n’en
- 206
- p.206 - vue 210/551
-
-
-
- Fig. i. — Une zygène commune dans nos pays : Zygæna filipendulœ.
- Une fois et demie la grandeur naturelle.
- connaissant pas la composition exacte, Rocci a nommé ce produit zygénine.
- Œufs, larves et chrysalides également toxiques
- Sur ce même sujet un article de MM. David A. Jones, John Parsons et the Hon. M. Rothschild (Nature, 6 janvier 1962) apporte de remarquables précisions. Ces auteurs, étudiant les propriétés toxiques de certains papillons à coloration aposématique, ont trouvé que les tissus écrasés des œufs, larves, chrysalides et adultes de Zygæna filipendulœ et Z. lonicerœ dégagent de l’acide cyanhydrique. Le même fait a pu être constaté avec les œufs et adultes, seuls observés, - de Z. trifolii, ainsi que chez les adultes d’une espèce appartenant à un genre voisin des Zygènes, le Procris geryon. La quantité d’acide varie avec l’âge des insectes, les individus âgés étant faiblement positifs ; par contre les chrysalides et les papillons qui viennent d’éclore peuvent dégager jusqu’à 200 pg par individu, dont le poids varie entre 66 et no mg. Les œufs donnent des quantités encore plus élevées ; pour une cinquantaine d’œufs pesant 2,6 à 4 mg, elle peut atteindre 150 pg. La présence de l’acide est décelée par la comparaison de deux papiers imprégnés d’un réactif approprié, l’un soumis aux vapeurs dégagées par l’action d’acide sulfurique dilué sur une quantité connue de cyanure de potassium, l’autre soumis aux émissions dégagées par les tissus écrasés des zygènes.
- Malgré leurs noms qui indiqueraient des préférences respectives pour la filipendule (Rosacée) et pour le chèvrefeuille, les chenilles de Zygæna filipendulœ et de Z. lonicerœ se nourrissent volontiers des feuilles et tiges de lotier corniculé (Lotus corniculatus), Papilionacée très commune dans les prairies, dont les tissus contiennent des glycosides cyanogènes et, probablement de ce fait, sont délaissés par les escargots. Mais Zygæna lonicerœ pond aussi sur une autre Papilionacée, la gesse des prés (JLathyrus pratensis), dans laquelle on ne trouve pas ces glucosides ; et les chenilles élevées sur cette plante montrent cependant la présence de l’acide cyanhydrique à tous les stades, jusques et y compris l’état adulte. Il ne semble donc pas y avoir de rapport direct entre la présence de l’acide et le régime alimentaire de la chenille.
- Parasites immunisés
- Si la protection des zygènes contre les Vertébrés prédateurs semble bien établie, elles ne sont au contraire nullement défendues contre les parasites, et nombreux sont les insectes, Diptères et Hyménoptères, qui les attaquent. On peut se demander si ces parasites sont spécialement organisés pour vivre dans le milieu spécial que constitue le corps des zygènes tout imprégné de substances toxiques.
- A ce sujet, les auteurs de l’article de Nature rappellent que certains Helminthes (vers parasites), de même que les larves du Diptère Gasterophilus equi, qui vivent dans l’estomac du cheval, possèdent dans leurs tissus de la rhodanèse, enzyme qui, comme nous l’avons dit, transforme l’acide cyanhydrique en thiocyanate inofïensif. Or, les larves d’un Hyménoptère Braconide parasite des zygènes, YApanteles s^ygœnarum, récemment sorties du corps de leur victime, se montrent positives à une réaction de détection de cette enzyme. Il en est de même de larves de Diptères parasites de zygènes, dont les tissus se montrent en outre complètement indemnes d’acide cyanhydrique. On pourrait donc considérer que ces Diptères sont préadaptés à la vie dans un milieu toxique, ce qui donne une idée des relations complexes qui existent chez les insectes entre les parasites et leur hôte.
- Lucien Chopard.
- « Formicage », heureux néologisme
- Dans sa séance du 12 février 1962, l’Académie des Sciences, faisant sienne une suggestion du Comité du langage scientifique, a accepté le terme formicage en lui attribuant la définition suivante : « Ensemble de mouvements stéréotypés par lesquels certains oiseaux répandent de l’acide formique sur leurs plumes en appliquant des fourmis sur certains points de leur plumage et en laissant ces insectes pénétrer entre leurs plumes » (l’emploi du mot est réservé au seul cas où il y a application d’acide formique).
- Le terme formicage, qui traduit l’anglais anting, a été créé par notre éminent collaborateur le professeur Lucien Chopard qui l’a employé pour la première fois dans l’article qu’il nous a donné sur ce curieux comportement (La Nature-Science Progrès, février 1961, p. 58-60). Bon exemple de néologisme utile et parfaitement formé.
- Fruits sous plastiques comestibles
- Des expériences effectuées en Grande-Bretagne ont permis de conclure que les fruits et les légumes enrobés d’une résine synthétique pulvérisée formant une pellicule comestible s’abîment et se dessèchent moins facilement au cours des manutentions et de l’emmagasinage. L’enduit utilisé est constitué de triglycérides gras dans lesquels un ou deux groupes d’acides gras sont remplacés par des groupements acétates. Les pommes, poires, tomates et concombres ainsi recouverts ont un aspect brillant. Le produit est inoffensif, non graisseux et insipide. Entourées de cette pellicule plastique, les tomates se conservent plus longtemps. Des concombres exportés après avoir été recouverts sont arrivés à destination en parfait état. Le traitement d’une tonne de pommes ne coûterait que 4 NF environ. (Information du Service de Presse britannique).
- 20 7
- p.207 - vue 211/551
-
-
-
- La prospection botanique auxiliaire
- de la prospection chimique
- des gîtes minéraux
- Dans un précédent article (-1) nous avons rappelé les conditions dans lesquelles se forment les gîtes métallifères et, autour de ceux-ci, les « halos de dispersion » qui permettent de les déceler par l’analyse chimique directe d’échantillons du sol, ou encore par l’analyse des eaux qui les ont traversés. Par suite des capacités diverses de dispersion des différents métaux, ceux que l’on décèle, nous l’avons vu, ne sont pas toujours ceux que l’on cherche à exploiter, mais des éléments qui en sont les « indicateurs ». Cette prospection chimique peut être utilement complétée par l’examen et l’analyse de la végétation, que recommandait déjà Georgius Agricola au 17e siècle (voir la figure 1 de notre précédent article). Bien que cette « prospection botanique», qui n’est en somme qu’un cas particulier de la prospection chimique, n’occupe pas une place privilégiée parmi les autres méthodes, elle méritait d’être traitée avec quelque détail en raison de son originalité et de sa récente extension en certains pays où elle semble particulièrement utile.
- Les métaux du sol et les plantes
- Pour assurer leur entretien et leur développement, toutes les plantes ont besoin de trouver dans le sol, en quantités importantes, un certain nombre d’éléments dits majeurs : azote, potassium, calcium, magnésium, phosphore, soufre. D’autres éléments leur sont indispensables, mais des traces en suffisent : bore, zinc, manganèse, vanadium, etc. A ces corps qui sont utilisés par les êtres vivants en quantités infimes, Gabriel Bertrand a donné le nom d’oligoéléments. Mais les métaux, et principalement les métaux lourds, qu’ils figurent ou non parmi les oligoéléments nécessaires, peuvent devenir toxiques quand ils sont présents en trop grande abondance. Cette toxicité, qui est la règle générale, ne se manifeste cependant pas avec la même gravité pour toutes les plantes, soit qu’elles en tolèrent dans leurs tissus des teneurs différentes, soit que certaines d’entre elles ne s’en laissent pas pénétrer. Quelques-unes même semblent s’accommoder électivement de certains métaux. La nature et l’aspect de la végétation peuvent donc servir à déceler la présence de métaux dans le sol, voire à les caractériser. Elle pourra donc orienter utilement la prospection chimique directe.
- i. La prospection chimique des gîtes minéraux, par Louis Thaler, La Nature-Science Progrès, mars 1962, pp. 153-160.
- par Louis T haler
- Pour résumer et illustrer le point de vue des botanistes nous emprunterons un exemple et d’utiles notions à MM. Duvigneaud et Denaeyer-De Smet, auteurs d’une étude approfondie réalisée dans les districts miniers du Haut-Katanga (2). Dans cette région existent de nombreux gîtes métallifères à très haute teneur en cuivre et manganèse, ainsi qu’en cobalt, nickel, uranium, etc. « Les divers sites métallifères se présentent sous la forme d’alignement ou de colline isolée, dont le sommet est occupé par les roches minéralisées plus dures et les pentes par des roches plus tendres, non ou peu minéralisées; sur ces pentes se développent des sols colluviaux, très graveleux, dont la haute teneur en particules minéralisées, arrachées à la roche-mère, diminue à mesure que l’on s’éloigne du sommet vers le bas; la plaine située au pied de la colline est à nouveau enrichie en métaux lourds par alluvionnement ou par érosion tangentielle des pentes et constitue un « dembo d’empoisonnement » ou « auréole de contamination » caractéristique... Il apparaît ainsi nettement que pour chaque colline métallifère, il existe toute une gamme de concentrations en métaux lourds, allant des concentrations très anormalement élevées jusqu’aux concentrations normales des sols non minéralisés». On se trouve donc placé dans des conditions exemplaires pour étudier, le long des gradients de concentration des métaux dans le sol, les réactions des végétaux aux différentes teneurs de ces métaux (fig. 1 et 2).
- Des métallifuges aux métallicoles et aux « plantes poubelles »
- Dans le Haut-Katanga, une colline métallifère est toujours entourée d’une auréole de contamination dont la végétation est « un steppe » composé des mêmes espèces quel que soit le métal toxique. D’une façon générale les métaux lourds, principalement le cuivre, éliminent de nombreuses espèces, en particulier les espèces ligneuses, ce qui aboutit à la formation de groupements végétaux nus ou faiblement arbustifs (pelouse, steppe, savane). Certaines plantes ne supportent pas des doses même très faibles de tel ou tel métal (espèces métallifuges).
- Les espèces qui composent les associations végétales
- 2. Cette étude a paru dans Rapports du sol et de la végétation (ier Colloque de la Société Botanique de France), Masson, Paris, i960. Les figures 1 et 2 sont empruntées à cet ouvrage, avec l’aimable autorisation de l’éditeur.
- 208
- p.208 - vue 212/551
-
-
-
- 37 % Mn
- 26 % Mn
- ‘‘UUiiiiiiiiNiiliiiiiiimnimiM
- 16.000
- 26.000
- 260.000
- 370.000
- Fig. I. — Profil schématique de la végétation d’une colline manganésifère de la région de Kisenge (Haut Katanga)
- Les teneurs du sol en manganèse sont indiquées en pour cent et en parties pour un million; on voit qu’elles diminuent progressivement en partant du haut de la colline. Des figurations symboliques représentent la végétation. A, savane steppique de sommet, à Eoudetia et Schi%achyrium. B, bosquet d’Uapaca Robynsii. C, steppe à Eoudetia simplex et Tristachya Tbollonii dans 1’ « auréole de contamination ». D, zone intermédiaire avec savane arbustive et forêt claire riche en Bracbystegia longifolict, Monotes dasyantbus, M. angolensis. E, forêt claire à Bracbystegia puberula.
- (D’après P. Duvigneaud et S. Denaeyer-De Smet).
- des sols enrichis en métaux sont appelées métallicoles. Parmi les plantes métallicoles on doit distinguer deux grandes catégories, les spécialistes, espèces exclusives des sols métallifères ou préférant cette sorte de sol (tout au moins dans la région étudiée), et les non-spécialiste s, espèces résistantes, qui existent aussi bien, et dans la même région, sur sols métalliques et sur sols normaux.
- Les non-spécialistes sont donc des plantes métallorésis-tantes à des concentrations fortes, moyennes ou faibles de métaux lourds dans le sol. « C’est cette résistance à des degrés divers qui règle la composition des associations et leur disposition le long du gradient de concentration. Il semble que dans la plupart des cas cette résistance à la toxicité des métaux lourds des non-spécialistes se fasse par un freinage plus ou moins important de la pénétration de ces métaux dans la plante. » On a remarqué que beaucoup d’espèces métallorésistantes sont également résistantes dans d’autres conditions défavorables à la végétation, comme l’asphyxie du sol qui résulte d’une inondation permanente. Parmi les métallorésistantes se trouvent aussi
- des plantes qui colonisent la terre de tous les rochers, minéralisés ou non.
- Les plantes dites spécialistes comprennent des mêtallophytes, qui existent uniquement sur les gisements ou à proximité de ceux-ci, et supportent ainsi des doses élevées et toxiques de métaux lourds, et des métallophiles, plantes qui sont localisées principalement dans les zones transitoires, de concentration en métaux lourds plus faible, mais de teneur cependant supérieure à la normale.
- Les mêtallophytes sont en général des espèces bien distinctes (eu-métallophytes), parfois seulement des races physiologiques isolées (mêtallophytes locaux) appartenant à des espèces qui dans d’autres régions géographiques ne sont pas mêtallophytes. L’isolement chimique de gîtes métallifères dans la nature, augmenté de l’isolement géographique des gîtes entre eux, favorise la naissance de nouvelles races et de nouvelles espèces de mêtallophytes.
- Quant aux métallophiles, elles semblent simplement préférer la présence des métaux lourds en des quantités qui, supérieures à la normale, n’en sont pas pour cela notoirement toxiques. Ce ne sont pas des métallicoles exclusives comme les mêtallophytes, mais elles atteignent leur meilleur développement sur les sols où les métaux lourds existent en quantité modérée : zones de transition entre la forêt et l’auréole de contamination, gisements à faible teneur, ou encore gisements riches mais ensevelis sous une épaisse couche de terre.
- Physiologiquement, les métallicoles spécialistes (métal-lophytes et métallophiles) apparaissent souvent capables d’accumuler, en particulier dans leurs feuilles, des quantités énormes de métaux toxiques (cuivre, cobalt, manganèse...), et méritent alors le nom pittoresque de plantes poubelles.
- Les plantes indicatrices
- Les botanistes ont à diverses reprises étudié la végétation en rapport avec la teneur du sol en métaux et le travail que nous venons de citer n’en est qu’un exemple récent et
- C« 150
- Ci 780
- Cu 8500
- Ca 840
- Ca 1SÛÜ0
- Cu 27000
- P Cl 280
- Cu 3400
- Cl 260
- Ca 7400
- Cl 250
- Ca 1450
- Fig. 2. — Profil schématique de la végétation d’une
- colline cuprifère à Fungurume (Haut Katanga).
- Les teneurs du sol en cuivre et en cobalt sont indiquées en parties pour un million. A, affleurement de roche minéralisée (malachite, avec replats terreux, riches en végétaux cuprophytes). A’, colluvion riche en fragments de roche-mère minéralisée; pelouse à Eragrostis Bochmii, Sporobolus, et espèces cuprophytes, souvent envahie de Vellosÿa. B, steppe à Eoudetia simplex et Cryptosepalum sur terre fine sur roche tendre. C, auréole de contamination; terre fine sur roche tendre; steppe à Eoudetia simplex et Cryptosepalum. D, savane de transition. E, colîuvions de bas de pente; terre fine sur roche tendre ; bosquet à’Uapaca Robynsii avec hautes graminées de savane. F, affleurement de roche dure peu minéralisée, formant l’axe de la colline; sol rocheux ou squelettique, savane steppique arbustive à Aescbynomene pararubrofarinacea; rochers colonisés par Vello^ia.
- (D’après P. Duvigneaud et S. Denaeyer-De Smet).
- 209
- p.209 - vue 213/551
-
-
-
- remarquable. Ainsi, la « flore du zinc » est connue en Europe depuis longtemps; elle comprend des Caryophyl-lacées (Silene latifolia, différents œillets), des Crucifères (moutardes, Thlaspi calaminarum'), des Primulacées des genres Ijysimachia et Anagallis, la célèbre Pensée calami-naire (fig. 3), etc.
- Fig. 4. — La Pensée calaminaire (Viola calaminaria).
- Cette pensée sauvage (décrite aussi sous le nom de Viola lutea, variété elegans, sous-variété muliicaulis) est une des espèces les plus anciennement connues de la « flore du zinc ». a, port de la plante ; b, pétale à éperon montrant la chambre pollinique; c, ovaire surmonté du stigmate, de profil; d, id. de face; e, partie supérieure du stigmate.
- (Imité de V. Br. Wittrock, dans Heggi, Flora von Mitteleuropa).
- Quelques prospecteurs ont tenté depuis longtemps aussi, après Agricola, de tirer parti de ces observations, mais c’est seulement en 1938 qu’une doctrine sérieuse de prospection botanique fut proposée par Tkalitch, qui créa l’expression de « plantes indicatrices » en même temps que la « méthode des cendres » dont nous parlerons plus loin. Et c’est depuis la dernière guerre que ce mode de prospection a été développé et systématiquement utilisé, surtout par les prospecteurs soviétiques.
- L’usage semble s’être établi de distinguer des indicatrices universelles et des indicatrices locales. Cette terminologie n’est peut-être pas des plus heureuses. Par indicatrice universelle on entend désigner toute plante dont la présence est obligatoirement liée à une teneur anormalement élevée d’un métal particulier dans le sol. Cette définition concorde avec celle des métallophytes. Or nous avons vu que les métallophytes sont des espèces ou des sous-espèces d’extension géographique réduite (ce que les biogéographes appellent des formes endémiques). L’épithète d’universelle leur convient donc fort peu.
- Par indicatrice locale on entend désigner toute espèce de plante qui, sous certaines conditions, peut fournir des indications utiles dans la prospection des gîtes métallifères. Cette notion ne correspond pas à grand chose au point de vue botanique. Les plantes métallophiles et métallorésistantes sont bien entendu des indicatrices locales, mais il faut y ranger également des catégories écologiques entières comme les plantes halophiles (indicatrices des sols salés, qui peuvent servir à cerner certaines structures du sous-sol) et les « phréatophytes » utilisées de tout temps dans les régions arides comme indicatrices de circulation d’eau souterraine.
- La distinction entre indicatrices universelles et locales est donc incommode et l’emploi des catégories botaniques définies plus haut serait préférable. Ainsi les prospecteurs rhodésiens utilisent une Labiée à fleurs bleues, Becium Homblei, dans la recherche de gisements de cuivre, et ils la considèrent comme indicatrice universelle. En toute rigueur cela signifierait que cette plante est à ranger dans les métallophytes, plus précisément dans les « cupro-phytes ». Or, les botanistes ont montré qu’il s’agit d’une
- Fig. 4. — Une plante indicatrice du gypse dans l’Ouest des Etats-Unis : Friogonum inflatum (Polygonacée).
- (Photo H.L. Cannon, aimablement communiquée par l’U.S. Geological Survey, Denver, Colorado).
- 210
- p.210 - vue 214/551
-
-
-
- métallophile, qu’on trouve à la limite des auréoles de contamination des gisements de manganèse, aussi bien que de cuivre. Il s’agit d’ailleurs d’une « plante poubelle » typique.
- C’est parmi les plantes métallophiles que l’on recrute les indicatrices les plus utiles. Elles ont en général une large répartition géographique et leur présence en peuplement prospère est l’indice d’un accroissement des teneurs métalliques du sol, que rien d’autre ne signale dans la végétation.
- La recherche des gisements de cuivre est de celles qui ont le plus largement bénéficié de l’utilisation des plantes indicatrices. Les indicatrices du cuivre sont essentiellement des Caryophyllacées, des Labiées et des Mousses, mais aussi une Papavéracée comme Eschholt^ja mexicana (fig. 5). En Suède, trois dépôts ont été localisés en relevant simplement la provenance d’échantillons d’herbier de « mousses du
- Fig. y. — Une plante métallophile non spécialiste : Eschholt^ia mexicana (Papavéracée).
- Ce peuplement abondant et nettement circonscrit, photographié à San Manuel (Arizona), a permis de déceler une minéralisation cuivreuse du sol, limitée par une faille.
- (Photo H.L. Cannon, U.S. Geological Survey).
- cuivre» (cuprophytes) ! Dans les steppes de l’U.R.S.S., une jolie Caryophyllacée, le Kachim (Gypsophila patrini), s’est également montrée excellente indicatrice du cuivre.
- Comme dans toute méthode de prospection chimique, l’indication recueillie peut être indirecte. Un grand nombre d’espèces d’Astragales (Papilionacées) sont indicatrices du sélénium (fig. 6). Mais c’est à la recherche de l’uranium (dont le minerai contenait des traces de sélénium) que ces plantes furent utilisées aux Etats-Unis et au Pérou. Autre exemple, dû à l’obligeance de Miss Helen L. Cannon : le gypse se rencontrant dans des gisements d’uranium du
- 211
- p.211 - vue 215/551
-
-
-
- BÉli
- Fig. 6. — Une plante spécialiste du sélénium : Astragalus bisulcatus (Papilionacée).
- Le sélénium est lui-même un indicateur de l’uranium. Plateau du Colorado.
- (Photo H.L. Cannon, U.S. Geological Survey).
- Fig. j. — Une indicatrice du gypse : Oenothera caespitosa ( Oenothéracée).
- Le gypse se rencontrant dans des gisements d’uranium près de Grants (New-Mexico), cette plante peut servir à la prospection de l’uranium.
- (Photo H.L, Cannon, U.S. Geological Survey).
- New Mexico, une Oenothère (Oenothera caespitosa), qui est une indicatrice du gypse, peut alors servir à la prospection de l’uranium (fig. 7). Certaines fougères (Asplénium adulte-rinum et espèces voisines) sont associées aux serpentines et autres roches ultra-basiques qui recèlent souvent des gîtes nickélifères. La flore des serpentines peut donc servir à la recherche du nickel. On doit probablement rapprocher de cette flore les plantes qui, en Nouvelle-Calédonie, sont associées aux roches riches en fer (Dammara ovata, Mutas sa inter media, Dacrjdium caledonicum).
- Absences ou anomalies
- L’effet le plus radical d’un excès de certains éléments dans le sol consiste en une suppression quasi-totale de la végétation. On l’observe sur les gisements de pyrite, sur les terrains très riches en bore, etc. Dans les zones couvertes par la forêt tropicale, une teneur de l’ordre de 10 pour 100 de cuivre dans le sol suffit pour créer une dénudation impressionnante. Cette propriété a été exploitée pour la prospection au Congo et en Rhodésie, et aussi dans des régions de latitude plus élevée comme l’Arménie. On a observé un phénomène identique dans des zones minéralisées en platine de l’Oural et du Transvaal. En 1818, aux Etats-Unis, Isaac Tyson Jr fut conduit à la découverte de gisements de chrome en observant la nudité relative des affleurements de serpentine du Maryland et de la Pennsylvanie. Dans l’Arkansas on exploite des gisements de sulfate de strontium, qui s’étaient signalés par une absence locale d’arbres dans une région très forestière.
- Ce sont là des cas extrêmes. On ouvre un champ d’observations beaucoup plus grand en tenant compte des nombreuses modifications physiologiques, manifestement subies par les végétaux des zones minéralisées. C’est en U.R.S.S. que les études de ce type ont été le plus poussées. On peut distinguer les modifications apportées à la vitalité, au cycle de développement (croissance, floraison, etc.), les anomalies morphologiques, sexuelles, etc. Donnons quelques exemples. La décoloration des feuilles d’érable a permis de déceler du cuivre (fig. 8). Sur les sols riches en bore, de nombreuses plantes atteignent une taille double ou triple de la normale, prennent un aspect en boule et acquièrent un feuillage excessivement vert, toutes caractéristiques qui sont utilisées en prospection. La présence de produits bitumineux dans le sol est cause de gigantisme pour de nombreuses plantes et provoque diverses anomalies de croissance et de floraison (quand ces anomalies atteignent plus de 10 pour 100 des individus, certains prospecteurs russes procèdent systématiquement à une analyse des bitumes du sol). Sur les gisements de cobalt-nickel de l’Oural méridional, une anémone, Pulsatilla patens, et une Composée, Linosyris villosa, sont anormalement blanches et produisent des fleurs sans pétales, ce qui leur vaut d’être utilisées comme indicatrices.
- Dans les régions riches en éléments radioactifs on observe des monstruosités végétales qui résultent de mutations. Ces effets ont été particulièrement étudiés aux Etats-Unis. Dans le désert de l’Ouest américain, sur des gisements d’uranium et de thorium, on rencontre des Crucifères du genre Stanleya, porteuses de simples ébauches de fleurs, sans pétales ni étamines, et qui sont par conséquent stériles; leurs graines proviennent donc de peuplements
- 212
- p.212 - vue 216/551
-
-
-
- Fig. 8. — Aspect chlorotique des feuilles d’un érable développé sur un sol riche en cuivre à Ely (Vermont).
- (Photo H.L. Cannon, U.S. Geological Survey).
- voisins. Dans les environs du Grand Lac de l’Ours, au Canada, on trouve des plants de myrtilles dont les fruits ont des formes variées, tout à fait inhabituelles. D’autres végétaux de la même région montrent des anomalies génétiques tout aussi remarquables, etc.
- La méthode des cendres
- Certaines plantes semblent freiner la pénétration des métaux du sol dans leurs tissus, d’autres, au contraire, semblent l’accélérer. Pour la plupart des plantes il existe une grossière proportionnalité entre la teneur du sol en métaux et la teneur des tissus en ces mêmes métaux. On peut donc, en analysant chimiquement les cendres d’échantillons végétaux, mettre en évidence des halos de dispersion dans la végétation, qui reflètent avec plus ou moins de fidélité les halos de dispersion du sol.
- Les initiateurs désintéressés de cette méthode (ainsi que de celle des sols) furent, quelques années avant la deuxième guerre mondiale, le tchécoslovaque Nemec qui avait découvert, à l’étonnement général, « de l’or dans les plantes» récoltées dans une région aurifère de Slovaquie, et les russes Yernadsky et Vinogradov qui procédaient à des analyses systématiques des éléments chimiques du sol et des êtres vivants. Les pionniers de cette méthode de prospection furent le Russe Tkalitch qui en éprouva le bien-fondé dans une région de dépôts arsénio-pyriteux d’Extrême-Orient et qui lui donna en 1938 le nom de « méthode des cendres », Palmqvist et Brudin de la Compagnie suédoise qui étudièrent l’application de la spectro-graphie à la méthode des cendres et qui découvrirent des zones minéralisées en Suède (vanadium) et en Cornouailles (tungstène), Rankama qui en Finlande prospectait les gisements de nickel à travers la couverture de dépôts glaciaires.
- Dès 1940, Rankama énonçait que «grâce à la circulation ascendante de solutions métallifères, les caractéristiques chimiques fondamentales de la roche recouverte par les moraines ont trouvé leur expression dans la composition des plantes qui poussent sur ces sédiments ».
- Ces résultats expliquent que la méthode des cendres ait été largement utilisée dans le Nord et l’Est de l’U.R.S.S., au Canada et en Scandinavie, régions où les formations glaciaires sont un important obstacle à la prospection géologique classique. Dans la toundra et la taïga la méthode des cendres permet de déceler des gisements cachés entre 2 et 5 m de profondeur. Dans les forêts de conifères qui couvrent des zones actuellement soumises à un climat tempéré, on peut prospecter des couvertures épaisses de 5 à xo m.
- Dans la steppe aride, où les conditions sont favorables à toutes les méthodes de prospection, la méthode des cendres permet de prospecter entre 10 et 20 m de profondeur grâce aux « phréatophytes », plantes dont les racines très développées s’enfoncent en direction de la nappe phréatique et qui sont qualifiées de « gaspilleuses d’eau » (La Nature, juillet i960, p. 275).
- 2.0 -3
- 1,0x10 -
- 9,0
- -eu 8,0
- o 6,0
- ^ 4,0
- c 2,0
- 1,0x10'
- R PP
- R P-R
- a 9,0
- £ 8.0
- 6,0x10
- 100 200 300 400 500 600 700 800
- Distance à l'affleurement de la veine (m )
- Fig. 9. — Teneur en molybdène de plantes récoltées en traversant une veine de molybdénite.
- Les petits cercles représentent des analyses; la courbe donne la teneur moyenne en molybdène.
- (D’après Vinogradova, dans Ginzburg).
- Parmi les succès marquants dus à la méthode des cendres, signalons en U.R.S.S. la découverte récente de deux importants gisements de cuivre (publiée par Malionga en 1958) et aux Etats-Unis celle de tout un groupe de gisements d’uranium (article de H.L. Cannon, dans Science, i960, auquel nous avons emprunté nombre de renseigen-ments). La recherche directe du cuivre par des moyens chimiques s’était montrée en général décevante. C’est en étudiant la répartition d’un des indicateurs du cuivre, le molybdène, dans les Légumineuses que les Russes ont abouti à leurs récentes découvertes (fig. 9). Quant aux prospecteurs américains qui opéraient dans l’Utah, leur succès est dû à ce qu’ils prélevèrent leurs échantillons d’analyse sur des arbres (principalement des genévriers) qui en zone aride étendent leurs racines sur de très grandes distances; il a suffi d’échantillonner 10000 arbres pour réaliser une vaste reconnaissance (fig. 10).
- 213
- p.213 - vue 217/551
-
-
-
- Fig. xo. — Dans la région de Yellow Cat (Etats-Unis), un prospecteur du Geological Survey recueille des rameaux de genévrier pour en analyser les cendres.
- (Photo H.L. Cannon, U.S. Geological Survey).
- D’après Ginzburg, la méthode des cendres, qu’il appelle aussi biogéochimique, offre d’intéressantes possibilités pour la détection des éléments indicateurs suivants : zinc, plomb, cuivre, argent, or, molybdène, tungstène, arsenic, nickel, cobalt, uranium, strontium, germanium, phosphore, et probablement aussi mercure et platine. En tout cas on lui est redevable de la découverte d’un certain nombre de dépôts : d’uranium (principalement aux Etats-Unis, mais aussi en France, dans l’Esterel, par Goldsztein); de zinc (Etats-Unis, Canada); de tungstène et d’étain (cendre de bruyère, en Cornouailles et Pays de Galles, Palmqvist, 1939); d’arsénio-sulfures (travaux déjà cités de Tkalitch, en Sibérie extrême-orientale, qui utilisait comme indicateur le fer, 1938); de cuivre (en U.R.S.S. surtout); d’or, de vanadium, etc.
- L’expérience acquise permet de définir avec quelque précision les conditions optimales d’emploi de la méthode des cendres. La qualité d’une « plante-témoin » est d’abord son ubiquité, alliée à de profondes racines et à des teneurs en éléments qui varient fidèlement en fonction de celles de leur suppôrt. Cette condition est rarement réalisée : pour la plupart des plantes, la teneur en un élément ne varie pas linéairement avec celle du sol; il existe toujours une limite supérieure d’absorption. Enfin et surtout, l’absorption des minéraux est sous la dépendance de très nombreux facteurs physiologiques qui obligent à tenir compte de l’organe prélevé, de l’âge de la plante, de la saison, de l’exposition, de la composition physico-chimique du sol, etc. Pratiquement, selon Nesvetaïlova, il semble que le mieux soit, au stade de la reconnaissance, de récolter en chaque point un choix assez large d’espèces. Lorsqu’on en arrive à la prospection proprement dite, une série d’examens préalables devra permettre de déterminer quelle est l’espèce qui convient le mieux à la région étudiée.
- *
- * *
- La méthode des sols, examinée dans notre premier article, est l’outil de base de la prospection géochimique de gîtes métallifères. La méthode des eaux et la méthode des cendres n’en sont en somme que des variantes. On utilise la première variante dans les régions à relief accusé, ou encore quand, les formations superficielles étant trop épaisses, on doit se résoudre à explorer au moyen de sondages. Lorsque pour des raisons climatiques, ou topographiques, les formations superficielles sont lessivées, on utilise les deux variantes. La seconde, celle des cendres, rend les plus grands services en zone aride grâce à la profondeur des racines des phréatophytes.
- Quant aux méthodes purement botaniques (anomalie de la végétation, plantes indicatrices) leur principal intérêt tient à ce qu’elles sont rapides et peu coûteuses. Mais elles ne sont qu’exploratoires. Au stade de l’étude de détail, elles doivent céder la place à l’analyse d’échantillons purement minéraux.
- Les 5 51 000 km2 passablement connus de l’hexagone français ne justifieraient pas la constitution de ces « équipes d’exploration intégrées » que les Russes ont lancées sur leur vaste territoire et qui mettent en œuvre systématiquement toutes les méthodes que nous avons évoquées. Mais tandis que nos étudiants en géologie s’inquiètent parfois de la diminution des offres d’emploi classiques (dans la prospection du pétrole, celle des métaux radioactifs, etc.) ne serait-ce pas leur ouvrir de nouveaux débouchés dans les pays neufs que de constituer quelques-unes de ces équipes omnivalentes et à haut rendement ?
- Louis Thaler,
- Maître-assistant
- à la Faculté des Sciences de Montpellier.
- « Priroda » a cinquante ans
- La revue de vulgarisation scientifique Priroda (ce qui signifie en russe « La Nature ») vient de fêter son cinquantième anniversaire. Bien connue de nos lecteurs pour lesquels nous en extrayons réguliè-
- rement des informations, cette revue a été fondée par des savants progressistes : le chimiste L. Pissarjevski, le biologiste V. Vogner, le microbiologiste L. Tarassevitch.
- p.214 - vue 218/551
-
-
-
- Le soufre de Lacq
- n’est pas abondance superflue mais source de richesse
- La mise en exploitation du gisement de Lacq où le gaz naturel est fortement chargé en hydrogène sulfuré (15 à 17 pour 100) avait soulevé au début d’ardentes controverses. La production et la distribution du gaz devaient être harmonisées avec une production de soufre qui allait atteindre, pensait-on, des chiffres très supérieurs aux besoins actuels de l’Europe. Qu’allait-on faire de ce « soufre fatal » ? Mais les craintes de surproduction étaient vaines : bien au contraire, notre richesse en soufre peut avoir d’heureuses répercussions dans diverses branches industrielles (1).
- 1. Notre documentation est empruntée à un article de M. J. Ducros, ingénieur des Arts et Manufactures, intitulé « Du nouveau en acide sulfurique » et paru dans le Bulletin d’informations Heurtey.
- L’acide sulfurique toujours baromètre de l’activité industrielle
- L’industrie de l’acide sulfurique, pour ancienne qu’elle soit, n’est pas une industrie sur son déclin, encore moins un vestige des premiers temps de l’âge industriel. Il n’est pour s’en convaincre que de comparer la production d’acide sulfurique aux Etats-Unis avec celle de l’acier depuis 1880 jusqu’à nos jours (fig. 2). Le choix des ordonnées (égalité en 1950) rend plus frappante l’identité des rythmes moyens
- Fig. 1. — Une unité de production de soufre à Lacq.
- (Photo Yan aimablement communiquée par la S,N.P.A.)
- p.215 - vue 219/551
-
-
-
- • Acide sulfurique j*. Acier brut
- 125
- 100
- 75
- 50
- 25
- 0
- .33
- Cj
- V:
- Fig. 2. — Evolutions comparées des productions d’acide sulfurique et d’acier aux Etats-Unis de 1880 à nos jours.
- La courbe moyenne a seule été tracée. En ordonnées, productions en millions de tonnes métriques.
- U. S. A. France
- - 2.8
- Fig. 7. — Evolutions comparées des productions d’acide sulfurique en France et aux Etats-Unis de 1940 à i960.
- En ordonnées, production en millions de tonnes métriques.
- d’augmentation de production pour l’acier et pour l’acide sulfurique. Aux Etats-Unis, pays à la pointe de la civilisation industrielle, l’acide sulfurique progresse comme l’acier. Même à partir de 195 B, la courbe de croissance de l’acide dépasse celle de l’acier dont la production oscille depuis 1950 autour de 95 millions de tonnes métriques.
- On pourra objecter que la consommation d’acide sulfurique aux Etats-Unis est une chose et que la consommation en France en est une autre. Les U.S.A. bénéficient de la présence sur leur territoire de sources très abondantes de soufre, alors que la pauvreté de la France en sulfures métalliques (pyrites de fer, de zinc ou de cuivre) et, jusqu’à une époque récente, en soufre, peut avoir conduit à une évolution différente de la production d’acide des deux côtés de l’Atlantique.
- Pour y répondre, la figure 3 compare la production d’acide sulfurique en France à celle des U.S.A. de 1940 à i960. Les ordonnées ont été ajustées en 1947 de façon à rendre plus sensible l’identité des croissances. Ce graphique met en évidence le fait que depuis la dernière guerre la consommation d’acide sulfurique en France est sensiblement égale à 11 pour 100 de celle des Etats-Unis.
- Si l’on extrapole la courbe vers 1965, ou si l’on estime que la production française est égale à celle des Etats-Unis 46 ans environ auparavant, on est conduit à prévoir une production en France de 2,7 à 2,8 milliards de tonnes métriques en 1965. Ces chiffres sont remarquablement proches des premières prévisions du Commissariat au Plan, établies sur des bases beaucoup plus précises et chiffrées à environ 2,9 millions de tonnes. Dans ces conditions, il semble bien que, comme il y a 50 ans, l’acide sulfurique puisse toujours être appelé à bon droit « un baromètre fidèle de l’activité industrielle ».
- e Revenu national Consommation d'acide
- 2000
- jk. Belgique
- Suède jl.
- Allemagne yf
- Italien G.B.j^j/\el9'Çue trance
- Espfgne SA,lenna9ne /r Italie
- Fades
- 2000
- n ? « § n "t; <1)0 C Hj O <
- H
- 5)
- 1000 |
- 100
- Fig. 4. — Revenu national et consommation d’acide sulfurique.
- En fait, on peut même dire baromètre du niveau économique d’un pays. En effet, comme le montre la figure 4, il y a une relation nette entre le revenu national par habitant et la consommation d’acide sulfurique par tête. L’acide sulfurique n’est donc pas lié uniquement à l’activité industrielle seule, mais il est le serviteur obscur et nécessaire de toutes les activités d’une nation. L’expansion de l’acide sulfurique n’est pas limitée aux grands pays industriels ; elle est destinée, certes, à se poursuivre dans ces grands pays mais aussi à s’étendre progressivement au reste du monde.
- Les avantages du soufre pur
- Jusqu’à ces dernières années, la production de l’acide sulfurique en France était fondée essentiellement sur le grillage des pyrites. Mais quelle que soit la méthode utilisée, la fabrication à partir de pyrites entraîne une installation importante, coûteuse en investissements et en main-d’œuvre, telle que seules les unités de forte capacité sont rentables. Ce fait est la raison technique principale qui explique la construction d’usines à capacité de production de plus en plus élevée. A partir de ces usines, l’acide est ensuite distribué aux consommateurs par rail ou par route.
- On conçoit que, dans ces conditions, les utilisateurs qui envisageaient d’assurer eux-mêmes leurs approvisionnements en acide reculaient devant une double difficulté :
- 216
- p.216 - vue 220/551
-
-
-
- importance des investissements et prix de revient dans les unités de capacité limitée.
- La découverte du gisement de Lacq a modifié la situation d’une façon profonde, en ce qui concerne les ressources en soufre de la France, devenue largement exportatrice. De ce fait, les consommateurs d’acide sulfurique ont à leur disposition une matière première absolument pure, qui permet donc de réaliser une fabrication simple et d’obtenir, sans dificulté, un produit de haute qualité.
- En face de la méthode classique de production dans des unités de forte capacité, ce qui nécessite le transport de l’acide aux points d’utilisation, il est désormais possible d’envisager la fabrication dans des usines à catalyse sèche, brûlant du soufre. Le gaz sulfureux formé est oxydé par de l’air en présence d’un catalyseur, en anhydride sulfurique S03 qu’il suffit de dissoudre dans l’eau pour obtenir l’acide sulfurique. De telles usines ne sont plus handicapées par le prix d’investissement des procédés aux pyrites, car elles sont beaucoup plus simples de conception, de construction et de conduite.
- A ces avantages s’ajoutent ceux relatifs au prix de transport du soufre d’une part, de l’acide d’autre part. Il n’est pas équivalent de transporter par jour 7 tonnes de soufre solide, qui s’accommodent d’un camion courant ou d’un wagon de marchandises ordinaire, ou 20 tonnes d’acide concentré qui exigent un matériel spécial (camions ou wagons-citernes), impropre à tout autre usage, coûteux d’achat et d’entretien, et dont le retour à vide grève lourdement le prix de revient du transport.
- Rentabilité des petites usines
- Les usines intégrées sont-elles justifiées ? Lorsqu’il s’agit d’usines de fortes capacités, disons supérieures à 100 tonnes par jour, la question ne se pose même pas, tant la rentabilité à partir du soufre est évidente. Un seul problème se pose en fait : en raison de la diversité de ses emplois, l’acide sulfurique est souvent mis en œuvre avec des consommations unitaires modérées. Il s’agit donc de savoir si la production d’un faible tonnage d’acide reste une opération bénéficiaire.
- Pour répondre à cette question, il est utile de comparer deux prix de revient. Le premier est celui obtenu en produisant l’acide sur les lieux mêmes d’utilisation, avec trois exemples de consommation : 5, 10 et 20 tonnes/jour. On peut être surpris de la petitesse des tonnages envisagés, mais de tels progrès ont été accomplis ces dernières années que des usines de ces capacités sont construites maintenant couramment.
- Le second prix de revient est celui que les consommateurs obtiendraient en achetant leur acide à une usine centrale de xoo tonnes/jour, brûlant du soufre et gérée en association, c’est-à-dire leur vendant l’acide sulfurique sans
- Fig. /. — Une usine d’acide sulfurique dans le Midi de la France.
- Cette usine dont la production est de 20 tonnes par jour s’est montrée parfaitement rentable, bien qu’elle ne soit distante que de 4 kilomètres d’une usine moderne de 400 t/j.
- {Photo Heurte y).
- p.217 - vue 221/551
-
-
-
- bénéfice. Bien entendu, l’usine de ioo tonnes/jour produira la tonne d’acide à un prix plus bas que l’usine de io t/jour. Mais le prix à considérer est celui de la tonne d’acide rendue chez l’utilisateur. Donc, plus ce dernier sera éloigné de l’usine centrale, plus l’acide « central » verra son prix majoré. A partir d’une certaine distance le prix rendu de l’acide « central » et le prix de l’acide fabriqué localement seront égaux. Au delà, il sera plus économique de produire localement. La figure 6 représente, par rapport à l’usine centrale, les zones de rentabilité des petites unités locales en fonction de leur taille. Comme on le voit, les petites unités ne sont nullement des hérésies économiques, puisqu’un utilisateur consommant seulement 20 tonnes/jour d’acide et situé à une trentaine de kilomètres d’une usine de 100 tonnes/jour, lui vendant l’acide à prix coûtant, a déjà intérêt à produire lui-même.
- 230km
- Frontière de
- ____rentabilité des usines
- de 20 t/j
- frontière de rentabilité des usines de fOf/j
- ____ Frontière de
- rentabilité des usines de St/j
- Fig. 6. — Zones de rentabilité des petites unités à combustion de soufre. Les distances indiquées sont celles à partir desquelles il est rentable de construire une usine de capacité donnée plutôt que d’acheter l’acide au prix coûtant à une usine centrale de xoo tonnes/jour.
- Evidemment, si l’usine centrale appartient à un producteur indépendant, ce dernier prélèvera un bénéfice et les cercles se resserrent beaucoup. La figure 7 représente les zones de rentabilité des petites unités dans le cas où l’acide est acheté à un fabricant au prix courant du marché. Ce graphique montre combien il est facile, même pour une petite installation, d’être rentable.
- Rentabilité assurée quelle que soit la capacité de /'usine
- 120 km
- Rentabilité assurée si /'usine fait plus de St/j
- Fig. 7. — Distance à partir de laquelle il est rentable de construire une usine de capacité donnée plutôt que d’acheter l’acide au prix réel du marché à une usine de xoo t/j.
- Bien entendu, la position des frontières des zones de rentabilité des unités peut varier suivant la géographie de la région et son degré d’industrialisation, suivant les moyens de communications existants, les aléas des transports enfin selon le secret dont on désire entourer certaines fabrications ou certains tonnages produits ; la quantité d’acide sulfurique acheté renseigne en effet le fournisseur sur l’activité des usines du client. Il n’en demeure pas moins un fait essentiel, à savoir que le transport de l’acide sulfurique apparaît comme étant de moins en moins justifié au point de vue économique. L’implantation d’une usine d’acide sulfurique à proximité de l’usine consommatrice est la solution adaptée à l’économie moderne.
- Les industriels français disposent désormais de soufre au prix international et ont la possibilité de produire eux-mêmes leur acide au prix international. Il n’est pas superflu de souligner l’importance de ce fait, à l’heure où les frontières s’ouvrent, où les droits de douane protecteurs s’effritent, où les usines françaises doivent se mettre dans les mêmes conditions de compétition que leurs concurrentes étrangères. L’acide sulfurique est une matière première de base. La diminution du poste « acide sulfurique » dans les prix de revient est désormais possible, et c’est une opération nécessaire face à une concurrence qui s’équipe ou, même, qui déjà est équipée.
- J.c.
- Essor et changements profonds de l’industrie du gaz en France
- Dans un article paru en décembre 1955, nous avions fait le point en ce qui concernait l’industrie française du gaz à cette date. Rappelons qu’un effort avait été fait, depuis la nationalisation, par le Gaz de France en vue de réduire le nombre des usines à gaz (357 en 1955 contre 546 en 1938). En même temps, les sources de production s’étaient diversifiées : au classique gaz d’éclairage (produit par les usines à gaz) étaient venus s’ajouter : le gaz de cokerie, également issu du charbon ; divers produits pétroliers (propane, air propané, gaz de raffinerie) ; et enfin le gaz
- naturel de Saint Marcet. L’article précité montrait comment ces divers gaz étaient appauvris ou enrichis de manière à être ramenés à un même pouvoir calorifique. Simultanément la révolution gazière en cours entraînait diverses modifications dans le transport et la distribution.
- Cette évolution s’est poursuivie et même accélérée depuis 1955. A cet égard, la mise en exploitation, en 1957, du gisement de gaz naturel de Lacq (voir JLa Nature, avril 1957) a joué un rôle fort important, plusieurs industries en voie de création ou d’extension ayant résolument opté
- 218
- p.218 - vue 222/551
-
-
-
- pour cette source d’énergie à la fois économique et pratique.
- Les statistiques font état d’une progression importante dans la consommation. Il nous faut signaler à ce sujet qu’en raison de la diversité des pouvoirs calorifiques, ces statistiques ne s’expriment plus en m3 mais en thermies, unité qui est égale à i ooo grandes calories. Notons que cette unité n’aura qu’une vie brève, devant être remplacée (en vertu du décret du 9 mai 1961) par le Watt. Pour ajuster les statistiques actuelles aux anciennes, il suffit de savoir que le gaz classique fournit environ 4 500 kcal au m3. Sur ces bases nouvelles, les ventes de gaz par le Gaz de France sont passées de 14 milliards de thermies en 1955 à 19 milliards en i960.
- Mais le rôle du Gaz de France s’est sensiblement modifié : conservant le monopole du transport et de la distribution, cette société nationale produit relativement moins par elle-même. Alors que ses ventes en 1955 provenaient pour 73 pour 100 de ses usines et de ses cokeries, cette proportion s’est abaissée en i960 à 59 pour 100. Le reste se répartit en achats effectués auprès des cokeries de l’Est (28 p. 100), des producteurs de gaz naturel (8,3 p. 100), des raffineries de pétrole (gaz 2 p. 100, et propane 2,6 p. 100).
- La présence du gaz de Lacq est la cause principale de cette, différence dans le rapport entre ventes directes et achats par le Gaz de France. Mais elle a également déterminé l’intensification du transport du gaz à grande distance. Passé de 2 332 km en 1947 à 9 840 km en i960, le réseau a permis un transport de 1 700 000 000 m3 de gaz, presque triple de celui de l’année précédente 1959.
- Profitant de cette latitude de transport, on a procédé à de nouvelles fermetures d’usines. Leur nombre est à présent réduit à 144. Les plus puissantes, au nombre de 26, assurent 89 p. 100 de la production.
- On notera que cette concentration s’est traduite par une sensible diminution dans le tonnage de charbon soumis à la carbonisation : 3 140 000 t en i960 contre 4 400 000 t en 195 5. Cette économie a évidemment retenti sur la production du coke, réduite en i960 à 1 800 000 t. Pour ajuster cette moindre production avec les besoins de certaines industries (parmi lesquelles l’électrométallurgie), des mesures ont été prises pour diminuer l’autoconsommation de coke dans les usines à gaz où il servait au chauffage des fours et à la fabrication de gaz à l’eau.
- Défavorable au charbon, l’évolution de l’industrie du gaz a au contraire stimulé l’emploi des produits pétroliers : 183 000 t en i960 contre 129 000 en 1955, le rôle le plus important étant joué par les gaz liquéfiés (propane et butane) dont la consommation a atteint 100 000 t en i960. On note une régression dans l’utilisation des huiles et distil-lats légers (82 000 t), tandis que la contribution du gaz de raffinerie est encore peu importante.
- Ces profonds remaniements de l’industrie du gaz vont de pair avec un sensible accroissement dans le nombre des abonnés passé de 4 972 000 en 1948 à 5 820 000 en i960. Mais le fait le plus marquant est le glissement de la consommation vers les usages industriels (verrerie, céramique, réfractaires et produits chimiques). L’industrie a ainsi absorbé, en i960, 24 p. 100 de la production gazière, contre
- 12 p. 100 en 1947. Bien qu’accrue en chiffres absolus, la consommation domestique n’est plus que de 59 p. 100 contre 72 p. 100 en 1947.
- Les réservoirs souterrains
- L’existence d’un réseau assurant des transports à longue distance posait un problème nouveau, celui de réservoirs qui permettent (comme pour les réseaux électriques) de parer aux pointes de consommation ou à des arrêts accidentels dans la production.
- Ce rôle est assumé sur le plan local par les gazomètres. Mais ces réservoirs aériens ne peuvent en aucun cas avoir les capacités qui sont à présent nécessaires. C’est ainsi que l’on a dû s’orienter, à l’exemple des Etats-Unis et de l’Allemagne, vers les réservoirs souterrains. Le choix du site de Beynes (Seine-et-Oise) avait déjà été signalé par L,a Nature (août 1955). Cependant et bien que mis en service depuis quelques années, le réservoir n’a jamais été décrit dans notre revue.
- Le principe, conforme d’ailleurs à celui appliqué à l’étranger, est de stocker le gaz dans un anticlinal en forme de coupole (c’est-à-dire fermé aux deux bouts). La superposition des couches doit satisfaire à certaines conditions : il faut d’abord un toit rigoureusement étanche, fait par exemple d’une couche d’argile, surmontant une roche poreuse, totalement ou partiellement noyée par une nappe d’eau.
- Le gaz, injecté sous pression dans la roche poreuse, refoule et comprime l’eau qui par la suite exercera une contre-pression permettant le soutirage du gaz. Il est souhaitable que la structure se trouve à une profondeur de 300 à 500 m. On doit par contre s’assurer que la nappe d’eau n’est pas en communication avec les nappes phréatiques avoisinantes que le gaz risquerait de polluer gravement.
- Fig. 1. — Un des puits du réservoir de Beynes.
- Ce puits est un de ceux qui servent à l’injection et au soutirage.
- 219
- p.219 - vue 223/551
-
-
-
- Fig. 2. —Vue d’ensemble des installations de compression et de traitement de gaz au-dessus du réservoir de Beynes.
- L’anticlinal de Beynes se présentait favorablement. La roche magasin est un sable assez pur, dont la porosité est voisine de 25 pour 100. Sa profondeur est d’environ 300 m, son épaisseur de 30 à 35 m. Tenant compte de la surface totale du « piège », on a calculé que la capacité de stockage pouvait atteindre 340 000 000 m3.
- L’installation comporte 23 puits, grâce auxquels s’effectue l’injection et le soutirage (fig. 1), certains étant toutefois spécialisés dans le contrôle du niveau de l’eau et de l’étanchéité du réservoir. On pourrait croire que l’équipement annexe se réduit à la station de compression qui permet l’injection du gaz. Il n’en est rien, car le gaz doit être épuré à l’entrée et à la sortie du réservoir (fig. 2 et 3) ; à l’entrée pour éliminer certains constituants qui, réagissant avec les minéraux du sous-sol ou avec les microorganismes présents dans l’eau, risqueraient d’entraîner un colmatage de la masse sableuse autour des puits ; à la sortie pour déshydrater le gaz, le purifier de l’hydrogène sulfuré qui a pu se former dans le sous-sol et de traces de métaux carbo-nyles, sussusceptibles d’inhiber la combustion.
- On doit noter que ces installations d’épuration, réalisées par le Gaz de France, représentaient une innovation. Il se trouve en effet que les réservoirs souterrains, en particulier aux Etats-Unis, sont destinés à stocker du gaz naturel dans d’anciens gisements pétroliers qui retrouvaient en quelque sorte leur « fonction » primitive. De ce fait, les perturbations chimiques sont réduites au minimum : rien de semblable évidemment à Beynes où le gaz de cokerie pénètre dans un milieu qui ne lui est pas nécessairement favorable.
- D’autres réservoirs souterrains doivent progressivement compléter celui de Beynes, dont la capacité est d’ores et déjà insuffisante : un anticlinal de la région de Vernon permettra un stockage nettement plus important. Par ailleurs, le gaz de Lacq dispose dès à présent, à Lussagnet (Landes), d’un réservoir qui harmonise le débit constant du gisement avec les irrégularités de la consommation et on prévoit près de Nancy un autre réservoir pour le gaz saharien qui doit remonter de Marseille.
- Le réseau actuel du gaz de France est certainement appelé à de futures modifications, dues en particulier à l’apport probable du gaz saharien. Un prochain article exposera les problèmes que pose le transport intercontinental de ce gaz, soit par canalisations sous-marines, soit par navires méthaniers, transportant le gaz liquéfié.
- R. A.
- Fig. 3. — Installation de traitement du gaz stocké à Beynes.
- Les quatre cuves cylindriques horizontales qui se trouvent au premier plan à droite sont employées, avant l’injection, à l’élimination des composés cyanés. Après extraction, elles épurent le gaz de l’hydrogène sulfuré. Les huit cylindres qui apparaissent à l’arrière plan, surmontés d’une passerelle, contiennent du charbon actif qui retient, avant l’injection, une série de produits condensables.
- (Photos Gaz de France).
- p.220 - vue 224/551
-
-
-
- Des cours d’eau russes seront détournés de l’Arctique vers la Caspienne
- Voici quelques années, les revues soviétiques publiaient un projet d’une extrême ampleur, nommé Plan Davydov, et selon lequel les eaux de deux grands fleuves sibériens, l’Obi et le Ienisséi, devaient être partiellement détournées pour se déverser dans la Caspienne. Aucune allusion récente n’ayant été faite au plan Davydov, tout porte à croire qu’il a été abandonné, ou reporté à une date éloignée.
- L’idée de « rebrousser » vers le Sud les eaux continentales qui vont se perdre sans grand profit dans l’Océan Arctique continue cependant à être en faveur. Mais, selon la revue Priroda, c’est à présent en Russie d’Europe que cette vaste opération serait envisagée. Il est en effet logique qu’une pareille entreprise soit située géographiquement à une distance relativement faible des centres vitaux du pays. Les avantages qu’elle comporte sont : i° de créer une voie navigable qui relierait non seulement l’Océan Arctique à la Mer Caspienne et à la Mer Noire mais aussi les régions intermédiaires, jalonnées par les villes de Perm, Kouybichev et Stalingrad ; z° d’apporter un supplément important d’énergie hydroélectrique dont la production ne sera pas trop éloignée de la consommation ; 30 de fournir un appoint d’irrigation aux régions steppiques du Sud que l’on s’efforce actuellement de transformer en terrains d’élevage et de culture ; 40 de relever le niveau, constamment en baisse, de la Caspienne.
- Tel qu’il est décrit, le projet consiste essentiellement à relier trois fleuves : la Vytchegda (qui concourt à former la Dvina), la Petchora et la Kama, affluent de la Volga. Les deux premiers coulent vers le nord et vont respectivement se jeter, la Vytchegda-Dvina dans la Mer Blanche, la Petchora dans la Mer de Barents, à proximité de la Nouvelle Zemble. C’est sur leurs eaux qu’une ponction sera opérée au profit de la Kama et par la suite de la Volga.
- La carte (fig. 1) fait apparaître les grandes lignes du projet. On peut mettre à part le barrage d’Oust-Igemsky, sur le cours inférieur de la Petchora, auquel serait jointe une centrale hydroélectrique, mais qui ne concourt pas au rebroussement des eaux.
- C’est au contraire à Oust-Voysky que se place la pièce maîtresse du projet, un grand barrage en terre, long de 12 km, qui relèvera de 70 m le niveau de la Petchora. La cote ainsi atteinte permettra non seulement d’arrêter l’écoulement vers l’aval d’une importante fraction des eaux du fleuve, mais aussi de déverser ces eaux vers le sud. La retenue sera fermée vers l’ouest par une digue à Nibel-Igemsky.
- Une opération similaire sera réalisée à Oust-Koulomsky, sur la Vytchegda, grâce à un barrage de 2 km de long. Deux grands réservoirs auront été ainsi créés dont la superficie totale atteindra 13 000 km2. Leur capacité sera de 220 milliards de m3. Us seront joints par un canal de 62 km de
- Vorkouta P
- P Mourmansk
- Oust-
- .Arkhangelsl
- Canal Petchora-> -Vytchegda X! Vytchegda -
- Oust-4 -Koutomsky
- L.Onegi
- JC Lad ni
- Usine-Barrage delaH'P Kama
- Leningrad;
- Perm
- Kirov
- ^Ngne--Kamskaïa
- [MOSCOU
- Kouybichev
- Jchkalov
- tarai ov
- SaratovTp
- Voronej w
- khankov
- «Stalingrad
- Gouriev
- Rostov
- Tsimliansk
- Astrakhan^
- ^Mer d’Azov
- SOOkm
- Barrages ou digues en projet 0 Centrales en exploitation
- Canaux en projet 3 Centrales en construction
- „ . Canaux existants O Centrales en projet
- Fig. I. — Projet de barrages et canaux pour détourner partiellement les eaux de la Petchora et de la Vytchegda dans la Kama et le bassin de la Volga.
- (Imité de Vrirodd).
- long. Un troisième réservoir sera enfin créé au même niveau sur la haute Kama grâce à un barrage de 5 km de long. Ce réservoir Kama communiquera avec le réservoir Vytchegda par un canal d’une centaine de km. Ce triple et immense château d’eau dominera de 17 m le lit de la Kama, à la hauteur du dernier barrage. Les lacs artificiels, de même que les canaux, offriront un tirant d’eau suffisant
- 221
- p.221 - vue 225/551
-
-
-
- pour les navires de tous tonnages. On remarquera à ce sujet qu’il existe déjà une voie d’eau artificielle de gabarit plus modeste, le canal Catherine qui relie la Vytchegda et la Kama.
- A partir du barrage déjà mentionné sur la Kama, ce fleuve va être aménagé sur toute sa longueur en une série de biefs au bout desquels seront implantées des centrales hydroélectriques. Ce système se prolongera sur la Volga. Ainsi, les eaux de la Petchora et de la Vytchegda seront turbinées successivement par une chaîne de centrales, en même temps que celles qui appartiennent en propre au bassin Kama-Volga. Trois centrales sont déjà achevées, à Perm, Kouybichev et Stalingrad. Deux sont en construction, à Votkinsk et en amont de Saratov. Celles de Nijne-Kamskaia, en amont du confluent entre la Kama et la Volga, et de Nijne-Volskaia sur la basse Volga sont seulement en projet.
- On compte que l’apport d’eau annuel qui résultera de la ponctior sur les deux fleuves arctiques se chiffrera
- Erreur printanière dans
- Dans un travail où elle s’efforce d’analyser les réactions sonores des oiseaux pendant la période de couvaison, une ornithologue soviétique, Mme Ovchinikova, a pu mettre en évidence une certaine « incohérence » dans le comportement des mâles (Bulletin de l’Université de -Leningrad).
- On sait l’importance biologique du chant des oiseaux. C’est une notion couramment acceptée que le chant du mâle est un appel à la femelle; il a également pour effet d’avertir les autres mâles de la même espèce que le territoire est occupé et qu’il sera défendu au besoin. Ce chant, particulièrement intense au début de la nidification, s’affaiblit progressivement pendant la ponte, la couvaison et surtout pendant l’éclosion des œufs.
- D’autre part, les oiseaux disposent d’une série de manifestations vocales qui correspondent à d’autres situations, notamment quand ils sont dérangés ou menacés : cris d’alerte, cris de détresse, etc. Ces signaux sonores restent
- par une quarantaine de milliards de m3. Le passage de cette eau à travers les turbines de la chaîne de centrales Kama-Volga fournira au pays une énergie supplémentaire, évaluée à onze milliards de kWh par an. Les auteurs du projet font ressortir que le prélèvement sur la Petchora et la Vytchegda-Dvina n’entraînera pas d’inconvénients pour les riverains de ces fleuves. Il ne sera en effet que partiel, la Petchora par exemple ne cédant que 3 3 milliards de m3 sur un débit annuel total de 130 milliards.
- On peut enfin remarquer sur la carte le tracé d’un canal Volga-Don qui s’amorce en aval de Stalingrad et rejoint déjà le réservoir existant, créé sur le Don par la centrale de Tsimliansk. La revue Prlroda n’indiquait pas si ce canal peut jouer un rôle dans le projet, en dérivant par exemple une partie des eaux de la Volga vers le Don. Cette dérivation ne pourrait être d’ailleurs qu’occasionnelle, étant donné le souci de relever les eaux de la Caspienne.
- C. M.
- le chant des oiseaux
- toujours identiques pour une même espèce et sont considérés comme des réflexes innés.
- Or l’auteur a pu constater que plusieurs espèces, parmi lesquelles le Rouge-gorge, le Pipit des arbres et le Merle noir d’Europe, font exception à ces règles, du moins momentanément. Lorsqu’on s’approche du nid en construction, alors que le mâle se trouve au point culminant de l’excitation sexuelle, on le voit manifester des signes évidents d’inquiétude et pourtant il n’émet pas les sons spécifiques de l’alerte, mais le chant d’amour. Cette erreur de signalisation se produit généralement pendant la période qui va de mai au milieu de juillet.
- L’hypothèse de l’auteur est que l’extrême excitation sexuelle, directement liée au centre cérébral du chant, domine, à cette époque de l’année, toutes les réactions nerveuses de l’oiseau. Telle serait l’explication de cette « aberration sonore ». S. C.
- Le premier aéroglisseur commercial
- Nous avons déjà à deux reprises traité des aéro-glisseurs ou véhicules à effet de sol, qui se soutiennent à une certaine distance du sol (ou de l’eau) par un jet d’air sous pression, et nous avons notamment cité et figuré l’appareil britannique « Hovercraft » (décembre 1959, p. 534-535; janvier 1961, p. 7-10). On apprend qu’un Hovercraft sera vraisemblablement mis en service cet été, de façon com-
- Étamage sur
- L’Association britannique de recherches sur le fer et l’acier vient d’adapter cette technique de 1’ « effet de sol » à l’industrie sidérurgique. Elle a fait à Londres une démonstration de l’utilisation de l’air comprimé pour faire « flotter » la bande de métal au cours de l’étamage. C’est ainsi qu’on a pu voir une bande d’acier étamé de 5 2 m environ
- merciale, pour relier l’Angleterre au Pays de Galles à travers l’estuaire de la Dee; il comportera 23 places assises. On pourra apprécier exactement ainsi l’utilité de l’appareil sur des parcours où aucun autre moyen de transport ne peut être commode. Jusqu’à présent, aucun transport régulier n’a pu être mis en service sur l’estuaire de la Dee en raison des fortes marées qui l’affectent.
- matelas d’air
- se déplacer sur un matelas d’air comprimé. Grâce à cette technique, les chercheurs ont réussi à mettre au point un procédé qui permet de ramener l’épaisseur du métal de 0,2 à 0,1 mm, soit un gain de 50 pour xoo sur le poids. Le fer blanc de l’avenir sera donc plus léger et les boites de conserves pèseront moins lourd.
- 222
- p.222 - vue 226/551
-
-
-
- Contre les requins : le harpon empoisonné
- Nous avons signalé récemment (février 1962, p. 88), qu’un spécialiste australien de la médecine sous-marine, le Dr. Shana Watson, avait découvert un poison violent particulièrement efficace contre le principal ennemi du plongeur sous-marin : le requin. Il s’agissait alors de trouver le moyen d’opérer commodément l’injection mortelle. C’est maintenant chose faite. Deux amateurs australiens de chasse sous-marine ont mis au point un harpon dont la piqûre est empoisonnée : le dispositif se compose d’une aiguille hypodermique de vétérinaire fixée sur un cylindre de cuivre lui-même vissé sur le harpon du traditionnel «fusil» sous-marin. L’injection du poison est assurée par un piston qui, sous la poussée d’un ressort, se déplace dans le cylindre contenant le poison. Une tige métallique soudée parallèlement au cylindre permet de libérer le ressort. Lorsque le harpon atteint sa proie, l’aiguille pénètre dans la chair du requin. La tige métallique, plus courte que l’aiguille, vient alors appuyer sur la peau de l’animal et sous l’effet du choc actionne un câble qui,
- Fig. 1. — Un requin blanc (Trictenodon apicalis) sur le point d’être attaqué par le plongeur sous-marin.
- {Photo aimablement communiquée par P Ambassade d’Australie'),
- à son tour, libère le ressort qui pousse le piston devant lui et force le poison à pénétrer dans la chair du requin.
- Le poison utilisé est du nitrate de strychnine dont une dose de 5 cm3 est suffisante pour tuer un requin en une minute environ. Plus de trente substances furent essayées au cours des recherches. Des poisons aussi puissants que le cyanure de potassium et diverses formes de curare se montrèrent tout à fait inefficaces.
- Le harpon empoisonné ainsi mis au point vient d’être expérimenté avec succès dans les eaux du récif de la Grande-Barrière en Australie. Il reste à savoir si la manipulation d’une arme aussi fatale aux requins est vraiment sans danger pour les plongeurs eux-mêmes.
- 223
- p.223 - vue 227/551
-
-
-
- Peinture par robot
- Peindre un réservoir de stockage de produits pétroliers ou la coque d’un navire est une opération longue et coûteuse par les méthodes traditionnelles. Le petit « tank » que l’on voit ici ramper sur le flanc d’un réservoir sphérique est le prototype d’un engin conçu par l’Esso Research and Engineering Company pour préparer et peindre les grandes surfaces métalliques, aussi bien verticalement qu’horizontalement, à une vitesse de l’ordre de neuf mètres à la minute.
- Des aimants, encastrés dans les chenilles de caoutchouc, maintiennent le robot sur la surface métallique ; la propulsion est assurée par une turbine à air, l’engin étant dirigé
- Soufre sous la Vistule
- Des recherches géologiques ont révélé l’existence d’un important gisement de minerai de soufre sous le lit de la Vistule, dans la région de Tarnobrzeg. Selon les premières estimations, ce gisement représente près de 10 pour ioo des ressources globales de la Pologne en ce qui concerne le soufre. L’exploitation de minerais de soufre étant, cependant, très difficile sous une rivière, il a été suggéré de déplacer le lit de la Vistule sur une longueur de presque 15 km dans la région où se trouve le gisement. Soumis à l’étude, ce projet a été trouvé entièrement réalisable au point de vue technique. (Priroda).
- par une commande pneumatique. La peinture, distribuée sous pression, est appliquée par un rouleau après que la surface a été préparée par un décapeur mécanique monté sur le tank de sorte que les opérations sont continues. Les robots définitifs seront, bien entendu, beaucoup plus grands que le prototype représenté ici : ils mesureront environ 90 cm de longueur et 45 cm de largeur. On estime que quatre de ces robots pourraient peindre un pétrolier de tonnage moyen en seize journées de travail, alors qu’il en faut deux cents de travail manuel. Le coût de l’opération serait de 40000 à 60000 NF soit 50 pour 100 environ d’économie sur les procédés traditionnels.
- Médicaments pat ultrasons
- Les ultrasons sont utilisés depuis peu par un médecin américain, le docteur James E. Griffin, pour faire pénétrer des produits pharmaceutiques directement par la peau. Le docteur Griffin, après avoir étendu un liniment sur la peau d’un animal de laboratoire, fait pénétrer le produit dans le muscle par une exposition de quelques minutes à un faisceau d’ultrasons. Ce procédé pourrait être utilisé, par exemple, pour injecter de la cortisone dans le muscle de l’épaule dans les cas d’inflammation rhumatismale de cette articulation. (Information U. S. I. S.).
- 224
- p.224 - vue 228/551
-
-
-
- L’ACTUALITÉ INSTRUMENTALE
- Nouveau collecteur de fractions
- Un constructeur français propose depuis peu un collecteur de fractions d’une conception très simple qui en fait un appareil particulièrement précieux, tant pour les laboratoires de recherche et de contrôle que pour les laboratoires d’enseignement. Les collecteurs traditionnels ont, bien entendu,des performances supérieures mais ils sont très onéreux, d’un fonctionnement plus délicat et sont souvent assez encombrants. Nous pensons donc que cet appareil devrait connaître un réel succès auprès de tous ceux qui recherchent un matériel simple, commode d’emploi, robuste et d’un prix abordable.
- L’organe de mesure des fractions est un siphon dans lequel plonge une thermistance (fig. 2). Lorsque le siphon est plein, il s’écoule dans le tube correspondant situé sur le plateau. Il subsiste toutefois quelques gouttes de liquide dans la partie capillaire du siphon. Ce dernier se remplit
- SECTEUR
- COFFRET ÉLECTRONIQUE
- DÉTECTEUR
- SIPHON
- PLATEAU PORTE-TUBES
- LEVIER
- Fig. I. — Différents éléments du collecteur de fractions S.V. 180.
- Le levier (en bas, à droite) ramène automatiquement le plateau en position de départ.
- Vers le coffret électronique
- Colonne à chromotographit
- Thermistance
- Fig. 2. — Schéma du siphon.
- alors à nouveau et l’air contenu dans le capillaire chasse ces quelques gouttes dans le tube. Puis le niveau du liquide atteint la thermistance, ce qui provoque un abaissement de sa température d’où un signal qui déclenche la rotation du plateau, et un tube vide vient prendre place sous le siphon.
- Il existe plusieurs modèles de siphon de différentes
- Fig. 3, — Le collecteur de fractions S.V. 80 en fonctionnement dans un laboratoire.
- p.225 - vue 229/551
-
-
-
- COLLECTEUR DE FRACTIONS
- — Conception simple.
- — Fonctionnement sûr.
- — Interchangeabilité immédiate.
- — Prix de Revient peu élevé.
- Documentation détaill ée
- et Prix sur demande
- ETSSEIVE , constructeur
- 17, Rue Saint-Gilles, PARIS (IIIe)
- ARC. 72-82 TUR. 84-61
- ECOLE SUPERIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e — ODE 54-83
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d'Etat. Brevets de Techniciens d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour —- Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- Transformez votre Microscope en un
- MICROSCOPE INTERFËRENTIEL
- pour la mesure et le contrôle des États de Surface
- à l'aide de
- l'OBJECTIF INTERFËRENTIEL DE WATSON
- Applications : Métaux, Semiconducteurs,
- Peintures, etc.
- LES PROCÉDÉS MARCEL LOCQUIN
- 20, Avenue Rapp - PARIS 7' - INV. 96-53
- APPAREILS ELECTRONIQUES DE MESURE
- A HAUTES PERFORMANCES
- QUELQUES POSSIBILITÉS :
- Tensions : 100 (iV à 50 k V - R. d'entrée 10'4q Intensités : 10-15 à 10-3 ampère R. d’entrée nulle Résistances : 10 uh à 100 n n R. d'entrée nulle Capacités : 0,1 pF à 10.000 - R. d'entrée nulle
- Champs : 0,1 gauss à 10.000 gauss
- Electrisations : 10 pico-coulombs à 1.000 coulombs Pertes en watts des tôles : 0,5 à 5 W.
- Fluctuations de tension : depuis t m\/l.p00 ou 2.000 V Intégration : (analogique) 1 seconde à 60 mn. 1 à 20 voies Conductivité : 1 Q à 1.000 M n (mesure à distance)
- FONDÉ EN 1915
- Fournisseur.de 2.000 laboratoires officiels et privés toutes industries
- G3 RUE DE CHAREIUTON-PARIS 12 -DID. 07.74
- 226
- p.226 - vue 230/551
-
-
-
- capacités : 3, 5, 10 ml par exemple. Leur prix, peu élevé, permet à l’utilisateur d’en posséder une gamme étendue. Disons aussi que le principe même de la mesure des fractions fait que l’appareil fonctionne que l’on ait affaire à un liquide conducteur ou non (ce qui n’est pas le cas avec certains appareils qui utilisent un détecteur de niveau fondé sur l’établissement d’un contact électrique entre deux électrodes au moyen du liquide effluent).
- Les plateaux porte-tubes sont en chlorure de polyvinyle, de sorte que l’ensemble offre une très bonne résistance à la plupart des produits chimiques.
- Enfin, l’encombrement est pratiquement limité au diamètre du plateau porte-tubes. La partie électronique peut être placée à distance, ce qui facilite l’emploi de l’appareil en chambre froide par exemple (pour certaines études en biologie).
- Deux modèles sont actuellement fabriqués : le S.V. 180 dont le plateau comprend trois rangées de 60 tubes chacune, explorés successivement sans aucune intervention manuelle, et le S.V. 60 dont le plateau ne comprend qu’une rangée de 60 tubes.
- R.R.
- Brûleur électrique de laboratoire
- L’utilisation du vénérable bec Bunsen présente de nombreux inconvénients : il donne des résidus de combustion, noircit le matériel pour peu qu’il soit mal réglé ; il est bruyant et cet adjectif prend tout son sens lorsqu’on pénètre dans un laboratoire où manipulent une quarantaine d’étudiants, chacun utilisant le bec de gaz « virole fermée». Que le laboratoire soit mal ventilé et l’atmosphère devient vite irrespirable. Enfin, le chauffage n’est guère progressif et produit souvent des surchauffes locales, d’où les projections de liquide difficiles à éviter, lorsqu’on chauffe un tube à essai ou amène à sec le contenu d’une capsule.
- Il semble donc que le bec de gaz soit amené à disparaître, tout au moins pour les usages où l’on ne désire pas une température trop élevée. Le brûleur électrique dont il est question ici a une puissance de 5 00 watts ; il est muni d’une cheminée réfractaire en matériau résistant aux acides et aux bases, par laquelle s’échappe un courant d’air à une température de 600 à 7000 C. L’intérieur de la cheminée contient une spirale en métal résistant à la chaleur et aux acides dont le seul rôle est d’assurer un rapide échange de chaleur. L’élément chauffant proprement dit n’est nullement apparent dans la cheminée de sorte que l’appareil peut supporter sans inconvénient un écoulement accidentel de liquide. Le brûleur est livré avec un support métallique se plaçant sur la cheminée pour supporter les récipients à chauffer (fig. 4). Le diamètre supérieur de ce support est de 13 5 mm. Un support de plus petit diamètre est également prévu pour tenir les petits creusets.
- Les utilisations de ce brûleur sont nombreuses :
- — Chauffage de tubes à essais : l’ébullition est obtenue en moins d’une minute sans qu’aucune flamme gêne l’observation du contenu du tube ;
- — Chauffage de capsules, fioles, béchers, ballons, etc ; l’ébullition de 300 ml d’eau dans un bêcher de 600 ml est obtenue en 15 minutes ;
- — Stérilisation d’instruments, sans aucun dépôt de suie ;
- — Chauffage de fers à souder, etc.
- L’allure du chauffage peut évidemment être réglée de
- Ordinateur miniature
- Un ordinateur miniature, mesurant seulement 8 X 15 X 27 cm, comportant 5 500 éléments et capable d’accomplir 33 000 opérations mathématiques élémentaires par seconde, vient d’être mis au point par les laboratoires de recherches de la Société Burroughs, à Paoli (Pennsylvanie). (U. S. I. S.).
- Fig. 4. — Le brûleur électrique de Hoffmann. {Photo Prolabo).
- façon très simple par l’utilisation d’un régulateur d’impulsions ou d’un autotransformateur variable. On a donc là un excellent appareil qui devrait rendre de nombreux services et, en particulier, accroître la propreté du travail au laboratoire. Un seul inconvénient selon nous : l’appareil, importé d’Allemagne et distribué en France par Prolabo, ne fonctionne que sur le courant 220 volts pour l’instant; or de nombreux laboratoires, ceux de l’agglomération parisienne par exemple, ne disposent encore que de 110 volts.
- Diamants semi-conducteurs
- Des «diamants» semi-conducteurs viennent d’être produits artificiellement par la General Electric Company, en soumettant à une pression de quelque 70 000 kg/cm2 et à une température de l’ordre de 1 ooo° C du graphite additionné de traces de bore, de béryllium ou d’aluminium. (U. S. I. S. Sciences-Techniques).
- 227
- p.227 - vue 231/551
-
-
-
- VIENT DE PARAITRE
- ABSORPTI OM ÊTRE
- (PHOTO-COLORIMÈTRE)
- “ SPEKKER-HILGER ”
- — Pour les dosages colorimétriques rapides et précis.
- — S’emploie également pour les mesures opacimé-
- triques et néphélométriques et, par l’adjonction d’un dispositif auxiliaire, pour la fluorimétrie.
- Éts F. C. DAN N ATT
- 198, Rue Saint-Jacques, PARIS 5e
- A. CAILLEUX J. KOMORN
- Dictionnaire des racines scientifiques
- Biologie— Botanique — Chimie— Mathématiques — Médecine Minéralogie — Physique — Technologie — Zoologie
- Ce dictionnaire s'adresse à tous ceux qui souhaitent mieux comprendre les mots techniques en usage dans les sciences pures ou appliquées : mathématiques, astronomie, physique, chimie, biologie, médecine, zoologie, botanique, géologie et minéralogie.
- Souvent le sens des mots savants est influencé plus qu'on ne pense par leur sens originel, étymologique. C'est pourquoi cet ouvrage pourra être utile, non seulement aux techniciens et aux spécialistes confirmés mais aussi aux étudiants et à tous les hommes cultivés : la tâche de la mémoire est bien facilitée quand l'étymologie est connue.
- 1 vol. in-16 Colombier 246 p............... 24,00 NF
- S.E.D.E.S., 5, Place de la Sorbonne, PARIS-5e
- LE CALCUL INTÉGRAL DIFFÉRENTIEL
- A LA PORTÉE DE TOUS
- PAR S.P. THOMPSON
- TRADUIT DE L’ANGLAIS PAR E. GÉRARD
- VIII-224 pages 14 x 22, avec 66 figures. 5e édition 1962. Broché
- sous couverture illustrée........ 9,60 NF
- En vente dans toutes les bonnes librairies et chez
- DUNOD Editeur, 92, rue Bonaparte, PARiS-6e. DAN 99-15
- Uranium de très haute pureté
- La Société électrométallurgique du Planet assure une production régulière d’uranium de très haute pureté, obtenu par raffinage électrolytique en bain de sels fondus. Le procédé, mis au point grâce à la collaboration entre cette société et le C.E.A., donne l’uranium le plus pur qu’il soit actuellement possible d’obtenir. Le métal est stocké
- dans des bocaux de verre étanches, sous argon. Parmi les caractéristiques de pureté (exprimées en parties par million), on relève entre autres : moins de ioo p.p.m. de potassium, moins de 3 p.p.m. de nickel et de plomb, moins de 0,5 p.p.m. d’argent et de cadmium, moins de 0,2 p.p.m. de bore, etc.
- Le Ciel en Juin 1962
- SOLEIL : du ier au 21 (à oh) sa déclinaison croît de + 21057' à + 23027' (maximum), puis revient à + 2309' le Ier juillet (à oh) ; la durée du jour passe de I5h49m le ier à i6h7m le 21, puis revient à i6h4m le 30 ; diamètre apparent le Ier (à oh) — le 30 (à
- 24*1) = 3i'3o"8. — LUNE : Phases : N. L. le 2 à I3h27m, P. Q. le 10 à 6h22m, P. L. le 18 à 2*13»!, D. Q. le 24 à 23*1431» ; apogée le 10 à i8h, diamètre app. 29'34" ; périgée le 23 à 20b, diamètre app. Principales conjonctions : avec Mercure le 3 à ih, à 2°23 S ; avec Vénus le 5 à 3*1 à 3054' S ; avec Uranus le 8 à ioh, à o°46' N ; avec Neptune le 14 à 12*1, à 3029' N ; avec Saturne le 21 à 7*1, à o°3i' N ; avec Jupiter le 23 à 12*1, à i°49' S ; avec Mars le 28 à ioh, à 4038' S ; avec Mercure le 30 à 6h, à o°45' S. •—- PLANÈTES : Mercure, difficile à observer le matin à la fin du mois; Vénus, belle étoile du soir, se couche le 18 à 22*115m, soit 2*120“ après le Soleil ; Mars, pâle étoile du matin, se lève le 30 à 1*1131», soit 2*140“ avant le Soleil ; Jupiter, dans le Verseau apparaît dès minuit, le 16, diamètre app. 39"2 ; Saturne, dans le Capricorne se lève dans la soirée, le 16, diamètre pol. app. i6"2 et axes de l’anneau : 4o"6 et + i2"2 ; Uranus, se rapproche au N-W de SLêgulus et se couche vers 23*1, le 16, position : 9*159“ et + 13 °8' diamètre app. 3"7 ; Neptune, entre X et ju Balance, visible une bonne partie de la nuit, le 16, position : 14*1371» et — 13 025',
- diamètre app. 2",5 et mag. 7,7. — ÉTOILES VARIABLES : minima de (ï Lyre (3“,4-4“,3) le 12 à 10*1,2, le 25 à 8*1,5 ; maxima de p Aigle (3 “,7-4 “,4) le 5 à 17*1,5, le 12 à 21*7,4, le 20 à 1*1,7, le 27 à 5*1,9; maxima de 8 Cêphêe (3 “,7-4“,6) le 4 à 1*1,0, le 9 à 9*1,8, le 14 à 18*1,6, le 20 à 3*1,4, le 25 à 12*1,2, le 30 à 21*1,0 ; maximum de U Orion (5m,3-i2m,6) le 4, de R Vierge (6m,2-i2m,i) le 6, de X Ophiuchus (5m,9-9m,2) le 8, de XX Vierge (6m,o-9m,6) le 12. — TEMPS SIDÉRAL : au méridien de Paris à oh (T.U.) : le ier : 16*145 m2os, le 11 : i7*i24m45s, le 21 : i8*i4»iiis, le ier juill. : i8*i43m37s.
- Phénomènes intéressants : Observer l’apparition de taches et de facules à la surface du Soleil. — Solstice d’été le 21 à 21*125m. — Du 4 au 8, lumière cendrée de la Lune, le soir. — On pourra constater que les anneaux de Saturne se referment peu à peu. — Suivre le rapprochement graduel de la planète Uranus et de Régulus, à la jumelle. — La rétrogradation de la planète Neptune est facilement observable dans une petite lunette. — Le long crépuscule gêne l’observation de la Voie lactée.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- 218
- p.228 - vue 232/551
-
-
-
- LES L 1
- U V E A
- U X
- Histoire générale des Sciences, publiée sous la direction de René Taton, maître de recherches au C.N.R.S. Tome III : La Science contemporaine ; Vcl. I : Le XIXe siècle, par F. Abelès, G. Allard P. Astruc, L. Auger, E. Bauer, B. Ben Yahia, G. Canguilhem, M. Caullery, J. Chesneaux,
- I. B. Cohen, P. Costabel, G. Darmois, M. Daumas, M. Durand, R. Furon, P. Huard,
- J. Itard, J. Jacques, J.-F. Leroy, J. Lévy, Ch. Morazé, J. Orcel, J. Piveteau, R. Taton, A. Tétry, M.-A. Tonnelat, A. P. Yousch-kevitch, V. P. Zoubov. i vol. 19x23,5, VIII-756 p., 20 fig., 48 planches hors-texte. Presses Universitaires de France, Paris, 1961. Prix, cart. toile : 48 NF.
- Rappelons que le ier tome de cette Histoire générale des Sciences était consacré à la Science antique et médiévale (des origines à 1450), le ze à la science moderne, le mot moderne étant pris ici dans une acception un peu particulière, puisque ce tome embrassait le développement des connaissances depuis la Renaissance jusqu’à la fin du 18e siècle. En effet, à la fin du 18e, on peut dire que la science moderne est fondée et c’est à partir de là qu’elle va prendre son plein essor, qu’elle va commencer à bouleverser non seulement l'image que chacun se fait de l’univers et de l’homme, mais jusqu’à notre vie quotidienne. A partir de là aussi les acquisitions vont être tellement nombreuses qu’il fallait renoncer à les faire tenir en un seul volume. Le 19e siècle remplit donc ce premier volume de la « science contemporaine ». La coupure se justifie car l’époque garde une « unité interne satisfaisante » selon l’expression de M. Taton. Sous l’aspect qu’on peut appeler idéologique, le 19e siècle n’invente rien mais, en tous domaines, il réalise les promesses du précédent, il consomme son héritage. Ce qu’il change, c’est la façon de travailler. On
- abandonne le bricolage pous s’orienter vers l’organisation du laboratoire moderne, vers une spécialisation de plus en plus poussée. Science et technique deviennent étroitement solidaires. Les grandes nouveautés véritables, qui modifieront jusqu’à nos façons de penser, comme la Relativité et les Quanta, n’apparaîtront qu’à l’aube du 20e siècle, mais le 19e les aura préparées et rendues inévitables en cherchant, et à la fin désespérément, à réaliser son idéal de modèle classique. En lisant cette histoire d’un gigantesque effort dans tous les domaines, on jugera que si ce siècle fut « stupide », ce ne fut certes pas en matière de science !
- ------ A NOS LECTEURS ------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- est à la disposition des lecteurs de LA NATURE - SCIENCE PROGRÈS pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- Transformation de Fourier et théorie des
- distributions, par Jean Arsac. Préface de
- André Danjon, membre de l’Institut, i vol.
- 16 x 25, 364 p., 28 fig. Dunod, Paris, 1961.
- Prix, relié : 48 NF.
- L’auteur a voulu mettre à la portée des physi-siciens l’essentiel de la théorie des distributions introduites par le mathématicien Laurent Schwartz, théorie qui n’est pas dénuée de sérieuses difficultés mais qui apporte, dans bien des domaines de la physique moderne, de nombreuses simplifications. Après un exposé mathématique détaillé, l’auteur examine le parti que l’on peut tirer de la transformation de Fourier dans quelques cas concrets : diffraction, théorie des circuits, physique mathématique, etc. La troisième partie est consacrée au problème des filtres linéaires. Ouvrage d’un niveau élevé qui a l’avantage de faire le lien entre les mathématiques pures et le point de vue du physicien.
- Dictionnaire nucléaire, par Jean Combe, i vol.
- 17 X 24,5, 108 p. Editions René Kister, Genève;
- Editions de la Grange Batelière, Paris, 1961.
- Prix, relié: 8,85 NF.
- Voici, rassemblé en un volume, le dictionnaire des termes fondamentaux utilisés en physique nucléaire, que l’auteur, physicien au C.E.R.N., à Genève, avait rédigé pour la revue internationale Industries atomiques. L’ouvrage réunit plus de 600 mots, soit la presque totalité de ceux qui composent le langage nucléaire. Tous les mots sont traduits en anglais, allemand et russe et leur explication, largement développée, est rédigée en français. Ouvrage très sérieux, parfaitement à jour, qui a sa place dans la bibliothèque de tous ceux qui participent au développement de la science nucléaire mais aussi dans celle de « l’honnête homme ».
- KROL : Hibou
- Eau-forte 7 couleurs. 150 ex. 150 NF
- *
- Tous nos tirages sont limités, numérotés et signés par les artistes.
- Prix : de 4j à 250 NF
- CATALOGUE N SUR DEMANDE
- -*
- EXPOSITION PERMANENTE 1, Rue de Seine, PARIS-6e DANton 05-44
- LA GRAVURE
- DECOREZ vos murs avec des LITHOGRAPHIES
- ORIGINALES des meilleurs peintres de notre époque tels que BUFFET, CARZOU, L. FINI, LURÇAT, LARS-BO, JANSEM, BRAYER, OUDOT, HUMBLOT, PLANSON, VERTES, DAUCHOT, etc...
- R. HUMBLOT : Les rochers
- Lithographie en couleurs 75 ex, 60 NF
- 22?
- p.229 - vue 233/551
-
-
-
- ENCYCLOPEDIE PR ANC AISE
- Tome XIII
- industrie
- agriculture
- VIENT DE PARAITRE
- sous la direction de Jean Capelle et de Pierre Chouard
- Un tableau complet des activités industrielles et agricoles de notre temps, dressé par une équipe de savants, d’industriels, de hauts fonctionnaires et de techniciens qui ont une expérience directe des sujets qu’ils traitent.
- Actuel, facile à consulter, très illustré, un livre de base pour qui veut comprendre les problèmes que pose la vie moderne à l’heure du Marché Commun.
- 1 volume sous reliure mobile spéciale (25x30 cm), 564 pages dont 32 de hors-texte en héliogravure, nombreuses illustrations dans le texte.
- facilités de paiement - en vente chez tous les libraires
- LAROUSSE dépositaire général
- Propriétés physiques des cristaux, par J. F. Nye. Traduit de l’anglais par Daniel Blanc et Théophile Pujol. i vol. 16 X 25, xiv-344 p.,
- 87 fig. Dunod, Paris, 1961. Prix, relié : 56 NF.
- . Exposé complet des relations que l’on peut obtenir grâce aux propriétés de symétrie des cristaux lors de l’étude des divers phénomènes physiques liés au milieu cristallin. Deux grands chapitres rappelant les définitions des tenseurs d’ordre deux et leurs transformations par changements d’axes introduisent les idées générales qui seront appliquées dans chaque cas particulier : propriétés électriques, piézoélectriques, élastiques, thermo-électriques, optiques. On notera l’utilisation constante de l’ellipsoïde de grandeur. Ouvrage précieux pour tous les ingénieurs, chercheurs ou étudiants familiers de la physique du solide. Chaque chapitre est terminé par une série d’exercices. Des appendices regroupent tous les résultats obtenus sous forme de tableaux pratiques à consulter. On regrettera seulement que l’auteur n’ait pas cru devoir introduire les phénomènes piézo-magnétiques. — J. J.
- Forces and fields, par Mary B. Hesse, i vol.
- 16x24,5, 318 p., 9 fig. Thomas Nelson, Londres,
- Paris, 1961. Prix, relié : 35 sh.
- L’auteur examine, à travers l’histoire de la physique, les concepts et les théories qui ont été proposés au cours des siècles pour essayer d’expliquer les actions à distance qui s’exercent entre les corps. De la science grecque aux théories mécanistes du 17e siècle, de la théorie des champs du 19e à la théorie relativiste du 20e siècle, l’auteur pénètre les rapports des théories et des modèles qui leur servent de point de départ.
- Classement des agents de surface. 1 vol. 27,5 X 21,5, 16 p. Comité international de la détergence, Paris, i960. Prix: 1,40 NF.
- Brochure rédigée par la Commission de terminologie du Comité international de la détergence et consacrée aux méthodes de classement des agents de surface à l’échelle internationale. Une méthode de classement par l’utilisation de chiffres est décrite en détail, mais, étant incomplète, les auteurs préconisent l’emploi de cartes perforées, ce qui permet de compléter le classement décimal. Le texte est rédigé en trois langues : français, anglais, allemand.
- Guide du génie chimique; protection contre la corrosion, x vol. 21 x 27, 552 p., nombr. fig. Presses documentaires, Paris, 1961. Prix: 75 NF.
- Guide technique et répertoire étendu de l’appareillage et des matériaux utilisés dans l’industrie chimique. La première partie donne des renseignements généraux sur les organismes d’Etat, les comités officiels et les collectivités, l’enseignement de la chimie, les centres d’information, les organismes syndicaux, les bureaux d’études et sociétés d’engineering, etc. La deuxième partie donne, dans une série de 50 tableaux synoptiques et des articles généraux, tous les renseignements nécessaires à la mise en œuvre d’un procédé ou à l’implantation d’une unité de fabrication. Un index renvoie le lecteur, pour chaque appareil ou chaque produit, à un tableau où il trouve le nom des firmes constructrices ou productrices. La troisième partie est une liste générale des producteurs. C’est la première fois, à notre connaissance, qu’est effectué un recensement aussi profond chez les constructeurs français et les importateurs étrangers. — R. R.
- Arboriculture ornementale, par P. Cuisance, professeur à l’Ecole nationale d’Horticulture. 1 vol. 13 X 19,5, 208 p., 62 fig., 8 planches hors-texte. Collection d’Bnseignement horticole. J.-B. Baillière et fils, Paris, 1961. Prix : 10 NF.
- Ce petit manuel, destiné aux élèves des écoles d’horticulture pourra aussi intéresser les amateurs, qui veulent aménager un parc ou un jardin.
- 230
- p.230 - vue 234/551
-
-
-
- Après quelques notions générales très élémentaires, on y étudie les principales espèces de conifères et d’arbres et arbustes d’alignement et d’ornement.
- Traité pratique de phonologie et de phoniatrie.
- L.a voix, la parole, le chant, par J. Tarneaud, ex-laryngologiste du Conservatoire national de Musique; avec la collaboration de S. Borel-Maisonny, chef du service de rééducation de la parole à l’Hôpital Saint-Vincent-de-Paul. ze édition. refondue, i vol. 15 X 24, 515 p., 115 fig. Maloine, Paris, 1961. Prix : 58 NF.
- Cet ouvrage, dont la ire édition fut couronnée par l’Académie de Médecine en 1941, veut avant tout, comme son titre l’indique, être un traité pratique. La parole et le chant y sont envisagés surtout sous l’angle de l’esthétique et de la pédagogie; deux chapitres traitent des maladies de la voix et de leur traitement, des troubles du langage et de leur correction. Cependant, comme l’auteur le note lui-même, la physiologie doit fournir la base de ces techniques. Or, l’auteur semble vouloir ignorer l’importance des travaux qui, depuis la première édition de son livre, ont presque entièrement élucidé les phénomènes qui sont en jeu dans l’émission de la voix (R. Husson et son école). Les registres et passages, notamment, qui ont été parfaitement définis et expliqués, ne sont ici que l’objet de définitions vagues et presque incompréhensibles. Pour la partie physiologique, ce livre est donc absolument dépassé. On ne saurait être certain qu’il n’en résulte pas des inconvénients d’ordre pratique. — P. O.
- Science and the future of mankind, édité par Hugo Boyco. World Academy of Art and Science. ivol.15,5 X 24,5, viii-3 80 p., 8fig. Dr. W. Junk Publishers, La Haye, 1961. Prix, relié toile : 35 guilders ou 9,50 dollars.
- Première publication d’une académie internationale fondée en i960 sous le patronage d’Einstein afin que des hommes de science délibèrent, « hors de toute restriction ou frontière
- politique, des problèmes vitaux de l’humanité, qu’ils soient spirituels ou physiques ». Après de beaux textes d’Einstein et d’Oppenheimer, une série d’études sur des problèmes touchant à l’avenir de l’humanité, traités dans un esprit souvent très aventureux, comme celles de S. W. Tromp sur les sciences marginales qui ouvrent de nouvelles voies de connaissance, ou de R.M. Field sur les ressources naturelles qui intègre productions matérielles, possibilités techniques et valeurs cultu-
- COLLECTION ARMAND COLIN
- Nouveautés :
- NEIGES ET GLACIERS
- J. CORBEL
- LES RAYONS COSMIQUES
- M. MORAND
- . 224 p. 5,70 NF
- rarssrîsri a . c o l IN C
- .vAvWWWWWWWV ^ “____as
- relies. Europeaus analyse l’aptitude des principales langues à véhiculer la pensée scientifique et classe le français en seconde position après- l’anglais, mais avant le russe et l’allemand. Pertinentes études de H.-J. Muller sur l’avenir de la génétique, de M.-J. Sirks sur le rapport des ressources à l’accroissement de la population, de P. Chouard sur de nouvelles techniques agronomiques, de T. Monod sur la vie dans les déserts. Une dizaine d’autres textes portent témoignage des préoccupations qui animent physiciens et philosophes sur l’avenir de l’humanité.
- La Corse, par Jean-Dominique Gublfi. i vol.
- 18 X 25, 152 p., 100 héliogravures. Coll.
- Visages du Monde. Horizons de France, Paris,
- 1961. Prix : 13,50 NF.
- Qui mieux que J.-D. Guelfi pouvait présenter cette Corse secrète dont un diplomate anglais du 17e siècle disait qu’ « elle était une énigme dont personne ne possédait la clef »? A travers les ravins et les criques, il nous révèle les travaux et les jours, les traditions, l’âme fière de son île natale. A une époque où le tourisme prend une ampleur considérable, souhaitons que ce volume, magnifiquement édité et aux splendides illustrations inédites, enrichisse le capital encore intact dans ce domaine que possède l’ile de Beauté.
- La France et ses animaux. Réserves, aquariums,
- Zoos, par Marguerite Jouve et Pauline Osusky.
- 1 vol. 10,5 X 18,5, 156 p., photos hors texte.
- Denoël, Paris, 1961. Prix : 5 NF.
- Excellente idée que d’avoir fait ce petit livre, qui est un guide en même temps qu’une série de reportages vite troussés sur tous les endroits où l’on peut voir en France des animaux intéressants. Il sera utile à de nombreux amateurs, mais aussi aux naturalistes. Un index permet même de situer l’oiseau rare (ou le batracien). Souhaitons que l’établissement prochain de Parcs nationaux et la faveur du public obligent les auteurs à nous donner une seconde édition...
- VIENT DE PARAITRE
- COURS
- DE
- ZOOPHYSIOLOGIE
- par B. RYBAK
- Faculté des Sciences de Caen
- Exposé critique et synthétique de la physiologie des Vertébrés fait sur la base des données les plus classiques et les plus récentes par le promoteur de la physiologie endocardiaque.
- Tome 1 -494 pages Tome 2 - sous presse. 45 NF
- GAUTHIER-VILLARS & CIE
- Éditeur Paris
- VIENT DE PARAITRE
- PARASITOLOGIE
- HUMAINE
- Exercices pratiques d’Histoire naturelle médicale
- par Dr D. JARRY
- Faculté de Médecine de Montpellier
- Dans une présentation originale, l’auteur traite chacun des sujets en trois points ;
- « Ce qu’il faut voir»
- « Ce qu’il ne faut pas compter voir»
- «Ce qu’il faut savoir». .
- 248 pages, 100 croquis, 8 planches en couleurs . . . 40 NF
- GAUTHIER-VILLARS & CIE
- Éditeur Paris
- 231
- p.231 - vue 235/551
-
-
-
- L’esthétique industrielle, par Denis Huisman et Georges Patrix. i vol. 11,5 x 17,5, 128 p., nombr. fig. Collection Que sais-je ? Presses universitaires de France, Paris, 1961. Prix : 2,50 NF.
- Voici déjà trois ou quatre décennies, Le Corbu-sier et quelques autres ont répandu l’idée qu’un bâtiment ou un objet bien adaptés à leur fonction atteignent par cela même à la beauté. Cette idée s’est depuis lors imposée dans les milieux industriels et l’on sera intéressé de voir, dans l’ouvrage de D. Huisman et G. Patrix, les développements
- théoriques auxquels elle a donné naissance et les modes pratiques de son application.
- Du zinc au jet. Histoire de l’aviation moderne,
- par J. Hallewas. Traduit du néerlandais par André M. Hendrickx. i vol. 11,5 X 18, 176 p., ill. Editions Séquoia, Paris, 1961. Prix : 3 NF,
- Ce petit ouvrage est destiné à un public peu au courant des techniques de l’aviation, et plus particulièrement à la jeunesse. Il retrace d’une manière claire et imagée les différentes étapes qui
- ont conduit aux avions à hautes performances que nous avons l’habitude de voir. Toutefois, seuls les aspects relatifs au transport aérien sont envisagés, depuis l’aménagement intérieur des avions jusqu’aux problèmes de navigation.
- La technique aéronautique en 1961. Numéro spécial de La Technique moderne, juillet 1961, 24 X 32, 80 p. de texte, ill. Dunod, Paris. Prix : 12 NF.
- Ce numéro, rédigé entièrement par des ingénieurs, présente les principaux problèmes qui se posent actuellement à l’industrie aéronautique : décollage vertical, avion de transport supersonique, fusées, etc. En dehors des techniciens, il intéressera tous ceux qui désirent faire le point précis dans un domaine aussi évolutif que l’aéronautique.
- Au pays des Gotilles, par Walter Baumgartel. Préface de R.A. Dart, professeur à l’Université de Johannesburg. Traduit de l’allemand par Jacques Legray. i vol. 14 X 22,5, 240 p. Payot, Paris, 1961. Prix: n NF.
- Fuyant la civilisation destructrice de la nature, un homme s’est fixé dans l’Ouganda et y a fondé un hôtel, avec mille difficultés qu’il conte d’ur.e plume alerte. A proximité existaient des gorilles, que les règlements protègent, avec plus ou moins d’efficacité. Notre homme s’est passionné pour eux et s’est fait leur défenseur, non pas en cherchant à en éloigner les curieux, mais au contraire en encourageant les visiteurs à nouer avec eux des relations paisibles. Nombre de personnages pittoresques sont attirés par l’aventure et, chemin faisant, on apprend pas mal de choses sur ces animaux encore mystérieux qui sont au centre du récit.
- Les genres de chasses, par André Chaigneau, ex-professeur à l’Ecole des Gardes de Cadarache. Nouvelle édition entièrement refondue. 1 vol. 14 X 22,5, 416 p., 83 dessins. Payot, Paris, 1961. Prix : 27 NF.
- Outre tous les chasseurs, cette revue très complète des façons de poursuivre et tuer les animaux sauvages intéressera peut-être l’ethnographe ? L’ami de la nature sera plus réticent, car à une époque où l’utilité des équilibres naturels a enfin été reconnue, la destruction pure et simple des rapaces semble encore préconisée ici comme allant de soi par tous moyens. Une ze partie de 130 pages intitulée « les chasses rustiques et la survie » représente une savante leçon de braconnage, qu’on est prié toutefois de ne mettre à profit que dans le cas (tout peut arriver) où l’on est perdu dans la nature et réduit à la famine.
- Démons, drogues et docteurs, par Howard W. Haggard. Traduit et adapté de l’américain par Bernard Heuvelmans. i vol. 14 X 22, 416 p., 27 ill. in texte, 28 planches hors-texte. Collection D’un monde à T autre. Plon, Paris, 1961. Prix, cart. sous jaquette illustrée : 16,95 NF.
- Ce livre, fort documenté, trace une histoire animée et pittoresque des soins de toute nature prodigués aux patients aussi bien par les magiciens et les guérisseurs que par les médecins authentiques. Monument assez étonnant où la superstition, la crédulité, l’imposture et la sottise sont mises en regard des bienfaits apportés par les pionniers de la science médicale.
- Sï
- s
- O
- %
- lu
- 03
- 0.
- PRISMALO
- LE CRAYON AQUARELLE
- oici le crayon de couleur idéal pour
- L’ÉCRITURE, LE DESSIN, LA DÉCORATION
- PRISMALO
- Riche en coloris, donne un TRAIT ONCTUEUX pour l'écriture et le dessin.
- PRISMALO
- SOLUBLE à l'eau, permet la PEINTURE A L'AQUARELLE.
- Le mélange des couleurs est facile.
- Sa mine résistante fait du PRISMALO le crayon idéal pour les Écoliers -
- TRÈS ÉCONOMIQUE.
- N:
- CHEZ VOTRE PAPETIER
- gf DISTRIBUÉ par CORECTOR-ADHÉSINE
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Le Gérant : F. Dunod. — DUNOD, Éditeur, Paris. — Dépôt légal: 2e trimestre 1962, N° 3957. — Imprimé en France. Imprimerie Bayeusaine, 6-8, rue Royale, Bayeux (Calvados), N° 3173. — 5-1962.
- p.232 - vue 236/551
-
-
-
- L’hérédité
- non chromosomique
- va' par Ph. L'Héritier
- SS SJ
- V\v tpfc
- Jusqu’à ces toutes dernières années, l’hérédité non chromosomique est restée un sujet que la plupart des généticiens ne consentaient à aborder qu’avec beaucoup de réticences. Cette attitude, que les biologistes d’autres spécialités leur ont occasionnellement reprochée, s’est en fin de compte révélée scientifiquement payante. A vouloir tout expliquer d’un seul coup, à la manière des naturalistes philosophes des débuts de l’ère scientifique, on risquait fort de ne jamais effectuer de progrès réels dans la connaissance des mécanismes mis en jeu dans les systèmes vivants.
- La méthode expérimentale inaugurée, il y a un siècle et demi, par Gregor Mendel a abouti, par étapes successives, à une compréhension de plus en plus approfondie de la nature, du mode d’activité et du rôle, dans la cellule, de ce que l’on appelle les gènes. Et c’est maintenant parce que les généticiens savent tout de même beaucoup de choses sur les gènes qu’ils peuvent, de manière plus efficace, aborder tant l’analyse expérimentale que l’interprétation théorique des faits héréditaires non orthodoxes, de ceux qui ne tombent pas dans le cadre de la théorie chromosomique.
- Les problèmes posés par l’existence d’une hérédité non chromosomique se sont donc quelque peu clarifiés durant ces dernières années. En même temps, d’ailleurs, les biologistes ont compris qu’ils occupaient dans la Biologie une position beaucoup plus centrale et fondamentale qu’il n’avait pu paraître tout d’abord. Les cas d’hérédité non chromosomique restent relativement rares et exceptionnels et cependant leur interprétation s’enracine profondément dans un problème central de la Biologie, celui des relations entre les deux éléments permanents de la cellule vivante : le noyau avec ses chromosomes d’une part, le cytoplasme de l’autre.
- Définir ce que l’on appelle l’hérédité non chromosomique suppose tout d’abord que soit à la fois précisée et élargie la notion d’hérédité elle-même. Comme tous les concepts scientifiques, elle dérive de l’expérience courante et, pour celle-ci, le terme hérédité se réfère à la transmission des caractéristiques individuelles à travers la reproduction sexuée des organismes supérieurs. Comme chacun sait, c’est à partir de l’analyse expérimentale précise de ce même phénomène que s’est développée la Génétique. La liaison qui semble ainsi s’établir entre hérédité et reproduction sexuée n’est cependant pas réellement logique. Le phénomène héréditaire fondamental n’a pas de rapport direct avec la reproduction sexuée ; il consiste en la reproduction conforme dont toute cellule vivante possède le pouvoir, tout au moins tant qu’elle n’a pas subi certains types
- extrêmes de différenciation. La reproduction de beaucoup d’organismes simples, par exemple les Algues unicellu-laires appelées Chlorelles, ou encore certaines Bactéries, ne fait intervenir que ce processus simple et on le retrouve inchangé avec les cellules des organismes supérieurs, par exemple dans une culture de tissus. Il est hors de doute que la reproduction cellulaire conforme (hérédité cellulaire) est le phénomène de base, dont tous les autres aspects de la reproduction des organismes peuvent être considérés comme des complications surajoutées. Sans lui, la vie n’existerait pas, alors qu’on peut très bien imaginer un univers vivant dont seraient bannies les complications, c’est-à-dire essentiellement la reproduction sexuée et la différenciation cellulaire aboutissant à l’édification d’organismes complexes comme nous-mêmes. Lorsque nous contemplons un bac de culture où se multiplient des Chlorelles, nous sommes devant semblable univers.
- Au point de vue méthodologique, l’intervention des « complications » et, au premier chef, celle de la reproduction sexuée, entraînant la recombinaison génétique, a été fort utile, puisque c’est grâce à elle qu’a pu être reconnu un des processus essentiels intervenant dans la reproduction cellulaire conforme. Il s’agit de l’autoreproduction du matériel génétique chromosomique. Dans l’intervalle entre deux reproductions cellulaires, chaque gène va donner naissance à deux structures identiques à lui-même. Il est capable, d’autre part, d’opérer la synthèse d’un type moléculaire spécifique, d’une molécule enzymatique par exemple, ceci réalisant un transfert de l’information contenue dans la structure génique elle-même sur la macromolécule protéique. Chaque cellule possède donc une sorte de bibliothèque génétique comportant en quelque sorte les plans de la multitude des enzymes spécifiques nécessaires aux opérations de son métabolisme. L’aptitude de cette bibliothèque à ddutocopier et le mécanisme assurant la répartition régulière des copies entre les cellules filles sont alors les facteurs essentiels de la reproduction conforme, de l’hérédité cellulaire.
- Cependant, ni l’une ni l’autre des deux activités des gènes chromosomiques ne peut s’exercer hors du contexte cellulaire. L’une comme l’autre requiert la présence de précurseurs chimiques à petite ou moyenne molécule, ainsi qu’un apport d’énergie sous une forme adéquate, et tout cela vient normalement du cytoplasme. Au cours de la division cellulaire, la continuité du cytoplasme est assurée tout aussi strictement que celle du noyau et un noyau dépourvu de cytoplasme ne reconstitue en aucune manière celui-ci; il meurt, c’est-à-dire perd irréversiblement sa structure fonctionnelle. La nécessité absolue de la pré-
- 233
- p.233 - vue 237/551
-
-
-
- sence, autour du noyau, d’une certaine quantité de cytoplasme, avec ses structures caractéristiques et son équipement enzymatique, n’implique toutefois pas nécessairement l’existence d’une hérédité autre que chromosomique. Hérédité suppose variation et il se pourrait, a priori, que dans les systèmes vivants aucune différence ne puisse se maintenir stable à travers les multiplications cellulaires à un autre niveau que celui des gènes chromosomiques. Les rapports du cytoplasme et du noyau pourraient alors en quelque sorte être comparés à ceux d’une moto-pompe et de l’eau avec laquelle il est nécessaire de l’amorcer. Le fonctionnement du système requiert la continuité de l’eau; cependant, aucune de ses caractéristiques durables, débit ou pression, ne dépend de la qualité de l’eau d’amorçage, ni des circonstances dans lesquelles elle a été fournie.
- Il est maintenant hors de doute que cette position extrême ne peut être retenue. Bien entendu, l’immense majorité des différences héréditaires entre les organismes relève de l’hérédité chromosomique classique, mais il y a des exceptions, au total fort nombreuses. Elles démontrent l’existence, au moins à titre occasionnel, d’un type d’hérédité distinct de celui qui est basé sur l’autorepro-duction des gènes chromosomiques. On désigne le plus souvent ces faits en parlant d’ hérédité cytoplasmique ; la distinction entre les mécanismes mis en jeu n’étant pas nécessairement de nature spatiale, il est sans doute préférable d’employer le terme hérédité non chromosomique ou non génique.
- Les exemples connus d’une semblable hérédité ont été rencontrés un peu chez tous les organismes ; plus répandus dans le règne végétal que dans le règne animal, ils paraissent l’être encore davantage dans les microorganismes. La preuve que la transmission d’un caractère héréditaire n’est pas liée aux chromosomes peut être administrée de diverses façons selon les matériels. La situation la plus classique correspond à ce que l’on appelle Yhérêdité maternelle. Un parent maternel A transmet à tous ses descendants un certain caractère, et ceci se répète génération après génération, malgré l’intervention à chaque nouveau croisement d’un parent paternel non porteur du caractère. Si le caractère observé était sous la dépendance d’un gène chromosomique, il ne se retrouverait en effet que dans une certaine proportion des descendants.
- Les cas d’hérédité non chromosomique formant au total un ensemble complexe et assez disparate, il est commode, avant de passer en revue les plus représentatifs d’entre eux, de discuter quelque peu des hypothèses qui ont été proposées pour leur interprétation.
- L’hypothèse des plasmagènes
- La première et la plus classique, dans la mesure où le terme peut être employé dans ce domaine, consiste à transporter dans le cytoplasme ce que l’on sait exister dans le noyau. Dans le cytoplasme existeraient donc des structures capables, comme les gènes, d’autoreproduction par copie, aptes à subir des mutations et capables d’orienter dans une direction spécifique l’activité métabolique. Ces plasmagènes ne différeraient en somme des gènes chromo-
- somiques que par leur localisation spatiale et par l’absence d’un mécanisme précis assurant leur répartition symétrique au moment des divisions cellulaires. On peut imaginer que chaque type de plasmagène existe dans la cellule sous forme d’un nombre relativement grand de particules distinctes. Une simple répartition au hasard de cette population entre les deux cellules filles, couplée avec une synchronisation au moins approximative des divisions, peut suffire à assurer leur continuité.
- On sait qu’au niveau des chromosomes, le matériel génétique (génotype) peut se modifier de deux manières : par perte d’un gène ou par modification d’un gène (mutation). De même, pour les plasmagènes, on pourrait imaginer deux types de différences héréditaires : par perte ou par mutation de ces particules. Les déterminants étant indépendants des chromosomes, la transmission des caractères ne suivra évidemment pas les lois de Mendel. Etant donné que dans la reproduction sexuée, le cytoplasme avec ses hypothétiques plasmagènes est, le plus souvent, apporté uniquement ou presque uniquement par le gamète femelle (la cellule sexuelle mâle étant à peu près réduite à son noyau), l’hérédité suivra la lignée maternelle.
- Quant à la localisation cytologique précise des plasmagènes, les candidats ne manquent pas et on peut penser aux différents organites que contient le cytoplasme : mitochondries, ribosomes, etc., et plastes pour les végétaux (fig. i). Pour certains d’entre eux, les cytologistes ont décrit des figures de division et il est classique par exemple de considérer que les chloroplastes (plastes à chlorophylle des végétaux verts), au moins sous la forme de leurs précurseurs dans les cellules juvéniles, les proplastes, présentent une continuité cytologique. Ceci signifie qu’ils n’apparaissent pas de novo dans le cytoplasme, mais résultent toujours de la division apparente d’un autre proplaste. En fait, la continuité cytologique d’un organite cellulaire est sans doute nécessaire pour qu’il puisse prétendre à la dignité de plasmagène, mais elle ne constitue en aucune
- noyau
- nucléole
- chromosomes (A D N)
- ch/oroplaste
- mitochondries
- Fig. I. — Schéma d’une cellule et de ses principaux organites.
- Les plastes, où s’accumulent des produits de réserve comme l’amidon, et les chloroplastes (plastes à chlorophylle où s’accomplit la photosynthèse) n’existent que dans les cellules végétales. Les mitochondries jouent un rôle essentiel dans la respiration de la cellule. L’acide ribonucléique (ARN), synthétisé dans le noyau sous l’influence de l’acide désoxyribonucléique (ADN) qui constitue les gènes des chromosomes, se localise dans les ribosomes, où il gouverne à son tour la synthèse des protéines et, notamment, des enzymes. Les « plasmagènes » ont été considérés comme pouvant être localisés, en certains cas, dans les mitochondries ou dans les ribosomes. Explications dans le texte.
- 234
- p.234 - vue 238/551
-
-
-
- manière une évidence suffisante qu’il en soit bien ainsi. On peut très bien imaginer que la présence d’une structure préexistante joue simplement le rôle d’une amorce indispensable pour que se construise à son voisinage, à partir de précurseurs macromoléculaires synthétisés ailleurs, une structure semblable. Il y aura bien dans ce cas continuité cytologique de l’organite et cependant le processus mis en œuvre n’est qu’une caricature simplifiée à l’extrême de l’autoreproduction des gènes chromosomiques. La différence essentielle est qu’il n’y a pas reproduction d’une information complexe, la seule variation possible étant l’absence ou la présence de l’amorce.
- Le terme de plasmagène est d’un emploi commode, lorsqu’il s’agit de discuter des mécanismes possibles d’hérédité non chromosomique. Il reste cependant dangereux, dans la mesure où donner un nom à une entité hypothétique risque, par une sorte d’opération magique, de lui conférer l’existence. Il importe donc de bien souligner que dans aucun cas d’hérédité non chromosomique la réalité de l’intervention de plasmagènes n’a pu être démontrée de manière indiscutable.
- Les mécanismes du type « équilibres de flux »
- Durant ces dernières années, des explications d’une toute autre nature ont été proposées pour l’hérédité non chromosomique. Sous des formes diverses, elles reviennent à considérer que les différences qui s’héritent indépendamment des chromosomes se situent au niveau des mécanismes de régulation et de coordination de l’activité des gènes chromosomiques. Il est bien évident que de tels mécanismes existent et jouent un rôle fondamental dans la vie cellulaire. Les gènes permettent la synthèse de substances spécifiques, mais le métabolisme cellulaire ne peut consister en la simple juxtaposition de cette multitude de synthèses. Les rythmes avec lesquels chacune d’elles procède dans chaque circonstance doivent être contrôlés et coordonnés de quelque manière. A la suite notamment des remarquables recherches conduites par des microbiologistes français sur l’adaptation enzymatique chez les Bactéries, ces mécanismes de contrôle du métabolisme cellulaire commencent à être compris.
- On peut alors imaginer que, dans certaines circonstances, puissent exister, en présence du même équipement génétique, plusieurs régimes stables pour l’activité cellulaire. Chacun d’eux, une fois établi, pourra se perpétuer par hérédité cellulaire (non sexuée) et donner lieu éventuellement à une hérédité maternelle dans la reproduction sexuée. Le terme « équilibres de flux » est généralement utilisé pour désigner ces régimes; il souligne le fait qu’il s’agit d’équilibres dynamiques, d’équilibre dans un système en perpétuelle transformation chimique.
- La notion d’équilibre de flux était connue depuis longtemps dans les systèmes physico-chimiques; son application aux systèmes biologiques a été proposée pour la première fois par Delbrück en 1948. Le modèle schématique imaginé par cet auteur est donné par la figure 2. Une certaine cellule est supposée posséder dans son matériel génétique 4 gènes : al5 a2, (3*, (32 responsables respectivement de la synthèse des enzymes Ax, Aa, Bf et B2. La cellule peut utiliser deux métabolites ax et bt normalement
- fournis par le milieu extérieur. Sous l’action des enzymes Ax et A2, ax donne lieu à la chaîne de réaction ax -> az -> a3, az étant un métabolite intermédiaire et az étant soit un métabolite intermédiaire, soit un déchet. De la même manière, les deux autres enzymes Bx et B2 permettent la chaîne bx -> bz -> b3. Supposons maintenant que az soit un inhibiteur spécifique de l’enzyme Bx et que la même relation vaille pour bz et Ax. En présence du substrat double ax -j- bx, la cellule ne pourra en aucun cas utiliser simultanément les deux substances; elle utilisera soit l’une, soit l’autre, selon celle des deux chaînes de réaction qui aura accidentellement bénéficié d’une priorité. Il y aura donc deux alternatives possibles, s’excluant l’une l’autre, qui pourront être stables et héréditaires.
- ----Noyau
- Fig. 2. — Schéma de l’équilibre de flux de Delbrück. Explications dans le texte.
- D’autres hypothèses ont été proposées, qui conduisent, comme dans le modèle de Delbrück, à imaginer la possibilité de deux équilibres dynamiques distincts dans un système biologique. Mais, au lieu de faire intervenir l’inhibition des activités enzymatiques par certaines substances, elles font jouer le rôle principal à ce que l’on appelle les rêpresseurs. On désigne sous ce nom des substances capables d’arrêter non plus l’activité des molécules enzymatiques, mais plus ou moins directement celle des gènes eux-mêmes. En présence de son répresseur spécifique, le gène responsable de la synthèse d’un certain groupement enzymatique ne pourra plus fonctionner et ceci entraînera la diminution et éventuellement la disparition de l’enzyme dans le cytoplasme.
- La possibilité d’expliquer certains faits héréditaires par l’existence de semblables équilibres dynamiques a séduit beaucoup de biologistes; d’autres ont fait aux modèles proposés des objections, dont il faut reconnaître la valeur. Une des plus graves est que les états alternatifs envisagés devraient de toutes façons n’être que métastables, c’est-à-dire que le passage de l’un à l’autre devrait être facile. Dans le modèle de Delbrück, notamment, s’il est possible de supprimer du substrat à la fois ax et bu la cellule doit retourner à un état indifférencié et ne plus conserver de souvenir de ses états antérieurs. Or, dans beaucoup de cas observés d’hérédité non chromosomique, les états héréditaires sont le plus souvent fort stables : le passage de l’un à l’autre est difficile et même, souvent impossible dans l’un des sens.
- 235
- p.235 - vue 239/551
-
-
-
- L’hypothèse des germes ou amorces
- Dans un grand nombre de systèmes physiques, un certain événement peut ne se déclencher qu’en présence d’un germe de nature appropriée. Tel est le cas par exemple de la formation des gouttes de pluie qui prennent naissance autour d’un cristal microscopique de glace ou de sel. Il n’est pas exclu que de semblables phénomènes se produisent dans les systèmes biologiques. Comme signalé plus haut, la continuité cytologique de certains organites cellulaires peut avoir cette signification. La perte du germe, dans ce cas la perte de l’organite, peut avoir alors un caractère irréversible.
- Dans une expérience classique due à André Lwoff, des Euglènes (*) sont cultivés à l’obscurité. Le nombre de chloroplastes diminue progressivement et éventuellement apparaissent des individus qui en sont dépourvus. Bien que la survie des clones (2) sans chlorophylle soit précaire (même si on fournit à ces Euglènes les substances carbonées qu’elles ne synthétisent plus), il semble bien que la perte des chloroplastes ne puisse être réparée et soit héréditaire.
- L’hypothèse « équilibre de flux » et l’hypothèse « amorces » paraissent à première vue assez dissemblables. Elles se rapprochent cependant sur un point très important. Les différences héréditaires qu’elles cherchent à expliquer sont considérées comme intervenant au niveau de l’activité des gènes chromosomiques. Elles peuvent alors s’insérer dans une perspective plus générale qui peut se schématiser ainsi. La multiplication d’un système aussi hautement structuré qu’une cellule vivante exige que soit reproduite à chaque division une information extrêmement complexe. La quasi-totalité de cette information est inscrite dans la structure des gènes chromosomiques. C’est de celle-ci que va dépendre directement la constitution précise des macromolécules du cytoplasme, qui ne sont pas autoreproductibles et doivent être constamment renouvelées. Au niveau de la structure des gènes, niveau qui est celui de l’hérédité chromosomique, les possibilités de variation sont énormes et elles sont à la base de la diversité actuelle et historique des organismes vivants. Mais un résidu d’information se situe à un autre niveau, celui de Y activité des gènes, dont les modalités pourraient s’établir selon un nombre limité d’états d’équilibres statiques ou dynamiques. Ce serait à ce second niveau, qu’il est commode de qualifier d’épigénétique, que se situerait l’hérédité non chromosomique. Celle-ci ferait donc intervenir des mécanismes bien distincts de ceux qui assurent la reproduction de l’information génétique proprement dite.
- Il importe de noter que dans cette perspective, la distinction entre les deux types d’hérédité n’est plus nécessairement de nature spatiale. Des mécanismes épigénétiques peuvent en effet être imaginés aussi bien dans le noyau que dans le cytoplasme. Dans l’hypothèse « plasmagènes » au contraire, les deux types d’hérédité reposent sur le même mécanisme fondamental, l’autoreproduction de
- 1. Les Euglènes sont des organismes unicellulaires Flagellés, normalement chlorophylliens, qui se reproduisent par bipartition. La chlorophylle s’y trouve concentrée, comme chez les plantes vertes, dans des organites du cytoplasme, les chloroplastes.
- 2. On désigne par le mot doue l’ensemble des cellules nées par divisions successives d’une cellule initiale unique.
- 236
- structures porteuses d’une information complexe, et la distinction ne porte que sur la localisation topographique du déterminant : les gènes sont dans les chromosomes, les plasmagènes seraient dans le cytoplasme.
- Quelques faits représentatifs
- Les faits d’hérédité non chromosomique sont fort nombreux, presque toujours très complexes, et dans une brève revue d’information générale aucun d’entre eux ne peut être décrit en détails. Tout ce qui peut être tenté ici est de donner un aperçu rapide de quelques faits particulièrement représentatifs, en faisant ressortir les incertitudes rencontrées à chaque fois dans leur interprétation.
- Fig. 3. — Exemple d’un caractère soumis à l’hérédité non chromosomique.
- Ce Laurier-des-bois (Daphné ’Laureola) trouvé aux environs de Paris présente une panachure typique : les tissus nés de cellules initiales dénuées de chloroplastes y forment des taches blanches. En haut de la plante, on voit les bouquets de fleurs qui, à gauche, sont normalement verdâtres, et à droite sont décolorées. Explications dans le texte et dans la figure 4.
- (Photo Lutetia).
- p.236 - vue 240/551
-
-
-
- Les déficiences chlorophylliennes non chromosomiques chez les plantes vertes et chez certains Flagellés (Euglènes). — Il s’agit là, de phénomènes connus depuis longtemps, qui ont fait l’objet d’un nombre considérable de travaux de recherches, tant relativement anciens que tout récents. Ces recherches sont dues en partie à des généticiens allemands, dont notamment von Wettstein et Michaëlis.
- Le phénomène de base est la panachure non mendélienne des plantes supérieures (fig. 3). On parle de panachure lorsqu’une plante se présente comme une mosaïque de zones dans lesquelles la chlorophylle est normalement développée et de zones où elle est absente. Des individus panachés de ce type se rencontrent spontanément dans de nombreuses espèces et sont souvent utilisés comme plantes ornementales. D’autre part, on sait actuellement déclencher artificiellement le phénomène, en traitant des plantules par de nombreux agents, dont le plus efficace est l’antibiotique streptomycine. Cette même drogue, appliquée à des Euglènes chlorophylliens, conduit à des clones ayant perdu génétiquement l’aptitude à synthétiser la chlorophylle.
- La transmission héréditaire du caractère est de type exclusivement maternel. Quelle que soit l’origine du pollen, les graines formées dans des secteurs non chlorophylliens donnent naissance à des plantules décolorées, incapables de se développer. Celles qui sont recueillies dans les secteurs verts fournissent au contraire des plantules vertes normales et on obtient à nouveau le développement de plantes panachées, lorsque l’on part de graines formées à la limite de deux secteurs (fig. 4).
- Dans les cellules des plantes supérieures, la chlorophylle est accumulée dans des organites cellulaires spéciaux, appelés chloroplastes. Ceux-ci ne se divisent pas quand ils ont atteint leur structure définitive, mais ils dérivent de précurseurs cytologiques plus petits, les proplastes, que l’on rencontre dans les tissus en croissance et qui paraissent se multiplier et être doués de continuité cytologique. L’interprétation classique de la panachure non mendélienne consiste alors à attribuer aux proplastes la qualité de plas-magènes. Ceux-ci pourraient muter vers un type génétiquement incapable de synthétiser la chlorophylle. A l’origine d’une plante panachée, l’oosphère (cellule femelle initiale) renfermerait dans son cytoplasme un mélange des deux types de proplastes : le type normal et le type déficient. En raison de la répartition fortuite de la population de proplastes à chaque division cellulaire, cet état mixte est instable et dérive vers l’un ou l’autre des deux états purs au cours du développement de la plante. Le cytoplasme, donc les proplastes de l’œuf initial, venant uniquement ou presque uniquement de l’oosphère, il est normal que dans la reproduction sexuée s’observe une hérédité purement maternelle.
- Cette interprétation classique des déficiences chlorophylliennes non chromosomiques reste admise par beaucoup de biologistes. La mise en évidence récente dans la constitution des plastes d’une petite quantité d’acide ribonu-cléique tend à rendre plus vraisemblable leur qualité de plasmagènes. Dans l’état actuel des connaissances sur la biochimie cellulaire en effet, un mécanisme d’autoreproduction du type de celui des gènes chromosomiques paraît lié à la présence de l’un ou de l’autre des deux acides nucléiques (ribonucléique et désoxyribonucléique, ce der-
- Plantule albinos P!an tu le verte
- Plantule panachée
- Fig. 4. — Schéma de la panachure non mendélienne et de sa transmission maternelle.
- Des lignées de cellules normales ont donné naissance aux parties vertes de la plante (ici en hachures) et des lignées de cellules sans chloroplastes ont fourni les parties blanches. Les fleurs issues de tissus blancs donneront des plantules albinos, incapables de se développer. Au centre, des fleurs situées à la limite des deux secteurs pourront donner des plantules panachées qui perpétueront le phénomène. La panachure n’est héritée que par la voie maternelle, car seules les cellules sexuelles femelles apportent à l’œuf son cytoplasme qui contient les proplastes (précurseurs des chloroplastes). Les cellules sexuelles mâles n’interviennent dans la fécondation que par leur noyau et il n’importe donc aucunement pour leur descendance qu’elles soient issues de cellules dont le cytoplasme contienne ou ne contienne pas de chloroplastes.
- nier étant le constituant fondamental des gènes chromosomiques).
- Et cependant, dans le détail des faits, des difficultés subsistent. C’est ainsi qu’une des conséquences du mécanisme admis pour la formation des plantes panachées est que, dans beaucoup de leurs cellules, devraient se rencontrer côte à côte des plastes verts ayant évolué à partir des proplastes normaux et des plastes décolorés issus des proplastes déficients. Or, ces cellules mixtes se rencontrent bien effectivement dans certains types de panachures, mais dans d’autres elles n’existent pas et la population de plastes d’une cellule y est toujours uniforme. Dans l’un comme dans l’autre cas cependant, il s’agit bien toujours d’une hérédité purement maternelle. L’interprétation par des plasma-gènes oblige à considérer que dans le premier cas, les plasmagènes responsables sont liés aux plastes et que, dans l’autre, ils sont indépendants de ces organites cytologiques et sont localisés ailleurs dans le cytoplasme. Le foisonnement d’entités hypothétiques auquel on est ainsi conduit ne laisse pas d’être quelque peu inquiétant et on peut se demander si l’ensemble des faits ne serait pas couvert de manière plus satisfaisante en supposant l’intervention, non plus de plasmagènes, mais de mécanismes épigénétiques du type équilibre de flux. Le développement des recherches sur le problème des panachures non mendéliennes est actuellement rendu plus facile, d’une part par la découverte de l’action inductrice de substances comme la strepto-
- 237
- p.237 - vue 241/551
-
-
-
- Fig. y. —Asques et spores du Champignon Ascomycète Podospora anserina.
- Les spores du champignon, opaques à maturité, naissent au nombre de quatre dans des cellules allongées (asques). Dans cette espèce, le noyau de la spore se divise précocement, ébauchant ainsi la germination, et chaque spore âgée contient deux noyaux. Dans l’asque que l’on voit au milieu de la figure, cette division a été si précoce que l’une des spores est remplacée par deux spores, plus petites, à un seul noyau. On voit aussi des asques où les spores en voie de formation à divers stades sont encore transparentes. Grossissement : 190.
- Photo Rizet et Beisson-Schecroun, Laboratoire de Génétique
- formelle du C.N.R.S.).
- Fig. 6. — Mycélium de Podospora anserina.
- On voit de nombreuses anastomoses entre les filaments mycéliens. Grossissement : 380.
- {Photo Rizet et Beisson-Schecroun).
- mycine, d’autre part par F utilisation d’organismes unicel-lulaires plus faciles à manier que les plantes supérieures. On peut donc espérer y voir bientôt plus clair.
- Les mutants contagieux des Champignons inférieurs.
- — L’exemple qui va être décrit avec quelques détails est relatif aux « barrages » de l’Ascomycète Podospora anserina (fig. 5), étudié par G. Rizet et ses collaborateurs. Il peut
- être considéré comme représentatif d’un type de phénomène qui paraît être répandu dans ce groupe d’organismes. Chez cette espèce, deux variants distincts ont été rencontrés dans la nature. La différence entre eux n’est pas de nature morphologique, mais s’observe lorsque les mycéliums des deux types sont amenés à se développer sur un même milieu. Dans les zones d’affrontement il s’établit des anastomoses entre les mycéliums (fig. 6) et celles-ci déclenchent une sorte de réaction d’incompatibilité entraînant la mort des filaments sur une certaine longueur. Il se forme alors entre les deux tapis mycéliens une sorte de no man’s land, que l’on désigne sous le nom de barrage (fig. 7). Au point de vue génétique, la différence repose sur un seul couple de gènes allèles S et s (3).
- La formation d’un barrage n’empêche pas le croisement sexué entre les mycéliums. Dans les asques, les quatre spores issues de la méïose peuvent être recueillies et cultivées séparément. On observe alors qu’il s’est bien produit une ségrégation régulière, deux des spores étant, comme prévu, du type S. Les deux autres portent bien le gène s, mais le phénotype (4) des mycéliums est d’un type nouveau; il ne donne plus de barrage lors des confrontations avec S. Ce type, dit ss, correspond en fait à un second état cytoplasmique, capable en présence du gène s de se maintenir par hérédité cellulaire et hérédité maternelle. rs cependant n’est que métastable. Au cours de la croissance des mycéliums, il se produit avec une fréquence notable des réversions spontanées vers l’état s. Un phénomène remarquable est alors le caractère contagieux et envahissant de cette transformation. Lorsqu’elle se produit en un point d’un tapis mycélien en croissance, cette zone devient le point de départ d’une véritable infection et la transformation s vers ss gagne rapidement de proche en proche les régions voisines (fig. 8).
- Le caractère infectieux de l’un des deux états possibles pourrait s’expliquer en admettant l’intervention d’une particule autoreproductible, d’une sorte de plasmagène, susceptible de se multiplier plus vite que le cytoplasme ambiant. Dans l’état xs, ce plasmagène serait perdu. Il se reformerait spontanément lors des réversions accidentelles js vers s, et manifesterait alors son pouvoir envahissant. La réapparition de l’hypothétique plasmagène reste, bien entendu, un phénomène assez mystérieux et on peut se demander, dans ce cas aussi, si le jeu d’équilibres dyna-
- 3. Rappelons quel est le cycle normal des Champignons Ascomycètes. Comme dans toute reproduction sexuée, il comporte l’alternance de deux phases. Dans la première, dite haploïde, les noyaux ne contiennent qu’un jeu unique de chromosomes, c’est-à-dire un seul chromosome de chaque sorte. C’est sous cette phase que se produit la croissance du mycélium, qui est un enchevêtrement complexe de filaments contenant de nombreux noyaux haploïdes. Lorsqu’on rapproche deux mycéliums de constitution génétique appropriée (types conjugaux différents), il se produit une fécondation réciproque donnant naissance à des cellules, dites dicaryotiques, qui contiennent côte à côte z noyaux haploïdes issus de chacun des deux mycéliums. Plus tard, dans ces cellules dicaryotiques se réalisera la fusion des 2 noyaux haploïdes et ceci donnera naissance à la 2e phase, dans laquelle le noyau comporte 2 jeux de chromosomes (phase diploïde). La méiose (ou division réductrice) intervient immédiatement après cette fusion; comme chez tous les êtres sexués, cette division d’une nature spéciale sépare les chromosomes homologues et réalise la ségrégation mendélienne classique. Les 4 produits de la méiose se retrouvent sous forme de 4 spores haploïdes qui donneront naissance à des mycéliums haploïdes. Lorsque les deux mycéliums parentaux diffèrent par un de leurs gènes (couple de gènes dits allèles, situés au même locus dans les deux chromosomes homologues), 2 des nouvelles spores contiennent l’un des allèles, les 2 autres contiennent le second.
- 4. Rappelons qu’on appelle génotype l’ensemble des gènes d’un individu, et phénotype l’ensemble de ses caractères anatomiques et physiologiques. La réalisation du phénotype est naturellement sous la dépendance du génotype, mais aussi des facteurs extérieurs.
- 238
- p.238 - vue 242/551
-
-
-
- Fig. 7. — Confrontation de mycéliums, avec barrages.
- Cinq mycéliums de Po-dospora anserina, issus de cinq spores isolées, se sont développés dans cette culture. La souche centrale fait v barrage» avec les deux mycéliums inférieurs : dans ces deux zones un large espace blanc témoigne de la mort des filaments mycéliens qui se sont rencontrés. Au contraire, le contact est normal avec les deux souches supérieures. Le long de certaines de ces confrontations, on observe de petits points noirs; ce sont des périthèces, c’est-à-dire des organes où se forment les asques contenant les spores. On notera que la formation d’un barrage n’empêche pas le croisement entre les mycéliums qui aboutit à la formation des périthèces.
- CPhoto Rizet et Beisson-Schecroun).
- miques du type de ceux décrits plus haut ne permettrait pas d’aboutir à une interprétation plus satisfaisante des faits.
- Les déficiences respiratoires non chromosomiques chez la Levure. — Dans toute population de Levure suffisamment nombreuse se rencontrent, en proportion notable, des cellules qui sont génétiquement des déficientes respiratoires. Ceci signifie que, même en présence d’oxygène, elles vivent de manière anaérobie et tirent l’énergie nécessaire à leurs synthèses des réactions de fermentation. Isolées sur un milieu nutritif solide, ces cellules donnent naissance à des colonies de petite taille, d’où le terme de mutants « petite colonie » sous lequel elles sont généralement désignées. Ces mutants ont fait l’objet de nombreuses recherches, dues notamment à B. Ephrussi et à ses collaborateurs.
- La déficience respiratoire est la conséquence de l’absence dans ces cellules de tout un complexe enzymatique que l’on sait être normalement associé aux mitochondries. L’examen au microscope électronique ne révèle cependant pas d’altérations morphologiques notables de ces organites.
- Les faits génétiques sont les suivants. Au cours de la
- multiplication végétative, le type cellulaire normal, dit « grande », se transforme spontanément en « petite » et la fréquence de cette mutation peut être accrue de manière
- Action du gène s
- Etats,s
- Contagion
- Etats
- Stable par hérédité cellulaire et hérédité maternelle
- Réversion
- spontanée
- Stable par hérédité cellulaire et hérédité maternelle
- Fig. 8. — Relations entre les deux états cytoplasmiques s et sS chez Podospora anserina.
- 239
- p.239 - vue 243/551
-
-
-
- tout à fait spectaculaire par l’action de substances du groupe des acridines. Nous retrouvons là un phénomène incontestablement analogue à la production massive de déficiences chlorophylliennes par la streptomycine. La possibilité d’obtenir des changements génétiques massifs par l’emploi de substances spécifiques paraît être un caractère général de l’hérédité non chromosomique.
- L’état « petite » est d’une stabilité absolue au cours de la multiplication végétative et aucune réversion vers « grande » n’a jamais été observée. Par contre, les croisements sexués entre « grande » et « petite » révèlent une situation remarquable. Le cycle sexué des Levures est simple, deux cellules haploïdes de même aspect, mais appartenant à ce que l’on appelle des types conjugaux différents, peuvent se fusionner en un zygote diploïde (un zygote est l’équivalent d’un œuf fécondé). Ce zygote est capable de multiplication végétative dans cet état, mais peut aussi sporuler, c’est-à-dire subir la méïose et fournir quatre spores haploïdes, capables à leur tour de multiplication végétative. Le zygote issu de la fusion d’une « petite » et d’une « grande » est selon les cas soit d’un type, soit d’un autre et ne montre jamais de ségrégation mendélienne, ni au cours de sa multiplication végétative, ni au cours de sa sporulation éventuelle. Celui des deux états qui efface ainsi l’autre est alors déterminé par la nature génétique de la « petite » prenant part au croisement. Il existe en effet deux états « petite » distincts, désignés par les termes neutre et suppressif. La différence ne réside pas dans la nature biochimique de la déficience respiratoire, mais dans le comportement lors du croisement avec « grande ». Avec la « petite » neutre, le zygote est de phénotype « grande » et ne donne que des ascospores semblables ; avec la « petite » suppressive, le zygote présente la déficience respiratoire. Les deux états, neutre et suppressif, peuvent se transformer l’un dans l’autre, le sens habituel de la dérive allant du suppressif au neutre. *
- Ces phénomènes remarquables excluent évidemment toute interprétation trop simple. La perte du complexe des enzymes respiratoires pourrait être envisagée comme
- Ilots de congélation étemelle
- Dans la partie méridionale de la plaine de l’Amour et de la Zeia (Sibérie extrême-orientale), ont été découverts de véritables îlots de congélation éternelle, dont les superficies n’excèdent pas 400 X 1 000 m. Le fait remarquable est que ces étroites zones de congélation éternelle parsèment une plaine marécageuse où la congélation n’est que saisonnière et ne se propage pas au delà d’une profondeur de 1,4 m. Bien au contraire, dans les îlots, on n’a pu parvenir jusqu’à la limite inférieure de la glace qui, en tout cas, se trouve au-dessous de — 5 m.
- L’explication ne peut être recherchée dans la nature des roches, car les cristaux de glace se rencontrent aussi bien dans les argiles que dans les sables et les galets. Le seul élément significatif est que les îlots se trouvent concentrés dans les terrasses inférieures des cours d’eau. Ceci a conduit à l’hypothèse, formulée dans la revue Priroda (où nous relevons cette information) et selon laquelle la congélation se serait produite à une période récente du quaternaire. Aucun dégel ne serait intervenu depuis lors.
- C. M.
- liée génétiquement à la perte d’un plasmagène, localisé dans les mitochondries. Mais comment expliquer, dans cette perspective, l’existence des « petites » suppressives chez lesquelles cette « perte » se comporte comme si elle était infectieuse ?
- *
- * *
- Ces quelques exemples suffisent sans doute à montrer la complexité des phénomènes auxquels se trouvent affrontés les généticiens lorsqu’ils s’attaquent au domaine de l’hérédité non chromosomique. Les faits ne peuvent en aucun cas faire l’objet d’une schématisation simple. Quand ils se rencontrent chez des organismes faciles à manier, notamment chez des Microorganismes, ils se prêtent cependant, relativement aisément, à une analyse expérimentale précise, qui avec les techniques modernes peut être approfondie jusque sur le plan biochimique et moléculaire. Comme souligné plus haut, l’intérêt de telles analyses déborde largement le problème de l’hérédité non chromosomique. Les mécanismes étudiés intéressent en effet directement le problème des relations entre le noyau de la cellule et le cytoplasme qui l’entoure. D’autre part, ce sont sans doute des mécanismes analogues qui jouent dans la différenciation cellulaire lors du développement des animaux et des plantes et se retrouvent donc aussi dans cette anomalie de la différenciation que l’on appelle le cancer.
- Il s’agit bien en effet, dans ces cas, d’une sorte d’hérédité non chromosomique, puisque des cellules-sœurs, porteuses selon toute apparence d’un équipement génétique identique, vont assumer des structures et des fonctions aussi diverses que celles d’ün neurone, d’une cellule glandulaire ou d’une cellule cancéreuse. Simple curiosité biologique à certains égards, l’hérédité non chromosomique est donc un des problèmes les plus importants de la Biologie cellulaire.
- Philippe L’Héritier,
- Professeur à la Faculté des Sciences de Paris.
- Une « infirmière électronique »
- Un dispositif électronique, capable d’exercer une surveillance constante sur un hôpital pouvant grouper jusqu’à 900 grands malades, vient d’être mis au point par des savants des laboratoires de recherche de la compagnie E.M.I. Electronics Limited à Hayes (Angleterre). Selon un porte-parole de la compagnie, une infirmière installée devant cet appareil suivra avec beaucoup plus d’efficacité l’évolution de l’état des malades, qu’elle ne pourrait le faire en se rendant régulièrement à leur chevet. L’appareillage de surveillance est relié à de légers contacts électroniques fixés sur les malades, qui permettent l’enregistrement des battements du cœur, du rythme respiratoire, de la température et de la pression artérielle. Si l’état d’un malade s’aggrave soudain (accélération du rythme cardiaque, brusque montée de température, etc.), une sonnette d’alarme retentit, en même temps que s’inscrit sur un tableau lumineux le numéro du lit du malade. Toutefois, dans l’esprit de ses inventeurs, l’infirmière électronique n’a pas pour but de remplacer l’infirmière proprement dite, mais de la libérer d’une certaine activité routinière.
- 240
- p.240 - vue 244/551
-
-
-
- Le Phaëton, projet français de propulseur spatial et satellite synchrone
- par Nicolas Vichney
- L’ingéniosité des techniciens français leur permettra-t-elle de mener à bien des expériences spatiales qui étaient considérées comme seulement à la portée des pays disposant de fusées très puissantes ? C’est la question qui se pose après la récente présentation de l’avant-projet d’un,«propulseur spatial», le «Phaëton», conçu par la Société d’Etudes pour la Propulsion par Réaction (S.E.P.R.).
- Le Phaëton en effet, qui répond à la dénomination technique de P.E.S.2 (propulseur à énergie solaire n° 2), doit tenir lieu à la fois de dernier étage et de charge utile à une fusée traditionnelle et il doit être capable, une fois placé sur une orbite par son véhicule lanceur, d’opérer un transfert d’orbite jusqu’à graviter à une distance de la Terre telle que sa période de révolution soit alors égale à la période de rotation de notre globe sur lui-même (orbite dite de 24 heures, située à 36 500 km du sol terrestre). Cela n’a évidemment d’intérêt que si l’orbite se situe en même temps dans le plan de l’équateur terrestre, car le satellite, qualifié alors de synchrone, est immobile par rapport à un point quelconque de la Terre, ce qui est particulièrement commode pour le faire servir aux télécommunications (x).
- Jusqu’ici, pour placer un engin sur une telle orbite, on ne songeait qu’à recourir à la méthode déjà classique: utiliser une fusée capable de hisser sa charge utile à la distance requise et de lui communiquer alors la vitesse nécessaire à sa satellitisation. Mais l’installation d’une charge utile sur une orbite de 24 heures requiert un véhicule lanceur d’une poussée déjà très élevée; en outre, un engin gravitant à une telle distance ne serait exploitable que s’il remplit un certain nombre de conditions : stabilisation satisfaisante par rapport à la Terre pour permettre de loger à bord des émetteurs peu encombrants mais parfaitement audibles du sol, dispositif de maintien sur l’orbite {station keeping) capable de corriger les déformations que ne manqueraient pas d’apporter les autres corps célestes, notamment la Lune, dont l’attraction à cette distance cesse d’être négligeable. Porteurs de tous ces dispositifs, les engins ne pourraient être qu’assez lourds. Viendraient-ils à ne pas remplir exactement les conditions requises, il faudrait, pour remédier au manque de directivité de leurs émissions, munir les stations du réseau terrestre de récepteurs très sensibles et, en raison des déformations apportées à l’orbite, procéder à un renouvellement assez fréquent des engins. Faute de quoi, les engins seraient inaudibles du sol ou cesseraient rapidement de présenter les avantages des satellites synchrones.
- 1. Voir: Les satellites de télécommunications, par Félix Roy, La Nature -Science Progrès, mai 196-2, p. 193; voir aussi, sur les transferts d’orbite : Quelques problèmes posés par la mise sur orbite d’un satellite artificiel, mars 1962, p. 124.
- Rien d’étonnant, donc, que jusqu’à présent, malgré tous les avantages qu’on en escompte pour les observations météorologiques ou les télécommunications, aucun lancement d’un satellite sur une orbite de 24 heures n’ait été tenté. C’est seulement cette année que les techniciens de l’Armée de l’Air américaine et ceux de la N.A.S.A. s’efforceront séparément de mettre à leur actif deux réalisations de cet ordre, les premiers en lançant un satellite du type « Advent », les seconds un satellite du type « Syncom ». Il leur faudra à chaque fois faire appel au véhicule de lancement le plus puissant dont on dispose actuellement Outre-Atlantique : l’Atlas-Agena B.
- Orbite de transfert en spirale par poussée faible mais continue
- Au contraire l’engin conçu par les spécialistes de la S.E.P.R. doit en principe mettre les satellites synchrones à la portée de tout pays capable de mettre sur orbite une charge utile d’un poids raisonnable. Le principe du transfert d’orbite se comprend facilement : une fois l’engin gravitant sur une orbite de parking, il lui est communiqué une poussée faible mais continue qui lui permet de s’inscrire sur une trajectoire en spirale. Cette caractéristique dicte les deux manières dont le Phaëton pourrait être employé :
- — Si on le laisse décrire cette trajectoire en spirale le temps nécessaire (la durée de son vol devrait alors se calculer en mois plutôt qu’en semaines), il parviendra progressivement à la distance de l’orbite de 24 heures et son système de propulsion sera alors coupé;
- — Si on interrompt le fonctionnement de son système de propulsion avant qu’il ne soit parvenu à l’orbite de 24 heures, on lui fait, de toute évidence, décrire une orbite elliptique autour de la Terre; l’opération peut être renouvelée à des altitudes diverses.
- Dans le premier cas l’engin serait à même, tout en parcourant sa trajectoire en spirale, d’effectuer une sorte de « balayage » de l’environnement terrestre et de communiquer au sol des informations scientifiques sur les conditions qui régnent entre l’orbite de parking et l’orbite de 24 heures. Mais cette étude de l’environnement terrestre sera naturellement plus systématique dans le cas où la trajectoire en spirale sera interrompue par des « arrêts » sur des orbites situées à des distances croissantes de la Terre; alors l’environnement terrestre sera étudié par tranches successives, opération qui pour être menée à bien par le seul recours aux méthodes traditionnelles exigerait le lancement d’autant de satellites distincts.
- Les avantages de cette manière de conduire un vol
- 241
- p.241 - vue 245/551
-
-
-
- 241
- Fig. I. — Schéma du mode de transfert du Phaëton d’une orbite de parking sur une orbite de 24 heures.
- (Documents aimablement communiqués par la S.E.P.R.)
- p.242 - vue 246/551
-
-
-
- spatial sont trop évidents pour que les techniciens d’Outre-Atlantique n’aient pas cherché à réunir les conditions susceptibles de l’autoriser. La solution à laquelle ils ont songé est élégante, mais elle exige d’importants développements technologiques : on logerait à bord des engins des réacteurs nucléaires du type S.N.A.P. (2) qui alimenteraient en énergie des dispositifs à propulsion ionique; une fois l’engin parvenu sur l’orbite de 24 heures, la batterie serait employée à fournir l’énergie nécessaire à l’émission de signaux et au maintien sur l’orbite.
- Quelque avance dont ils disposent en matière nucléaire, les Américains n’ont pas encore réussi à rendre « opérationnel» un S.N.A.P. qui puisse convenir à une telle mission et jusqu’à présent les sources auxiliaires d’énergie nucléaire ont été seulement employées à titre expérimental pour alimenter les émetteurs de deux satellites de navigation du type Transit.
- C’est dire qu’en France, où les études sur la propulsion par l’énergie nucléaire des sous-marins viennent tout juste de commencer (les réacteurs S.N.A.P. employés à la propulsion d’engins spatiaux dérivent des réacteurs mis au point pour la propulsion navale), on devait, au moins actuellement, faire appel à d’autres techniques. C’est donc à l’énergie solaire que les techniciens ont songé à’recourir pour assurer l’alimentation des appareils logés à bord de leur engin et de son système de propulsion. Les cellules photo-électriques ont elles-mêmes été écartées, pour des considérations de rendement et vu l’incertitude qui règne encore en ce qui concerne l’effet que pourraient avoir sur leur fonctionnement les anneaux de particules de haute énergie de l’environnement terrestre. On a donc opté pour un dispositif de concentration des rayons solaires.
- Générateur solaire au mercure
- Le Phaëton est essentiellement constitué par un cylindre de 5 m de long environ, inséré dans l’axe d’un réflecteur parabolique de 5 m de diamètre et surmonté, du côté concave du réflecteur, par un échafaudage qui supporte lui-même une sphère (fig. 2). L’axe du cylindre étant pointé dans la direction du Soleil, le miroir parabolique (qui naturellement est replié à la manière d’un parapluie durant la phase de lancement) réfléchit les rayons lumineux en direction de la sphère disposée de manière à se trouver non loin de son foyer.
- Cette sphère constitue la source chaude du dispositif de conversion de l’énergie solaire en électricité. Du mercure y circule, qui y est porté à une température de quelque 1 ooo° C et se trouve alors en phase vapeur. Cette vapeur de mercure est alors dirigée vers un petit moteur compound logé tout en haut du cylindre et couplé avec un alternateur. Cette installation fournit l’énergie nécessaire au fonctionnement du moteur, des appareils logés à bord, y compris ceux de la charge utile, et du dispositif de propulsion. Ce dernier utilise l’éjection d’un hydrogène stocké naturellement à l’état liquide et porté par un jeu de résistances électriques à une température de quelque 3 ooo° C. L’éjection s’opère par deux tuyères orientables où on doit recueillir
- 2. Ces réacteurs nucléaires ne doivent pas être confondus avec les batteries nucléaires S.N.A.P. où l’énergie est fournie simplement par la désintégration de corps radioactifs (La Nature - Science Progrès, octobre 1961, p. 422).
- Fig. 2. — Maquette du Phaëton.
- Explications dans le texte.
- une poussée de io g. Le dispositif de transformation de l’énergie solaire en électricité est complété par une source froide où le mercure se refroidit avant d’être à nouveau dirigé vers la source chaude : deux radiateurs situés le long du cylindre sous le miroir parabolique, donc à l’abri des rayons solaires. Enfin pour remédier à la mise hors de fonctionnement de la source chaude qui résulterait du passage de l’engin dans l’ombre de la Terre, le mercure circulant se trouve maintenu, par un jeu de serpentins, en contact étroit avec de l’hydrure de lithium qui remplit le rôle d’emmagasineur de chaleur et doit, à ce titre, maintenir à tout moment le mercure en phase vapeur.
- Sans doute, il ne faut pas prêter à l’ensemble de ce dispositif un caractère révolutionnaire : déj à des techniciens de la N. A.S. A. ont imaginé de faire appel à des convertisseurs d’énergie solaire en énergie électrique reposant sur l’emploi d’appareils à concentration chauffant du mercure. Tel est notamment le cas du « Sunflower I » qui doit être à même de fournir une puissance de 3 kW aux dispositifs d’utilisation de l’énergie électrique. Mais, encore qu’on ne connaisse pas le détail des procédés techniques mis en œuvre dans le dispositif américain, il semble que l’agencement conçu par les techniciens français diffère de celui auquel travaillent les ingénieurs d’Outre-Atlantique par l’emploi du moteur compound : dans le Sunflower I, la vapeur de mercure entraîne une turbine.
- D’un autre point de vue encore, le projet s’oppose au
- 243
- p.243 - vue 247/551
-
-
-
- dispositif américain : celui-ci est en cours de construction alors que le premier a tout juste franchi le stade des études préparatoires. En présentant sa maquette, la S.E.P.R. a voulu montrer surtout le résultat de travaux qui permettent de penser que, même avec des moyens techniques et financiers réduits, il est possible de mener à bien d’instructives expériences spatiales. Le Phaëton, en effet, a été conçu de manière à pouvoir être lancé par des véhicules porteurs dont la construction est accessible à la France. Avec son système de récupération de l’énergie solaire, son générateur électrique et son mécanisme de propulsion, son poids est de 103 kg. La charge utile, logée dans le bas du cylindre pourrait, estime-t-on, atteindre 200 kg; mais son importance dépendra autant de la poussée que pourra fournir le véhicule de lancement que de la quantité d’hydrogène liquide nécessaire à l’alimentation du mécanisme de propulsion, quantité qui, elle-même, sera déterminée par la nature de la mission confiée à l’engin.
- *
- * *
- Il y a un an que les études ont été commencées, sous la direction de M. Mériguet, directeur technique de la S.E.P.R., par MM. Vernet-Lozet et de Clavière; elles ont occupé depuis une demi-douzaine de spécialistes. Seule une maquette à échelle réduite a déjà été construite et bien des problèmes encore n’ont pas reçu de solution définitive. Moins qu’à s’affirmer maîtresse des techniques sur l’emploi desquelles repose le Phaëton, la S.E.P.R. veut attirer l’attention sur l’intérêt qu’il y aurait à poursuivre leur étude avec les moyens appropriés. Entreprises dès à pré-
- sent, elles permettraient, selon les ingénieurs de la S.E.P.R., de mettre au point un engin pour la date où l’on prévoit que les véhicules lanceurs seront eux-mêmes disponibles.
- Sans doute on peut s’interroger sur la manière dont pourront être résolus avec le Phaëton les délicats problèmes posés par le contrôle d’attitude de l’engin et son maintien sur une orbite de 24 heures; la stabilisation d’un engin emportant à son bord un moteur à pistons peut paraître délicate; on doit aussi se demander comment il sera possible de venir à bout des nombreuses difficultés que présente l’emploi de l’hydrogène liquide à bord d’un engin spatial, quels seront en particulier les effets des mélanges de la phase liquide et de la phase gazeuse dans l’état d’impon-dérabilité. Pour être exacts au rendez-vous qu’ils sont prêts à prendre avec les constructeurs de fusées, les techniciens de la S.E.P.R. ont donc beaucoup à faire.
- Félicitons-nous néanmoins de voir une entreprise française, spécialisée dans des études à caractère militaire, montrer l’intérêt qu’elle porte à la construction d’engins spatiaux. Déj à les techniciens des laboratoires de recherche de la C.S.F. ont présenté l’avant-projet d’un satellite de communications à stabilisation électronique et, sur uu plan différent, ceux du Centre national d’Etudes des Télécommunications travaillent à mettre au point l’équipement d’engins qui seront mis en orbite par des fusées américaines. Bien sûr, il ne s’agit là que de premiers pas, mais il apparaît qu’un mouvement a été amorcé qui pourrait, avec la mise en place d’organismes spécialisés à l’échelle française et européenne, conduire ultérieurement à d’intéressants développements.
- Nicolas Vichney.
- Exploitation des lacs salés en U.R.S.S.
- Les lacs salés sont très nombreux sur le territoire de l’Union Soviétique et quelques-uns sont exploités industriellement, notamment ceux de Koulounda. Koulounda est une steppe en forme de cuvette, située au sud de la Sibérie et particulièrement riche en lacs salés. Les sels de Koulounda sont d’origine purement continentale. Leurs réserves dans les lacs, loin de diminuer, s’accroissent chaque année. De tous ces lacs, le plus intéressant, au point de vue de l’exploitation, est celui de Koutchouk, couvrant une superficie de 180 km2 environ et profond de 2 à 3 m. L’eau, dans ce lac, est une solution saline dont la concentration atteint 210 Baumé. Son volume total est de 430 à 450000000 m3. Son poids spécifique est de 1,172, et son point de
- Toxine de brûlure
- Le docteur Alfred B. Chaet, de l’Université de Washington, vient de procéder à des recherches qui prouvent que le sang d’un animal gravement brûlé ou ébouillanté contient une toxine mortelle pour tout autre animal de la même espèce. Il a pu constater que le sang d’un poisson ébouillanté, injecté à d’autres poissons de la même espèce, les tuait dans une proportion de 51 pour xoo. Des expériences analogues effectuées sur des vers marins et des écrevisses ont amené la mort des spécimens ainsi traités dans une proportion de 85 pour 100. La nature de la toxine et la façon dont elle agit demeurent toutefois inconnues. (Information de Centre culturel américain.)
- congélation se situe à — 160. Le sel dominant est le sulfate de sodium. Ce lac, entièrement exploité, pourrait fournir annuellement jusqu’à 140 kg de ce sulfate par mètre cube de solution saline. En outre, le lac de Koutchouk contient du chlorure de magnésium et des sels de brome. Le plus grand lac de la région, le lac Kouloundinskoïe (superficie, 600 km2 ; profondeur, 4 m), est beaucoup moins riche en sels. Le lac Bourlinskoïe, situé au centre même de la cuvette, fournit principalement du sel commun ; la richesse globale de ce lac en sel est de l’ordre de 30 000 000 t. Certains lacs de Koulounda contiennent du gypse ; ainsi, dans le seul lac Djira, les réserves de gypse ont été évaluées à 10 000 000 t. (D’après Vriroda, Moscou).
- Le téléphone avec FU.R.S.S.
- Selon une dépêche de l’agence Tass, des techniciens soviétiques viennent de procéder aux essais d’un nouvel équipement du central téléphonique international semi-automatique destiné à assurer les communications entre Moscou, Prague, Berlin et certaines autres grandes villes de l’Europe. L’appel d’un abonné d’un autre pays sera simplifié à l’extrême : il suffira de composer le numéro du central international, le numéro du pays de l’abonné et son numéro individuel. Les numéros qui désignent les différents pays ont déjà été choisis : la France s’est vu attribuer le numéro 33. (Bureau Soviétique d’information).
- 244
- p.244 - vue 248/551
-
-
-
- Les convertisseurs thermoélectroniques
- nouveaux dispositifs pour la transformation directe
- de la chaleur en electrictte pctv Robavt Rossût
- La conversion directe de la chaleur en électricité présente, par rapport aux procédés traditionnels, des avantages incontestables : les dispositifs ne comportent pas de parties mobiles, sont silencieux, ne posent aucun problème de lubrification et peuvent fonctionner pendant de longues périodes sans entretien. Par ailleurs, les rendements sont notablement plus élevés, surtout dans la gamme des faibles puissances unitaires, les dimensions des générateurs peuvent être rendues très faibles; d’où d’importants gains de poids et d’encombrement, ce qui offre de sérieux avantages dans de nombreux domaines : applications militaires, astronautique, etc. Il n’est donc pas étonnant que la réalisation de tels générateurs soit un problème à l’ordre du jour auquel sont consacrées d’importantes recherches tant en France qu’à l’étranger.
- Nous avons déjà étudié les possibilités offertes par les piles à combustibles et les piles thermoélectriques (1). Nous décrirons ici une autre méthode de conversion directe et statique de l’énergie thermique en énergie électrique, dite conversion thermoélectronique. Suggérée pour la première fois par un chercheur allemand, W. Schlichter, en 19x5, puis tombée dans l’oubli, elle fut redécouverte par un Français, M. Champeix, qui publia un article dans le numéro de janvier 1951 de la revue L<? Vide, intitulé «Transformation de la chaleur en électricité dans le phénomène thermoionique ». L’auteur concluait d’ailleurs que la méthode était impraticable. Cela n’empêcha pas des chercheurs américains, parmi lesquels il faut citer Hatsopoulos, et d’autre part l’équipe française des laboratoires de Corbeville de la Compagnie Générale de T.S.F. (C.S.F.), de reprendre le problème et de réaliser des générateurs qui, s’ils n’ont pas encore dépassé un stade purement expérimental, sont du moins prometteurs.
- Le principe de la méthode est assez simple. Les propriétés conductrices des solides s’interprètent, on le sait, en admettant que les atomes, ou tout au moins leurs noyaux, sont fixes dans l’espace, tandis que les électrons sont plus ou moins libres de se déplacer dans le cristal. On peut donc, de façon imagée, représenter un corps conducteur comme un réseau d’ions positifs baigné par une sorte de gaz d’électrons négatifs. Elevons alors la température d’une plaque conductrice : les mouvements d’agitation des électrons vont s’accentuer et, si la température est suffisamment élevée, un certain nombre de ces électrons vont s’échapper
- 1. Voir, dans La Nature-Science Progrès : Les piles à combustible, janvier 1961, p. 35-42; La thermoélectricité, avril 1961, p. 170-176; Applications récentes de la thermoélectricité, octobre 1961, p. 420-425
- de la surface du métal. C’est le phénomène bien connu de l’émission thermoélectronique ou thermoionique, que l’on met à profit dans tous les tubes électroniques.
- Dans les conditions habituelles, à la température ordinaire, il existe à la surface du métal une « barrière de potentiel» qui empêche les électrons de quitter le métal. La « hauteur » de cette barrière dépend du corps considéré, de sorte que chaque élément peut être caractérisé par un « potentiel d’extraction » (F. Pour qu’un électron puisse quitter le métal, il faut que son énergie W soit supérieure au travail à fournir pour franchir la barrière de potentiel <f>, soit W > e <ï>, e étant la charge de l’électron. W est appelé « travail de sortie » de la plaque émettrice.
- Disposons alors une autre plaque faisant face à la première et établissons le vide dans l’enceinte (fig. 1). Les électrons qui sont émis par la plaque incandescente peuvent, dans certaines conditions, être recueillis par la plaque collectrice. Si l’on relie alors électriquement les deux pla-
- chaleur
- Cathode Anode
- électrons
- Fig. I. — En haut : Schéma de principe d’un convertisseur thermoélectronique. — En bas : Diagramme des potentiels correspondant aux différents éléments du convertisseur.
- La cathode chauffée émet des électrons avec l’énergie e <I>c, 'I C étant la barrière de potentiel de la cathode, voisine le plus souvent de 3 à 4 V. Recueillis par l’anode, les électrons tombent à un potentiel <1m < <1'C. La tension disponible aux bornes des électrodes est <]>c —‘In. Elle varie selon les dispositifs, de 0,5 à 3 V.
- 245
- p.245 - vue 249/551
-
-
-
- ques, un courant va circuler dans le circuit extérieur. L’énergie calorifique qui a servi à porter la plaque à l’incandescence est ainsi convertie directement en électricité. Remarquons que le principe de cette transformation n’a rien de très nouveau ; le schéma précédent se retrouve dans tous les tubes électroniques et, eh particulier, dans la diode : la plaque émettrice est la cathode, la plaque collectrice est l’anode.
- Abordons maintenant le problème de façon plus quantitative en considérant le diagramme des potentiels correspondant aux différents éléments du système (fig. i). Choisissons arbitrairement comme origine des potentiels celui qui règne à l’intérieur de la cathode (plaque émettrice). Les électrons ne s’échappent pas habituellement de la cathode en raison de l’existence d’une barrière de potentiel <I?C à la surface du métal. Lorsque la cathode est chauffée, un certain nombre d’électrons acquièrent une énergie suffisante pour franchir cette barrière de potentiel <ï>c et ils s’échappent alors dans l’espace vide situé entre l’anode et la cathode. Lorsqu’un électron atteint l’anode, son potentiel tombe à la valeur du potentiel d’extraction de l’anode (I>^ et, si ce potentiel d’extraction de l’anode est inférieur à celui de la cathode, la différence d’énergie e ((ï>c — (I>^) est disponible sous forme d’énergie électrique dans le circuit extérieur. Si l’on considère l’intensité J du courant (qui représente la somme de tous les électrons déplacés) l’énergie électrique qui est produite dans le système est égale à I (tl>c — $4).
- Les avantages de l’énergie en jeu
- On peut dès lors établir l’expression qui donne le rendement du dispositif, grandeur qui, si elle n’est pas le seul paramètre qui permette de décider de l’avenir des convertisseurs thermoélectroniques, joue cependant un rôle fondamental puisque de sa valeur dépend en grande partie le domaine d’application du procédé. Excusons-nous de donner encore quelques formules dont on verra d’ailleurs qu’elles sont très simples.
- Le rendement est évidemment le rapport de l’énergie électrique produite, dont nous venons de voir qu’elle est égale à J (<I>C — <1>^), à l’énergie calorifique fournie pour porter la cathode à l’incandescence, grandeur qu’il nous reste à évaluer.
- En première approximation cette énergie calorifique à dépenser est la somme de trois termes :
- i° Tout d’abord l’énergie nécessaire pour permettre aux électrons de franchir la barrière de potentiel, soit e <f>c pour un électron, et I {ï>c au total pour une intensité J du courant électrique.
- 2° Il est bien évident que les électrons qui sont capables de quitter la cathode, si leur énergie individuelle doit être au moins égale à e (fic, ont pour la plupart une énergie supérieure. On démontre qu’en moyenne les électrons qui quittent la cathode ont un supplément d’énergie égal à 2 k T (Æ étant la constante de Boltzmann et T la température de la cathode en degrés Kelvin, ou température absolue). Ce supplément d’énergie des électrons, qui pour l’intensité I du courant est au total égal à I z k T, est dissipé sous forme de chaleur dans l’anode et ne sert en rien à produire de l’électricité dans le circuit extérieur.
- 3° Enfin, la perte la plus importante est due au transfert
- direct de chaleur de la cathode vers l’anode, par rayonnement. Appelons R cette perte, qui est indépendante du courant.
- L’énergie calorifique fournie à la cathode est donc au total égale à J <ï>c + I z k T + R, et le rendement s’exprime par :
- =
- 71 I$c + IzÆT + R
- ou, en divisant les deux termes de ce quotient par I :
- _ &C — &A
- 71 <1>C + 2 k T + R/I
- Si les pertes par rayonnement étaient négligeables et si les électrons émis par la cathode avaient tous exactement l’énergie minimale nécessaire e pour franchir la barrière de potentiel, la formule se réduirait à :
- C’est le rendement maximal du système et l’on peut montrer qu’il est égal à :
- Tc et Ta désignent les températures absolues respectives de la cathode et de l’anode, ce qui n’est alors autre chose que le rendement de Carnot. Ceci permet d’assimiler très schématiquement l’ensemble à une machine à vapeur dont le fluide est remplacé par le flux d’électrons allant de la cathode (chaudière) à l’anode (condenseur). Le travail de sortie de la cathode et celui de l’anode peuvent, quant à eux, être assimilés respectivement aux chaleurs d’évaporation et de condensation.
- A haute température, rendement élevé
- Lorsque le courant J est faible, les pertes par rayonnement R étant les mêmes, puisqu’elles ne dépendent que de l’émissivité de la cathode et du pouvoir réflecteur de l’anode pour la lumière émise par la cathode, le terme R/J devient très grand, de sorte que le rendement est très faible. Par suite, la condition qu’il faut réaliser pour qu’un convertisseur ait un rendement acceptable peut se formuler ainsi : rendre la densité de courant aussi grande que possible. Pour y parvenir, un moyen : faire fonctionner le dispositif à très haute température de façon à avoir un grand nombre d’électrons dont l’énergie soit suffisante pour quitter la cathode. Les pertes par rayonnement croissent également avec la température mais moins vite que la densité de courant, de sorte qu’il existe une température au-dessus de laquelle le terme R/J est raisonnablement faible. D’une façon générale, cette température est toujours très élevée, ce qui est une des caractéristiques essentielles des convertisseurs thermoélectroniques.
- Enfin, le rendement sera d’autant plus grand que le travail de sortie de l’anode sera plus faible et (pour réduire les pertes par rayonnement) que le pouvoir réflecteur de l’anode pour la lumière émise par la cathode sera plus grand.
- Le rendement est donc essentiellement fonction des propriétés des matériaux utilisés comme cathode et comme
- 246
- p.246 - vue 250/551
-
-
-
- anode : travail de sortie de l’une et de l’autre, pouvoir émissif de la cathode, pouvoir réflecteur de l’anode, et aussi point de fusion et vitesse de sublimation de la cathode. Ces propriétés fixent une température de fonctionnement qu’on ne peut pas dépasser.
- Parmi les matériaux utilisés comme cathode, nous citerons d’abord les mélanges d’oxydes du genre oxyde de baryum, oxyde de strontium, etc. La température de fonctionnement est de l’ordre de i 2000 C et la densité de courant peut atteindre 5 A/cm2. Les métaux réfractaires du type tungstène, tantale et molybdène peuvent fonctionner à des températures de 2 000 à 2 5000 C et, en présence de vapeur de césium, la densité de courant peut atteindre 10 A/cm2. On a également fait appel à des carbures purs (carbure de tantale) et à des mélanges tels que des mélanges de carbure d’uranium et de carbure de zirconium, dont nous verrons plus loin l’utilisation possible au sein d’un réacteur atomique. La figure 3 représente les variations du rendement pour un certain nombre de matériaux utilisés comme cathode, en fonction de la température. Il s’agit de rendements calculés en supposant que l’anode a un pouvoir réflecteur de 0,5 et un travail de sortie de 1,8 volt. Chaque courbe de cette figure se termine au point où, à la température correspondante, la sublimation du matériau entraîne la volatilisation d’une épaisseur de 1 mm environ de la cathode en 1 000 h environ. On notera que, pour beaucoup de ces matériaux, la température maximale d’utilisation est atteinte avant que le rendement ait une valeur très élevée.
- Contre la charge d’espace : la vapeur de césium
- Nous avons ignoré jusqu’à présent un autre phénomène particulièrement gênant dont il faut absolument s’affranchir, celui de la « charge d’espace ». Entre la cathode et l’anode se trouvent en effet des électrons qui repoussent les électrons nouvellement émis par la cathode. Par suite, la non-élimination de cette charge d’espace entraînerait une sérieuse limitation du rendement. Lors de ses premières recherches, Hatsopoulos, qui est un peu le père des convertisseurs thermoélectroniques, utilisait des diodes dont la distance cathode-anode était de l’ordre d’une cinquantaine de microns afin de réduire au minimum la charge d’espace. Pour obtenir des rendements réellement élevés, il faudrait faire mieux encore et réduire cette distance à une dizaine de microns, soit un centième de millimètre ! On imagine sans peine les difficultés d’ordre technologique que pose cet impératif. Il est surtout difficile de maintenir dans le temps ce minime écartement, compte tenu des contraintes thermiques, entre les grandes surfaces nécessaires pour obtenir des intensités de courant importantes. Un autre phénomène, dont nous avons déjà parlé, tend aussi à augmenter l’écartement : ce sont les pertes de substance que subit la cathode par sublimation à haute température.
- Une autre méthode d’élimination de la charge d’espace, suggérée ultérieurement par Wilson, semble plus pratique que la réalisation de diodes à très faible écartement. Elle consiste à remplir l’espace situé entre l’anode et la cathode par de la vapeur de césium sous basse pression (fig. 2). Dans ces conditions, le césium s’ionise spontanément au
- Fig. 2. — Convertisseur thermoélectronique à vapeur de césium.
- Pour fonctionner, ce dispositif est introduit dans un four. Le courant qu’il produit est suffisant pour actionner un petit moteur électrique.
- (Photo Westinghouse).
- Fig. 3. — Variation du rendement d’un convertisseur thermoélectronique en fonction de la température, pour différents matériaux susceptibles d’être utilisés comme cathode.
- (.D’après un document Westinghouse).
- 0
- 0 5QQ 1000 1500 2000 2500 3000
- Température de ta cathode ( °K )
- contact de la cathode chaude dans la mesure où celle-ci a un travail de sortie suffisamment élevé, supérieur à 3,2 eV environ, et aussi par l’impact des électrons de haute énergie. Les ions césium (positifs) ainsi produits neutralisent efficacement la charge d’espace des électrons, ce qui permet d’obtenir des densités de courant élevées.
- 247
- p.247 - vue 251/551
-
-
-
- L’écartement entre les électrodes peut alors être de l’ordre du demi-millimètre.
- Cependant, l’obligation d’utiliser une cathode dont le travail de sortie soit supérieur à 3,2 eV est une sujétion qui entraîne une baisse du rendement. En effet, à moins que la température de la cathode soit vraiment très élevée, le nombre d’électrons émis sera faible, du fait même du fort travail de sortie, et nous avons vu que des rendements élevés ne pouvaient être obtenus qu’avec de fortes densités de courant. L’équipe de chercheurs de la C.S.F., travaillant sous la direction de M. Huber, a pu montrer cependant qu’il était possible d’ioniser la vapeur de césium en utilisant une cathode dont le travail de sortie n’est pas uniforme, certains points seulement ayant un travail de sortie supérieur à 3,2 eV et la plus grande partie de la cathode un travail de sortie beaucoup plus faible. On parvient ainsi à des courants importants.
- Réalisations et rendements obtenus
- Les premières expériences effectuées avec des diodes à très faible écartement ont conduit à des convertisseurs capables de fournir une puissance de 0,6 W/cm2 environ avec un rendement de 6 pour 100.
- Avec les diodes à césium les résultats sont beaucoup plus prometteurs. Différents chercheurs américains ont fait état de puissances de 20 W/cm2 pour des rendements de l’ordre de 15 pour 100 (température de la cathode : 2 2000 C). A la C.S.F., des rendements de 10 à 19 pour 100 ont été obtenus selon les corps émetteurs et la température (2 000 à 2 6oo° C) avec des puissances variant de 15 à 22 W/cm2.
- Signalons enfin des convertisseurs thermoélectroniques qui, pour lutter contre la charge d’espace, utilisent à la fois un faible écartement entre la cathode et l’anode, de l’ordre de 100 microns, et l’addition de vapeur de césium. Les dispositifs réalisés fonctionnent à des températures de 1 500° C et délivrent des puissances de 12 W/cm2 avec un rendement de 15 pour 100 environ.
- Convertisseurs solaires et nucléaires pour satellites
- Les convertisseurs thermoélectroniques sont de construction relativement simple. Les diodes au césium en particulier, en autorisant un espace assez grand entre l’anode et la cathode, n’impliquent pas un haut degré de précision pour leur fabrication. Par ailleurs, en raison des fortes densités de courant obtenues, les quantités de matériaux pour une puissance donnée sont assez faibles. Selon Hatso-poulos par exemple, un convertisseur type nécessiterait 0,1 g de métaux réfractaires par watt et 5 g de matériaux bon marché comme le cuivre et les céramiques. Il en résulte que la production en série de tels dispositifs est loin d’être impensable et pourrait même entraîner de sérieuses éco-
- Fig. 4. — Chacun de ces petits disques est un convertisseur thermoélectronique utilisant la chaleur solaire.
- La miniaturisation de l’appareil est telle que 10 kg de ces convertisseurs, produisant 40 watts d’énergie électrique, remplacent i ooo batteries traditionnelles du type de celle qui est représentée en bas à droite et qui pèseraient au total 7,5 tonnes. Ces convertisseurs, construits par la General Electric Company, sont destinés à alimenter en énergie électrique un satellite artificiel.
- {Photo U.S.I.S.)
- p.248 - vue 252/551
-
-
-
- nomies eu égard au prix des machines tournantes productrices d’électricité dans le domaine des faibles puissances unitaires, disons de l’ordre de quelques kilowatts.
- D ’autres avantages militent également en faveur de ces convertisseurs : dans le cas où ils emprunteraient leur énergie à la lumière solaire, on a calculé que la durée de fonctionnement pourrait atteindre i o ooo à 5 o 000 h, chiffre qui se compare favorablement à celui des générateurs classiques. De plus, l’entretien devrait être réduit à sa plus simple expression (pas de lubrification, absence de pièces tournantes, etc.).
- On a montré aussi que les convertisseurs thermoélectroniques pouvaient fonctionner dans des conditions sévères, par exemple lorsqu’ils sont soumis à des accélérations de 30 g. Le gain de poids présente également un grand intérêt pour la réalisation de générateurs portatifs.
- Parmi les sources de chaleur utilisables, il semble que dans l’immédiat ce soient surtout la chaleur solaire et la chaleur d’origine nucléaire qui présentent le maximum d’intérêt. La chaleur produite par la combustion des carburants traditionnels, charbon, mazout, gaz naturel, sera plus difficile à utiliser. Il s’agit en effet d’obtenir des températures très élevées et, d’autre part, le couplage de la source de chaleur à la cathode située sous vide pose des problèmes complexes. La perméabilité des métaux aux gaz à haute température risque également d’empêcher le maintien pendant une assez longue période d’un vide satisfaisant dans la diode.
- Au contraire, la chaleur solaire, qui est une chaleur « propre » aisée à véhiculer au contact même de la cathode, s’impose d’emblée. De nombreuses études ont été menées dans cette voie qui semble très prometteuse pour la réalisation de générateurs électriques à bord des satellites artificiels (fig. 4). Les progrès réalisés ont été importants au cours des derniers mois, à tel point qu’on a signalé un convertisseur thermoélectronique débitant 200 A sous 1 V avec un rendement de 12,6 pour 100.
- Le chauffage d’origine nucléaire s’impose également, ne serait-ce que parce que les températures atteintes n’y sont alors limitées que par la tenue des matériaux utilisés.
- Une équipe de chercheurs du laboratoire de Los Alamos (Etats-Unis) a réalisé un convertisseur thermoélectronique dans lequel la cathode est un bâtonnet de carbure mixte d’uranium (enrichi en U 235) et de zirconium, qui est introduit comme élément combustible dans un réacteur atomique. Cet élément, dans lequel se produisent des fissions, peut être porté à 2 2000 C (alors que l’uranium sous forme d’oxyde, par exemple, ne supporte pas de telles températures). Dans certaines expériences le rendement a atteint 15 pour 100 pour une puissance dissipée de, 33/W cm2 et une densité de courant de 62 A/cm2. L’intérêt réside ici en partie dans le fait que le convertisseur peut ainsi utiliser une température très élevée, alors que les réacteurs dont l’énergie est évacuée par un fluide refroi-disseur ne peuvent guère fonctionner à de telles températures. D’ailleurs on utilise bien entendu aussi l’énergie emportée par le fluide caloporteur destiné à refroidir l’anode, qui est à une température très inférieure à celle de la cathode; cette énergie est évacuée vers un générateur classique.
- Deux applications sont déjà envisagées : on parle d’un réacteur nucléaire léger qui pourrait fournir directement de l’énergie électrique à un satellite artificiel; on pense
- Fig. J. — En chauffant ave£ un chalumeau un des petits convertisseurs thermoélectroniques de la figure 4, on obtient une puissance suffisante pour actionner un ventilateur.
- {Photo U.S.I.S.).
- aussi à un « générateur de tête » dans un réacteur commercial, l’énergie électrique engendrée venant s’ajouter à celle produite par les voies traditionnelles à partir de la chaleur emportée par le fluide refroidisseur.
- Il faut signaler enfin un fait très intéressant : la température de l’anode des convertisseurs thermoélectroniques, bien que très inférieure à celle de la cathode, est le plus souvent élevée, disons de l’ordre de 700 à 8oo° C. Or, cette température convient très bien comme source chaude d’un convertisseur thermoélectrique (voir nos articles cités en note). On peut dès lors, envisager le couplage d’un convertisseur thermoélectronique et. d’une pile thermoélectrique. Les rendements pourraient alors atteindre 30 pour 100 au moins, ordre de grandeur de ceux fournis par les machines thermiques classiques. Il n’est donc pas impossible, comme l’écrivait récemment le professeur Aigrain, que des dispositifs de ce type parviennent, le jour où ils seront parfaitement au point, à s’imposer comme sources d’énergie, même en grande quantité.
- *
- * *
- Les possibilités offertes par les convertisseurs thermoélectroniques sont incontestables. Pour les rendre compétitifs il s’agit essentiellement de trouver des matériaux dont l’ensemble des propriétés permettent de résoudre les difficultés d’ordre technologique qui subsistent encore à l’heure actuelle. Le domaine est encore largement inexploré et l’on peut s’attendre à d’importants progrès dans un avenir relativement proche.
- Robert Rosset.
- 249
- p.249 - vue 253/551
-
-
-
- Gisements de gaz et grisou
- dans les houillères
- Des prescriptions sévères régissent depuis fort longtemps l’exploitation des houillères et l’un de leurs objets est de prévenir des catastrophes de l’ordre de celle qui a récemment endeuillé le bassin de la Sarre. Les méthodes de prévention, à vrai dire, restent en bien des cas empiriques et c’est seulement dans les toutes dernières années que le problème du grisou a été attaqué selon des données scientifiques.
- Il n’est plus de mise de décider comme naguère : telle mine est « grisouteuse » et appelle donc des précautions spéciales ; telle autre est peu exposée et la surveillance peut y être moins rigoureuse. En réalité, le ' péril du grisou est toujours latent car les gaz sont, en règle générale, présents dans tous les gisements de charbon.
- On observera, avec quelque étonnement d’ailleurs, que cette notion n’apparaît pas aussi nettement aux yeux du public que dans les cas des gisements de pétrole. Là, on est désormais habitué au caractère mixte des hydrocarbures, dont certains composants sont liquides, d’autres gazeux. Peut-être est-il plus difficile de concevoir la coexistence d’éléments solides et d’éléments gazeux. Le fait, pourtant, doit être admis une fois pour toutes : au gisement houiller se superpose nécessairement un gisement de gaz qui englobe l’ensemble des veines de charbon et des roches encaissantes.
- Pour comprendre la présence du gaz, il est bon de remonter à l’origine des dépôts de houille. On sait que d’énormes accumulations de matières organiques (principalement végétales) sont passées à l’état de sédiments, après une submersion partielle .des continents. Nous n’insisterons pas sur cet épisode géologique bien connu qui est en relation avec les profonds remaniements de l’écorce survenus à l’époque des plissements hercyniens. Par contre, il est intéressant de se référer aux processus biochimiques qui se sont succédé pendant les premières étapes de la destruction et de la transformation des forêts carbonifères.
- On peut admettre qu’au début, alors que les végétaux se décomposaient à l’air libre, une masse importante de gaz tels que l’ammoniac NH3, l’azote N2, le méthane CH4 et le gaz carbonique COa se formaient, sous l’action des champignons, bactéries et autres microorganismes, mais ces gaz s’évacuaient et se diluaient dans l’atmosphère. Par la suite, le dépôt végétal commençant à être progressivement recouvert, les actions biochimiques se sont poursuivies pendant quelque temps et les gaz désormais captifs sont restés incorporés au sédiment en formation. Selon certains indices, cette deuxième et dernière étape biochimique semble avoir surtout produit et emmagasiné C02 et N2.
- par Yves Mériel
- A partir du moment où la communication avec l’atmosphère a été coupée, les phénomènes ont pris une allure toute différente. Les réactions étaient désormais soumises à des causes physiques de plus en plus intenses, à mesure qu’elles s’exerçaient à de plus grandes profondeurs : c’est la phase du métamorphisme, où interviennent surtout la chaleur et la pression. La matière organique, où dominaient précédemment les hydrates de carbone, tend vers un état où le carbone et les hydrocarbures lourds formeront la houille solide, tandis que les hydrocarbures légers se dégageront, sous forme principalement de méthane CEfi. Et c’est le méthane qui va jouer le rôle principal dans la formation du futur gisemenffgazeux; c’est ce gaz qui forme principalement le grisou.
- En résumé, deux gaz dominants d’origine superficielle : COa et N2. Un gaz d’origine profonde : CH4. Mais d’autres gaz peuvent être également présents : les gaz rares (argon, krypton, xénon, néon) prélevés sur l’atmosphère; l’hélium, vraisemblablement produit par la désintégration des autres gaz sous l’action des radiations; des gaz sulfureux, produits de décomposition organique; l’hydrogène et des hydrocarbures saturés tels que propane et butane qui accompagnent le méthane; l’oxyde de carbone enfin, résultant d’une oxydation incomplète du carbone.
- Gaz libres et gaz sorbés
- La première idée qui vient à l’esprit est que ces gaz se sont accumulés dans les vacuoles des roches. Cela est partiellement exact : dans les roches poreuses, surtout si elles sont dépourvues d’humidité, les gaz peuvent être emmagasinés sous des volumes qui sont évidemment fonction de la porosité relative des matériaux. Parmi les roches encaissantes, les argiles et les sables ont une porosité ,plus grande que les schistes, les grès et les calcaires. Quant aux houilles, elles sont généralement très poreuses et les gaz peuvent y occuper plus de 20 pour 100 du volume total.'
- Mais il est à présent démontré que les gaz sont également présents dans le corps même des roches, en vertu d’un phénomène de sorption que l’on peut assimiler à la dissolution dans les liquides. A vrai dire, on ne trouve que peu de gaz « sorbés » dans les roches encaissantes, alors que la capacité de sorption de certains charbons est considérable. Des mesures précises ont permis de constater qu’un centimètre cube de charbon peut contenir jusqu’à sept ou huit fois son volume de méthane et dix-huit fois son volume en gaz carbonique. Fait inattendu, ce sont
- 250
- p.250 - vue 254/551
-
-
-
- Fig. X. — Une haveuse à double bras en action.
- Cette photo prise dans une des galeries de Carmaux (Aquitaine) montre la profondeur des cavités creusées par la haveuse, qui pourront donner lieu à des dégagements de grisou.
- {Photo Yan, Charbonnages de France).
- les anthracites qui recèlent au maximum ces gaz incorporés, l’aptitude à la sorption étant deux fois moins élevée dans les charbons bitumineux.
- Selon des évaluations soviétiques, le volume du gaz sorbé serait de trois à cinq fois plus important que celui du gaz libre. Les proportions varient d’ailleurs d’une manière considérable en fonction des conditions physiques : la pression augmente en général la teneur en gaz jusqu’à une certaine limite de compressibilité de ces gaz. La chaleur agit en sens inverse : aux températures élevées, l’aptitude à la sorption est nettement diminuée.
- Ces diverses notions ont été acquises grâce à des expériences en laboratoire. On conçoit, en effet, qu’il est difficile de procéder à des mesures exactes dans le gisement lui-même et les échantillons de roches ou de charbons que l’on peut prélever libèrent spontanément leurs gaz dès qu’ils ne sont plus soumis aux pressions du fond. Citons l’expérience, assez spectaculaire, faite à diverses reprises : une « carotte » rapidement extraite et placée immédiatement dans un sac en plastique ne tarde pas à gonfler ce sac.
- Migrations et répartition des gaz
- Ce qui vient d’être exposé sur le comportement réciproque des roches et des gaz risque de donner une idée trop statique des gisements. Il faut en effet tenir compte de la circulation possible des gaz et à cet égard deux facteurs sont à considérer : la perméabilité des roches d’une part, la viscosité des gaz d’autre part.
- Sans entrer dans le détail des perméabilités relatives, on peut dégager un fait général : sauf exceptions, les roches encaissantes sont peu perméables, les veines de houille le sont bien davantage, surtout lorsqu’il s’agit de charbons flambants. Les anthracites très métamorphosés ne se laissent pas plus facilement traverser que les schistes ou les grès.
- Parmi les gaz, c’est le C02 qui manifeste la viscosité maximale, environ deux fois plus forte que celle du méthane. L’hydrogène est encore plus fluide que ce dernier.
- Ces facteurs sont de première importance pour expliquer les inégalités que l’on constate dans les gisements houillers de gaz. Il est admis que, pendant les premières phases de transformation du charbon, les gaz tendaient à se dégager en grandes quantités et sous de très fortes pressions. Cela est vrai surtout pour le méthane, produit en profondeur et qui cherchait normalement une issue
- 251
- p.251 - vue 255/551
-
-
-
- Fig. 2. — Chargement de charbon dans une galerie de mine à Gréasques (Provence).
- Au moment où il vient d’être extrait du front de taille, le charbon éboulé offre une grande surface d’échange, favorable au dégagement de grisou.
- (Photo Son et Lumière, Charbonnages de France).
- vers la surface où les pressions étaient moindres. Les itinéraires d’élection empruntés par lui étaient les veines perméables de charbon auxquelles s’ajoutaient évidemment les fissures des roches. C’est ainsi qu’ont pu s’accomplir de larges migrations qui, à première vue, se seraient faites en contournant l’obstacle opposé par les roches encaissantes. Mais ces roches étaient elles-mêmes au début de leurs transformations et pouvaient donc se laisser pénétrer. C’est ainsi qu’en dépit de leurs faibles porosité et perméabilité actuelles, elles jouent néanmoins un rôle important dans les gisements de gaz.
- Par ailleurs, la migration ascendante du méthane a été évidemment canalisée selon un certain nombre de facteurs tectoniques. Le gaz, par exemple, circulait moins facilement dans les veines restées horizontales que dans celles redressées par les plissements. S’il rencontrait le sommet d’un dôme anticlinal ou une « impasse » à travers un réseau de fractures, il se trouvait pris au piège (exactement comme dans le cas des gisements d’hydrocarbures).
- En définitive et tous les paramètres étant mis en jeu, on peut comprendre que, parvenus à leur état d’équilibre, les gisements houillers de gaz soient différents les uns des autres et que, dans un même gisement, il puisse exister des contrastes évidents entre les parties à circulation facile et les pièges tectoniques.
- N’insistons pas sur les zones supérieures où, comme nous l’avons vu, dominent tout d’abord COa, puis N2, car ces deux gaz sont évidemment les moins redoutables. Vient ensuite une zone intermédiaire où N2 perd progressivement en importance, tandis que s’accroît la teneur en CH4. Et finalement on aboutit à la zone CH4 qui est essentiellement la zone grisouteuse.
- Où débute cette zone ? Cela dépend des divers facteurs géologiques que nous avons évoqués. On peut la voir parfois s’amorcer à 60 m de profondeur, mais plus généralement le méthane ne commencera à jouer un rôle prédominant qu’au delà de quelques centaines de mètres.
- C’est à partir de là qu’il est utile de mesurer ou d’évaluer la concentration en CH4. Intervient en premier lieu la nature des veines de charbon : l’anthracite, par exemple, qui absorbe le gaz en grande quantité tout en s’opposant (de par son imperméabilité) aux migrations, a des chances de le retenir au maximum. La pression accroît cette teneur qui devrait donc augmenter linéairement comme la profondeur : il n’en est rien toutefois, étant donné que l’aptitude à la sorption diminue à mesure que la température s’élève. On admet donc finalement que la concentration en CH4 atteint son maximum vers une profondeur de 2 ooo m. Cela est surtout vrai pour les veines de charbon. Les roches encaissantes au contraire, où le gaz se trouve
- 252
- p.252 - vue 256/551
-
-
-
- à l’état libre dans leurs pores, constituent un magasin de plus en plus important en allant vers les grandes profondeurs et par conséquent les fortes pressions.
- Exploitation du gisement : rupture d’équilibre
- C’est sur cet ensemble de données que l’on peut désormais établir des prévisions cohérentes en ce qui concerne les plus ou moins grands risques de grisou. Et c’est en tenant compte de ces risques que l’exploitation de la mine doit être normalement conduite.
- Il est aisé de comprendre que l’équilibre qui s’est instauré dans un gisement alors qu’il était vierge va être profondément bouleversé par le creusement des puits et des galeries. Les roches et les veines de charbon se fissureront, ce qui ouvrira, pour les gaz, de nouvelles voies de circulation. Par les fissures et par les travaux des mines eux-mêmes, l’eau pénétrera et les gaz (le méthane en particulier) vont s’y dissoudre. Quant à l’air qui circule dans les galeries, il joue un rôle complexe, à la fois physique et chimique, sur les parois de ces galeries.
- Enfin et surtout, les pressions internes ainsi que les températures du gisement se modifieront en fonction des espaces vides créés par les galeries.
- C’est en raison de ces diverses perturbations que se produit le phénomène redouté : le dégagement du méthane, autrement dit le grisou.
- Comme on peut facilement le comprendre, les abords immédiats des galeries se vident rapidement de leurs gaz, et, au bout de quelques heures, pourraient être considérés comme pratiquement dégazés. Mais que se passe-t-il au moment où la haveuse mécanique (fig. i) attaque un front de taille ? Si cette longue lame garnie de dents pénètre dans la veine sur une large épaisseur, elle atteint une zone où le gaz est encore retenu et elle y provoque un dégagement intense. Par la suite, lorsque le charbon s’éboule en se fragmentant, la surface de contact de cette masse avec l’air augmente considérablement : un nouveau dégagement est donc à prévoir (fig. 2).
- Mais la veine de charbon que l’on attaque n’est pas seule à considérer. Surtout dans le cas des grandes profondeurs, il faut tenir compte des migrations de gaz, déclenchées par la rupture d’équilibre : elles peuvent se produire à travers une auréole d’une centaine de mètres de rayon qui, selon l’expérience acquise, se déploie davantage dans les niveaux qui surmontent la galerie. Parmi ces niveaux se trouvent des roches encaissantes, alternant, la plupart du temps, avec des veines de charbon.
- Cette migration se traduit par un dégagement lent et continu dans la galerie, qui peut se poursuivre pendant plusieurs mois.
- Fig. 3. — Préparation d’un tir à Merlebach (Lorraine).
- L’emploi judicieux des explosifs rapides permet d’attaquer la veine de charbon, même dans un milieu gri-souteux.
- (Photo Son et Lumière,
- Charbonnages de France).
- p.253 - vue 257/551
-
-
-
- Fig. 4. — Le grisoumètre portatif Verneuil.
- Cet appareil, réalisé par le CERCHAR, est fondé sur le gradient de résistivité d’un fil de platine en atmosphère grisouteuse.
- (Photo Jean Bouvry, Charbonnages de France).
- Les tactiques de sécurité
- De toute manière, la situation créée par l’exploitation d’un gisement grisouteux apparaît donc redoutable. Cependant les mineurs, qui savent analyser cette situation, peuvent y faire face en adoptant une tactique appropriée.
- La première précaution est d’ébranler au minimum cette gigantesque éponge imbibée de gaz que constituent les roches encaissantes : adopter par conséquent le mode de creusement qui risque le moins de provoquer un large réseau de fissures.
- D’autre part, et puisque les dégagements de gaz sont inévitables, la tactique rationnelle est de les répartir judicieusement dans l’espace et dans le temps, en laissant par exemple de longs intervalles entre les travaux préparatoires et les travaux d’extraction du charbon. Le rythme de l’extraction peut également être réglé pour ne produire qu’un faible débit de méthane. Il sera prudent, en certains cas, de limiter la profondeur des saignées pratiquées par les haveuses.
- Enfin, le rôle principal dans ces précautions de routine est évidemment de conduire la ventilation (que les mineurs appellent aérage) de manière à ne jamais laisser se produire dans les galeries une concentration de méthane qui excède un certain taux de sécurité. Ce taux a été fixé par les règlements internationaux à 1 pour 100. Bien entendu, pour se conformer à cette prescription, il est nécessaire de procéder à des mesures précises.
- C’est là le rôle dévolu aux appareils désignés sous le nom de grisoumètre s. L’un d’eux (fig. 4), en service en France depuis quelques années, a été conçu et réalisé par le CERCHAR (Centre de recherche des Charbonnages
- de France). L’organe essentiel de ce grisoumètre est un filament de platine qui, chauffé aux environs de 850°C, détermine la combustion catalytique du méthane. Lorsque cette combustion a lieu, la température du fil de platine s’élève, ce qui augmente sa résistivité. C’est ce paramètre qui est mesuré, grâce à un courant électrique qui passe à travers le fil.
- Le grisoumètre est portatif, ce qui permet d’effectuer journellement les mesures nécessaires, au long des différentes galeries de la mine. Des prélèvements d’air sont en outre effectués afin d’opérer des mesures plus complètes en laboratoire.
- D’autres précautions, sur lesquelles nous ne pouvons nous étendre, concernent les explosifs employés dans les mines. On pourrait croire, à première vue, que les tirs exécutés au sein de couches grisouteuses comportent un extrême danger (fig. 3). Il n’en est rien cependant, à condition d’utiliser des explosifs à détonation rapide et en excluant surtout les poudres lentes, telles que la poudre noire. Ce problème de sécurité des explosifs a été étudié dans des galeries expérimentales (fig. 5), rendues volontairement très grisouteuses et où cependant les tirs n’ont donné lieu à aucune inflammation du méthane. Par surcroît de précaution, le CERCHAR a mis au point des procédés de tir sous pression d’eau, où l’explosion se trouve isolée de la masse des gaz inflammables (fig. 6).
- Le captage du grisou
- Mais une question vient tout naturellement à l’esprit : n’est-il pas possible, à une certaine phase de l’exploitation, de vider systématiquement le gisement de ce méthane qui présente de tels dangers ? Ce dégazage préalable est d’autant plus opportun que le méthane, on le sait, est le constituant principal du traditionnel gaz d’éclairage et des gaz de
- Fig. j. — Etude expérimentale des explosifs de sécurité.
- Dans un tunnel en tôle d’acier, une explosion va être déclenchée en présence de grisou. Cette expérience est réalisée dans les établissements du CERCHAR à Verneuil (Oise).
- (Photo Jean Bouvry, Charbonnages de France).
- p.254 - vue 258/551
-
-
-
- cokeries, couramment employés comme combustibles ou comme matières premières de la carbochimie.
- C’est pourquoi le dégazage (ou captage du grisou) se pratique en de nombreuses mines qui, de ce fait, sont exploitées successivement, ou simultanément, comme sources de gaz naturel et de combustibles solides.
- Les procédés de captage varient selon la structure du gisement et celle de l’exploitation. Mais d’une manière générale, ils font appel à des trous de sonde, percés à travers le toit ou les parois d’une galerie et se déployant en éventail afin de vider de gaz l’auréole grisouteuse qui entoure cette galerie. Ils sont donc inclinés selon des angles de 30 à 450 et peuvent être poussés jusqu’à des distances de 50 à 80 m. Ils peuvent être, selon les cas, garnis de ciment ou habillés de tubes métalliques. On les raccorde en tout cas à un système de tuyauteries qui acheminent le gaz vers un réseau collecteur.
- L’usage est de recueillir le gaz quand sa teneur en méthane dépasse 30 pour 100. C’est aux environs de 50 pour 100 que le grisou a un pouvoir calorifique équivalent à celui du gaz de cokerie.
- Impesanteur et fertilité
- Les effets de l’impesanteur sur la fertilité seront étudiés prochainement après le lancement par fusée de la capsule Bios I (Biological Investigation of Space). L’engin, qui pèse 61 kg, doit effectuer un vol à travers les ceintures de radiations de Van Allen avant de revenir sur la Terre. Par ailleurs, il sera soustrait à la pesanteur pendant 25 minutes. Durant cette période des œufs d’oursin seront mis en contact avec du sperme grâce à un mécanisme adéquat. Cela permettra de voir si la fécondation se produit et, dans ce cas, si la division cellulaire ultérieure est perturbée. Les effets des radiations des ceintures de Van Allen sur les chromosomes humains feront également l’objet d’une étude approfondie. (.Information U. S. I. S.).
- Fig. 6. — Essais de l’appareillage électrique des houillères.
- Sous une certaine concentration, l’air chargé de grisou est susceptible de s’enflammer au contact des appareils électriques en service dans la mine. Les vérifications nécessaires de ces appareils ont lieu au CERCHAR. A gauche, le technicien descend la cloche sur l’appareil en cours d’expérimentation. A droite, il surveille son fonctionnement à travers une lucarne.
- {Photo Jean Bouvry, Charbonnages de France).
- Le débit de chaque trou de sonde est évidemment difficile à prévoir : en certains cas, il baisse rapidement et doit être abandonné au bout de quelques jours. Il arrive au contraire que le captage puisse se poursuivre pendant un an. Mais en moyenne la durée est de trois à quatre mois.
- Dans les houillères du Nord et du Pas-de-Calais, un réseau a été établi. Alimenté par les quelques mines grisou-teuses du bassin, il recueille, tous les mois, un volume de gaz qui se chiffre par quelques millions de mètres cubes.
- Tel est l’aspect économique d’un problème dont nous nous sommes efforcé de montrer la complexité et dont on ne peut dire (de douloureuses expériences nous l’apprennent) qu’il soit définitivement et pleinement résolu.
- Yves Mériel.
- Vaccination par aérosols
- La pratique du vaccin sous-cutané ou intradermique se passe d’explications. Nous avons tous été vaccinés selon ces méthodes contre la variole, la diphtérie, le tétanos, etc. Un médecin soviétique, le docteur Serge Smirnov, vient d’annoncer la mise au point d’une méthode nouvelle qui utilise les aérosols et dont la simplicité est frappante : dans une grande pièce pouvant recevoir 100 à 120 personnes à la fois, on dispose un générateur d’aérosol et un ventilateur. De l’appareil s’échappe du vaccin sec déposé sur une poudre inerte. La ventilation entre en action et la pièce est rapidement saturée de vaccin qui pénètre alors dans les voies respiratoires des patients (Bureau soviétique d’information).
- 255
- p.255 - vue 259/551
-
-
-
- Comment les Mammifères sont sortis
- des Reptiles mammaliens
- Le grand Traité de Paléontologie publié par la librairie Masson sous la direction du professeur Jean Piveteau, membre de l’Institut, sera bientôt complet : il n’y manque plus que le tome IV, consacré aux Poissons. Le 2e volume du tome VI, paru en 1958, traitait de l’évolution des Mammifères. Le Ier volume, récemment paru, expose toutes les données du grand problème de leur origine; c’est dire qu’on y examine aussi, auparavant, la classe des Reptiles mammaliens (1).
- Cette œuvre vient à son heure. Les idées que l’on peut se faire de l’origine des Mammifères ont beaucoup changé depuis un quart de siècle et, bien qu’il subsiste nombre de points obscurs, elles se sont grandement précisées au cours des récentes années.
- Les grandes découvertes paléontologiques du 19e siècle, principalement celles qui concernent les Vertébrés, ont apporté une confirmation éclatante de l’idée d’évolution. Elles nous ont montré, apparaissant successivement dans le passé lointain de la planète, les grands groupes de Vertébrés dans l’ordre même que le transformisme devait assigner à leurs transformations logiques : d’abord les Poissons, en pleine ère primaire, puis les Batraciens vers la fin de cette même ère, ensuite les Reptiles s’épanouissant au secondaire, et enfin les Oiseaux et les Mammifères leur succédant à l’ère tertiaire, l’Homme couronnant le tout dans les temps quaternaires.
- Cette vue générale, certes, n’a pas été démentie. Comme tous les autres groupes d’animaux (et de plantes), les Vertébrés sont sortis des eaux et leur histoire chronologique montre une adaptation de plus en plus parfaite à une vie exclusivement terrestre et à une autonomie de plus en plus marquée à l’égard des conditions du milieu, en même temps qu’un développement graduel des fonctions supérieures : intelligence et fonctions de relation. Mais, surtout au cours des récentes années, les études beaucoup plus fines et détaillées de l’anatomie des fossiles ont obligé à prendre en considération des faits qui avaient échappé aux premiers descripteurs, et on peut même dire que nos conceptions classificatrices se sont, sinon totalement, du moins profondément modifiées.
- Ainsi on peut toujours considérer que les Oiseaux sortent directement d’un groupe de Reptiles lui-même issu des Batraciens Stégocéphales de l’ère primaire. Mais les
- 1. Traité de Paléontologie publié sous la direction de Jean Piveteau, membre de l’Institut, professeur à la Sorbonne. Tome VI, Premier volume : Mammifères, Origine reptilienne, Evolution, par J. Piveteau, Ch. Devillers, J.-P. Lehman, J. Orlov, P. Tchudinov, D. Heyler, J. Anthony, C. Dechaseaux, H. Tobien, M. Crusafont Pairo, J. Truyols, C. Guth, R. Lavocat, R. Hoffs-TETTER, L. GlNSBURG, Y. COPPENS, R. SABAN, J. VlRET, D. SlGOGNEAU. I Vol. 17 X 25, i 138 p., 970 fig., i planche hors-texte. Masson, Paris, 1961. Prix, broché : 240 NF; cartonné toile, 254 NF.
- Mammifères ont une origine différente. Ils ont eux aussi comme ancêtres des Reptiles, les Reptiles dits mammaliens, mais on peut penser aujourd’hui que ces Reptiles mammaliens n’ont sans doute pas la même origine que les Reptiles d’où procèdent les Oiseaux.
- Il y a Reptile et Reptile
- Dès le siècle dernier, on avait aperçu que certains Reptiles fossiles de la fin de l’ère primaire et du début de l’ère secondaire avaient des affinités avec les Mammifères, et au début de ce siècle Osborn avait divisé les Reptiles en deux grands groupes, les uns pourvus de deux fosses temporales et ayant des affinités avec les Oiseaux, les autres n’ayant qu’une fosse temporale et montrant des ressemblances avec les Mammifères. Plus près de nous, en 1916, l’anatomiste Goodrich, étudiant surtout le système circulatoire, montra que les Oiseaux et les Reptiles actuels devaient à ce point de vue être nettement séparés des Mammifères et, étendant la séparation aux Reptiles fossiles, il créa deux grands groupes qu’il appela Sauropsidés et Théropsidés, termes qui sont maintenant universellement employés.
- Cependant, l’anatomie du cœur et du système circulatoire ne peut pas être directement connue sur les fossiles. Il fallait chercher un critère qui intéressât le squelette, puisque la plupart des fossiles ne nous sont connus que par leurs os. Tout récemment, le paléontologiste Watson a cru trouver ce critère dans l’anatomie de l’oreille moyenne. Certains détails de cette thèse sont critiqués mais il n’en
- Fig. 1. — Crâne d’un Reptile mammalien de l’époque permienne.
- Reptile Thérocéphale du genre Hyaenasuchus. La mandibule montre des parties bien distinctes : à droite, l’os dentaire nettement séparé de l’angulaire et des autres os postérieurs qui ont régressé et émigré vers l’arrière au cours de l’évolution vers le type Mammifère (1/4 gr. nat.).
- (D’après Broom, dessin extrait de J.-P. Lehman, Traité de Paléontologie de
- J. Piveteau, Tome VI Masson, Paris).
- 256
- p.256 - vue 260/551
-
-
-
- reste pas moins que si l’on considère l’ensemble d’un certain nombre de dispositions anatomiques (oreille, os de la tête, fosses temporales, évolution de la mandibule, etc.), les Reptiles, fossiles et actuels, ne doivent plus nous apparaître comme un groupe homogène. Le mot Reptile ne doit donc plus désigner une unité de la classification; , c’est simplement un stade évolutif présentant un certain nombre de caractères communs, un modèle si l’on veut ou une formule de vie, qui a été réalisée dans au moins deux lignées bien distinctes : d’une part les Sauropsidés, comprenant les Reptiles qui ont dominé la scène à l’ère secondaire (donc en particulier les Dinosauriens), tous les Reptiles actuels et enfin les Oiseaux; et d’autre part les Théropsidés, comprenant les Reptiles fossiles dits mamma-liens, tous fossiles, et les Mammifères qui en sont manifestement issus.
- En quoi les Mammifères diffèrent-ils de leurs ancêtres Reptiles mammaliens ? Ce sont des animaux couverts de poils (ce qui est en rapport avec leur température interne invariable), qui mettent leurs petits au monde vivants, et les nourrissent avec le lait de leurs mamelles. Anatomiquement, ils se distinguent par une réduction du nombre des os du crâne, un grand développement des hémisphères cérébraux, une mandibule formée d’un seul os, le dentaire; les autres os qui chez le Reptile formaient la mandibule ont chez eux régressé et émigré pour former les osselets de l’oreille, qui est donc entièrement différente. Les os de leurs membres sont verticaux, leur conférant une marche et une course beaucoup plus aisées. Ces os, au lieu de s’accroître par leur extrémité pendant la vie de l’individu, acquièrent le mode de croissance intercalaire qui permet une solidité précoce des articulations. Et naturellement à ces caractères s’ajoutent beaucoup d’autres détails plus ou moins importants, mais qui font des Mammifères un ensemble très homogène.
- Si l’on cherche maintenant à saisir le moment où s’est constitué le type Mammifère à partir du Reptile mammalien, on est extrêmement embarrassé. Ce n’est pas qu’on ne voie pas assez bien d’où il a pu sortir. A travers les Théropsidés de l’ère primaire puis du début du secondaire, qui s’appellent les Pélycosauriens, les Gorgonopsiens, les Cynodontes, les Ictidosauriens, et leurs successeurs, on voit bien des caractères mammaliens se dessiner puis s’affirmer peu à peu, bien qu’on ne possède pas évidemment la série complète des intermédiaires. On voit certains os crâniens émigrer vers l’arrière et d’autres fusionner, l’os dentaire se renforcer pour former la pièce principale de la mandibule, dont il sera plus tard la pièce unique, les dents acquérir leur différenciation caractéristique; on voit les narines émigrer vers l’avant et le dessus du museau pour s’apprêter à se rejoindre dans un orifice unique; on voit les membres se redresser, avec les modifications corrélatives des ceintures; on voit se mettre^en place les insertions musculaires qui vont de pair avec ces transformations osseuses; on voit les os acquérir leur croissance intercalaire, etc.
- Mais toutes ces transformations semblent bien avoir été très progressives. Il y a certes, dans nos connaissances, un hiatus considérable entre les Ictidosauriens et les Mammifères indubitables qui apparaissent déjà bien constitués au secondaire, à l’époque jurassique. En particulier, chez ces Théropsidés dont les derniers ont été contempo-
- Ang —
- Fig. 2. — Evolution de la mandibule chez les Reptiles mammaliens, et comparaison avec l’embryon de Sarigue (Mammifère Marsupial).
- a, Captrorhinus, un Reptile primitif du Permien inférieur; b, Dimetrodon, un Pélycosaurien du Permien inférieur; c, Arctognathus, un Gorgonopsien du Permien supérieur; d, Protacmon, un Cynodonte du Trias; e, embryon de Sarigue. Ang, angulaire (hachuré obliquement); D, dentaire; Epi, epiptérygoïde; Pt, ptérygoïde (hachuré verticalement) (l’épiptérygoïde et le ptérygoïde sont des os dermiques du palais); O, carré. On remarque, de l’un à l’autre de ces animaux, que l’os dentaire s’étend vers le haut et vers l’arrière tandis que les os de l’arrière de la mandibule (articulaire et angulaire) régressent. L’articulation de la mandibule, carré-articulaire chez les Reptiles, deviendra squamoso-dentaire chez les Mammifèffes, tandis que les os de l’arrière de la mandibule des Reptiles seront transformés en osselets de l’oreille moyenne; le carré deviendra l’enclume et l’articulaire deviendra le marteau. Chez l’embryon des Marsupiaux, la mandibule a encore une articulation reptilienne qui disparaîtra avec le développement de l’animal.
- (D’après Watson, figure extraite de J.-P. Lehman, Uévolution des vertébrés
- inférieurs, Dunod, Paris.)
- rains des premiers Mammifères, l’articulation reptilienne de la mandibule devait encore être fonctionnelle, bien que la libération des os post-dentaires fût déjà très avancée. Au total pourtant, certains paléontologistes estiment que ces animaux étaient déjà beaucoup plus mammaliens que reptiliens.
- 257
- p.257 - vue 261/551
-
-
-
- Reptiles à sang chaud ?
- Nous voudrions savoir, évidemment, quand sont apparus, dans la lignée des Théropsidés, l’homéothermie (c’est-à-dire la régulation de la température interne) et le type de viviparité qui est celui des Mammifères. Il semble que ces acquisitions, elles aussi, ont été progressives. Watson a supposé que certains Ictidosauriens étaient déjà homéo-thermes. Il invoque notamment la présence chez ces animaux d’une cage thoracique à côtes peu mobiles, ce qui suppose l’existence d’un diaphragme et par conséquent des échanges respiratoires plus intenses que chez les autres Reptiles. Le moulage du crâne montre un cervelet très développé qui évoque un animal très mobile aux mouvements bien coordonnés, consommant par conséquent beaucoup d’oxygène. Des considérations anatomiques assez subtiles ont aussi conduit à supposer que ces animaux possédaient des glandes sudoripares, et ceux-là, ou d’autres, pourraient avoir eu déjà des poils. L’étude des dents montre que la denture des jeunes devait être très simple, et que leur nourriture était donc différente
- Lecteur binoculaire pour vues
- Pour ceux qui ont la vue faible, un optométriste australien, le docteur Schultz, vient d’inventer un petit lecteur binoculaire qui semble présenter d’intéressantes caractéristiques. Le grossissement est obtenu par un miroir concave calculé de manière à donner un
- de celle des adultes. On peut donc croire, ou que la mère mâchait les aliments avant de les donner à ses petits, ou bien même qu’elle possédait déjà des glandes mammaires. La présence de glandes sudoripares, si elle était prouvée, viendrait à l’appui de cette hypothèse, car les glandes mammaires, histologiquement, sont des glandes sudoripares modifiées. On a supposé aussi -que les Cynodontes pouvaient être déjà homéothermes et vivipares.
- De tout cela il résulte que la coupure entre les Reptiles mammaliens et les Mammifères n’est pas aussi nette qu’on l’imaginait, et que, par contre, cet ensemble des Thérop-sidés n’a peut-être aucune origine commune avec les autres Reptiles. Certains paléontologistes pensent même aujourd’hui que si les Batraciens Stégocéphales ont donné naissance aux Sauropsidés, c’est-à-dire aux Reptiles aviens et par eux aux Oiseaux, les Théropsidés ont une toute autre origine. Ils proviendraient même plus directement des Poissons Crossoptégyriens qui barbotaient dans les lagunes de l’ère primaire. Préciser cela, s’il se peut, sera une des tâches de la Paléontologie de demain.
- Jean Grive.
- faibles
- champ de vision assez grand sans distorsion. Il suffit de poser l’appareil sur le texte à déchiffrer qui apparaît considérablement agrandi, et lisible pour les lecteurs les plus myopes. {Photo aimablement communiquée par V Ambassade d'Australie').
- p.258 - vue 262/551
-
-
-
- Système « Hi-Fix » :
- localisation radio en mer par tous les temps
- L’impérieuse nécessité pour un navire ou un avion de connaître à tout instant sa position exacte a donné naissance à divers systèmes de radionavigation parmi lesquels le système Decca, utilisé par plus de 6 ooo navires, est l’un des plus connus. L’une des caractéristiques de ce système est sa portée qui, dans le cas du trafic aérien et maritime, doit être suffisamment grande pour répondre aux besoins de l’exploitation.
- Certaines activités, toutefois, demandent, avec une portée relativement faible, une précision très supérieure : c’est le cas, en particulier, des relevés hydrographiques, dans lesquels l’étendue des zones de travail est faible, mais où la position du « mobile » d’observation qu’est le navire doit être exactement connue.
- Jusqu’alors, la localisation du mobile se faisait généralement par des visées optiques de points géodésiques. La précision de cette méthode, tout au moins sa précision théorique, est excellente, mais c’est un procédé lent dont la mise en œuvre dépend à peu près complètement des conditions atmosphériques et de l’état de la mer. Les opérations sont évidemment impossibles par temps bouché (brume, pluie, etc.), alors que la mer est généralement calme, et elles deviennent délicates par mer agitée, en raison de l’instabilité du mobile qui gêne la visée, bien que le ciel soit, à ce moment-là, généralement clair. Ajoutons que les « portées » optiques sont relativement limitées, ce qui constitue encore une limitation de la méthode. Les temps de travail productif se trouvent, de ce fait, si souvent et si fortement diminués, que la mise au point d’une méthode plus rentable était indispensable. Le nouveau système Decca « Hi-Fix » a permis de résoudre le problème de manière très élégante.
- Lorsque deux émetteurs lancent des trains d’ondes en synchronisme parfait et sur la même fréquence, il se produit dans l’espace des interférences stationnaires. Les lieux de l’espace où les ondes sont en phase sont des hyperboles ayant pour foyer les deux émetteurs, et les réseaux d’hyperboles ainsi créés ont une position géographique définie et constante.
- Dans le système Hi-Fix (fig. i) on dispose à terre de trois stations d’émission : une station centrale dite « Maître » et deux stations secondaires, asservies à la première, éloignées de quelques kilomètres et dites « Esclaves » (fig. 2). Il se forme dans ces conditions deux réseaux d’hyperboles, le premier ayant pour foyer le « Maître » et l’un des
- « Esclaves », le second ayant pour foyer le « Maître » et l’autre « Esclave ». Ces réseaux se recoupent et, reportés à l’avance, par le calcul, sur une carte, ils définissent une sorte de « quadrillage » où chaque hyperbole porte un numéro d’identification.
- La distance entre deux hyperboles consécutives s’appelle un chenal. Comptée sur la ligne qui joint deux émetteurs, elle est égale à la moitié de la longueur d’onde, soit ici, 70 m. Par ailleurs, lorsqu’on passe d’une hyperbole à la suivante, la phase tourne de o à 360°.
- Pour tirer parti de la « structure » radioélectrique ainsi créée, on utilise à bord du navire un récepteur qui compte et mesure les rotations de phase, séparément pour chacun des deux réseaux d’hyperboles. Deux compteurs décimaux, à tambours, convenablement calés au départ pour définir l’origine du comptage, expriment les coordonnées du mobile au centième de chenal près. Par exemple, lorsque le premier compteur indique 17,70 et le second 2,30, comme on le voit sur l’appareil de la figure 3, le navire se trouve :
- •—entre les hyperboles nos 17 et 18 dans le réseau 1;
- — entre les hyperboles nos 2 et 3 dans le réseau 2.
- Il suffit alors d’une rapide interpolation effectuée sur la carte entre les hyperboles 17 et 18 d’une patt, 2 et 3
- Fig. I. — Réseaux d’hyperboles obtenus avec le système « Hi-Fix ».
- Le réseau i a pour foyers la station « Maître» A et l’« Esclave» B, tandis que le réseau 2 a pour foyers le « Maître » A et l’autre « Esclave » C.
- 259
- p.259 - vue 263/551
-
-
-
- Fig. 2. — Station « Esclave » d’Octeville (Manche).
- On distingue, de gauche à droite : le groupe électrogène de recharge des batteries, l’antenne de réception qui capte l’émission de la station « Maître » destinée à piloter l’émetteur, une antenne pour les communications de service par radiotéléphonie entre les stations, la remorque destinée à protéger le matériel et le surveillant des intempéries et enfin l’antenne d’émission de 9 m de hauteur.
- ' (Photo René Bouillot, C.S.F.).
- d’autre part, pour déterminer la position du navire. La précision dépend évidemment de la zone où opère l’esquif, elle est de l’ordre de x m sur les lignes de base où les hyperboles sont les plus resserrées, et ceci, quelles que soient les conditions atmosphériques.
- *
- * *
- L’équipement Hi-Fix est avant tout un équipement mobile, léger et robuste, utilisant un matériel simple dont l’exploitation n’exige aucune qualification particulière de la part de l’utilisateur. Un seul spécialiste radio est nécessaire pour l’entretien d’une chaîne d’émission complète.
- Chaque station d’émission comprend un caisson de réception pour le contrôle de phase et un caisson d’émission. L’antenne d’émission est un mât métallique tubulaire démontable de 9 m environ (fig. 2). L’alimentation est effectuée à partir d’une batterie 24 V, rechargée par un groupe électrogène. Un abri léger (tente, remorque, etc.) suffit à assurer la protection des caissons radio et du surveillant de la station contre les intempéries.
- On utilise à volonté l’une des 5 fréquences préréglées
- dans la gamme 1 650-2 400 kilocycles par seconde. Les risques de perturbations radioélectriques apportés par le fonctionnement du système sont très faibles, ce qui est important dans les zones portuaires où les communications radio sont nombreuses.
- La portée est de 20 à 40 milles nautiques (36 à 72 km). Elle peut atteindre 50 à 100 milles nautiques par l’adjonction de caissons émetteurs supplémentaires.
- Signalons enfin une variante intéressante de l’installation : si l’émetteur « Maître » est monté sur le bateau, ainsi que le récepteur, les deux stations « Esclave » étant à terre, les réseaux d’interférences ne sont plus des hyperboles, mais des cercles concentriques centrés sur les « Esclaves ». La précision obtenue dans cette disposition est encore améliorée. Toutefois, il n’est possible, dans ce cas, d’équiper qu’un seul navire, alors que dans l’implantation hyperbolique, un nombre illimité d’embarcations toutes équipées d’un récepteur, peuvent utiliser le système.
- Parmi les accessoires d’exploitation qui ont été conçus pour tirer le meilleur parti des possibilités de ce système, il faut signaler tout particulièrement un enregistreur baptisé « track-plotter », c’est-à-dire «traceur déroute». Une carte, qui se déroule automatiquement, porte en surimpression les réseaux d’hyperboles. Un style, calé au départ, trace alors la route exacte suivie par le bateau. En portant préalablement sur la carte un itinéraire défini tel que, par exemple, une série de lignes de sondages, le pilote pourra les suivre avec la plus grande facilité et la plus grande précision, même sans visibilité.
- 260
- p.260 - vue 264/551
-
-
-
- L’hydrographie est l’un des domaines préférentiels d’application du « Hi-Fix ». Une installation couvre en effet une zone suffisamment vaste pour que le déplacement des stations ne soit pas souvent nécessaire. Le « quadrillage » obtenu permet le contrôle de la cartographie côtière, ou son établissement dans les régions mal connues, le relevé précis des fonds, l’étude des courants littoraux et de l’amplitude des marées en des points définis.
- La maintenance portuaire est également un domaine très important. Le système permet le contrôle des chenaux, la pose des balises en des points définis et le contrôle de leur dérive, l’établissement des programmes de drainage, la localisation des épaves, des ensablements et autres obstacles à la navigation. En cas de sinistre en rade, la localisation précise du navire sinistré, notamment dans l’obscurité, peut permettre une mise en œuvre plus exacte et plus efficace des moyens de sauvetage.
- Citons encore les travaux maritimes où les tracés d’ouvrages peuvent être définis et balisés avec précision, les travaux d’immersion de câbles, d’oléoducs ou de gazoducs.
- Enfin, l’un des domaines d’avenir est l’exploitation du plateau continental : il est vraisemblable en effet que l’on cherchera de plus en plus à tirer parti des ressources minières de ces zones actuellement improductives. le balisage immatériel que le « Hi-Fix » est à même de fournir sera alors d’une importance qu’on ne saurait sous-estimer.
- J. C.
- Fig. 3. — Récepteur Decca « Hi-Fix » sur une vedette du port du Havre.
- Les deux compteurs de gauche donnent les numéros des hyperboles des deux réseaux (les chiffres en gris donnent le 1/100 d’hyperbole). Le compteur de droite sert uniquement pour le calage des phases.
- (Photo René Bouillot, C.S.F.)
- Fig. 3. — Tracé des lignes de sondage sur la carte au cours d’essais effectués en collaboration avec divers organismes du port autonome du Havre.
- Les traces sont effectués ici par M. Garrigue, che des sondages du port.
- (Photo René Bouillot, C.S.F.).
- 261
- p.261 - vue 265/551
-
-
-
- Lac de sel pour record de vitesse automobile
- C’est sur le lac Eyre, en Australie centrale, que le champion Donald Campbell devait tenter, en ce printemps, de battre le record du monde de vitesse automobile. A cet effet, il a fallu déblayer quelque 2 000 t de sel pour dégager une piste de 3 5 km de long sur 27 m de large. De l’avis des spécialistes, ce lac offrait une surface optimale pour réaliser cet exploit sportif. On sait que de précédents records ont été établis sur une formation analogue, le Grand Lac Salé, aux Etats-Unis.
- Comme le Grand Lac Salé, le lac Eyre est une gigantesque cuvette de sel, située à 11 m au-dessous du niveau de la mer. Sa superficie est de 10 400 km2. Lorsque l’eau l’emplit,
- Fig. 1. — Une île du lac Eyre en 1950 quand le lac fut rempli d’eau à la suite de pluies torrentielles.
- (Photo aérienne aimablement communiquée par l’Ambassade d’Australie).
- ce qui est exceptionnel, c’est une véritable mer intérieure. Depuis sa découverte, en 1841, par l’explorateur Edward John Eyre, ce lac-fantôme a été un vrai lac pour la première fois en 1950, à la suite de pluies intenses sur cette région, en général désertique. On a pu alors le parcourir en bateau, tandis que la vie animale et végétale s’épanouissait hâtivement sur ses rives.
- 262
- p.262 - vue 266/551
-
-
-
- Le succès d’un mauvais livre : Le Matin des Magiciens
- Décidons-nous à parler d’un livre qui, pour un esprit scientifique ou simplement positif, représente une espèce de scandale. Car il paraît que ce livre, qui prétend juger la science et les savants, connaît un grand succès. Plongeons-nous donc dans ce Matin des magiciens de MM. Pauwels et Bergier.
- Il y a deux façons de s’en prendre à la science : on peut lui reprocher de ne pas faire le bonheur de l’humanité, même de la mener à sa destruction; et on peut l’accuser de faillir à sa mission intellectuelle en négligeant volontairement toute une catégorie de faits parce que, dit-on alors, les savants ont établi des dogmes d’un genre nouveau, et que tout ce qui n’est pas conforme à ces dogmes est par eux rejeté sans examen. C’est cette deuxième accusation que soutient Le Matin des magiciens. Le sujet est peu original. Il semble même que depuis quelque temps, ce soit redevenu un thème à la mode. En jugeant ce livre, on en juge donc en même temps nombre d’autres.
- Le thème ici, se décompose en plusieurs, qui se retrouvent constamment mélangés, avec un déplorable manque de méthode ; mais ce paraît être voulu car il semble que les auteurs cherchent à dérouter le lecteur, à l’inquiéter, à le secouer dans tous les sens, plutôt qu’à le faire réfléchir et encore moins à l’éclairer.
- Mettons un peu d’ordre dans tout cela. Le premier de ces thèmes, qui nourrit principalement le premier chapitre, a depuis longtemps reçu un nom : le « stupide dix-neuvième siècle », avec son illusion majeure, le « scientisme ». Ce siècle, dont un autre ouvrage récent, magistral celui-là (*), nous montre qu’il a achevé d’établir les bases des grandes disciplines scientifiques, serait en réalité un siècle d’obscurantisme.
- On est là, d’emblée, dans la plus fâcheuse confusion. Il est vrai que des idées nouvelles et justes n’ont pas été prises tout de suite en considération : par exemple l’existence de fossiles préhumains et d’une industrie préhistorique. Mais qui ne voit que c’était le fait d’esprits attardés, qui justement ne vivaient pas avec leur siècle ? Au contraire, là comme en tant de domaines, le mérite du 19e siècle est d’avoir découvert la préhistoire et de l’avoir fondée comme science. (A noter que, par ailleurs, les auteurs se plaisent à imaginer qu’un démon malicieux a pu disposer dans les couches géologiques des fossiles artificiels destinés à nous tromper. A quoi bon, dès lors, s’en occuper ? Mais on n’est pas à une contradiction près).
- D’autre part, on verse au passif du 19e siècle que ses idées sur la réalité physique devront être bouleversées au 20e, par exemple par Einstein. Que les auteurs relisent donc ce qu’Einstein a lui-même écrit sur le sujet. Si Newton n’avait pas existé au 18e et Maxwell au 19e, Einstein n’aurait pas existé non plus, d’abord parce que la Relativité
- 1. Histoire générale des Sciences, publiée sous la direction de René Taton. Tome 3 : ha Science contemporaine. Volume I : Le XIXe siècle. Presses Universitaires de France. Nous avons déjà donné un compte rendu de cet ouvrage.
- n’est qu’une théorie plus générale qui englobe toutes les précédentes beaucoup plus qu’elle ne les détruit, ensuite parce que ce sont les expériences accumulées au 19e siècle qui ont obligé le 20e à imaginer de nouvelles théories. L’un des auteurs ayant, paraît-il, une formation scientifique, on est étonné de telles ignorances.
- Passons maintenant à un grief fondamental, celui de négliger des faits. Mais les faits dont parlent nos auteurs, le plus souvent de façon évasive, sans citer jamais aucune source sûre, ne sont pas des faits au sens où l’entend un esprit positif. Bien qu’ils laissent souvent planer un doute sur leur conviction, on voit qu’ils rangent dans les faits tout ce qui a été l’objet d’un récit quelconque : des poissons sont tombés des nuages sur Singapour en 1861, des haches de pierre sont tombées avec la foudre à Sumatra, les spirites font tourner les tables, les médiums font sortir des ectoplasmes, etc. La liste de ces prétendus faits est d’ailleurs extrêmement pauvre, on parle de faits fantastiques sans dire la plupart du temps en quoi ils consistent. Si les auteurs ont un art, c’est celui de laisser supposer des choses précises derrière des expressions vagues.
- Ils ne s’appuient pas moins sur cette piètre documentation pour mettre en cause les fondements de la méthode scientifique. La science, disent-ils, isole les phénomènes pour les observer, alors que rien n’est isolable, que toute chose isolée cesse d’exister. Il faut donc penser le réel dans sa totalité.
- Ainsi les auteurs paraissent ignorer que les faits bruts, précisément, ne sont rien en eux-mêmes et que la science consiste en la recherche des lois, c’est-à-dire de ce qui relie entre eux des faits soigneusement délimités. D’ailleurs, la façon dont ils conçoivent le travail du savant est une étrange caricature. Ils mettent en opposition, par exemple, le paysan qui vit dans les champs, en plein air, et qui sait bien, disent-ils, s’il tombe des pierres du ciel, et le savant qui se renferme dans son laboratoire et dans sa salle de conférences. S’ils poursuivaient logiquement ce raisonnement, ils en concluraient que c’est le paysan qui a la véritable connaissance de toutes les sciences de la nature : botanique, zoologie, géologie, astronomie ! Car, n’est-ce pas, le botaniste ni le géologue ne vont jamais sur le terrain et l’astronome ne regarde jamais le ciel ! Mais leur méthode d’exposition se révèle justement dans cet exemple : insinuer, troubler le lecteur par une remarque superficielle (fausse en l’espèce) et surtout ne pas trop la pousser, passer aussitôt à autre chose, pour qu’on n’ait pas le temps d’en voir l’absurdité.
- Quelle est donc la méthode préconisée pour saisir le réel total ? Eh bien, tout accepter en vrac, ne rien approfondir, ne rien séparer pour l’examiner à loisir. D’ailleurs, le fait le plus intéressant, c’est le fait fantastique (le livre porte comme sous-titre : Introduction au réalisme fantastique), c’est-à-dire ce qui est bizarre, incompréhensible, ne paraît pas se relier à d’autres faits connus, ni se laisser expliquer.
- 263
- p.263 - vue 267/551
-
-
-
- Dès qu’un fait est contrôlé, vérifié, expliqué, en un mot qu’il cesse d’être fantastique, il perd sans doute de son intérêt ? Que dis-je ? il perd même de sa réalité car les auteurs, qui accueillent avec tant de faveur tous les faits non établis, suspectent volontiers tout ce que la science croit avoir constaté.
- L’histoire naturelle, en particulier, leur semble entièrement à refaire. Leur idéal, c’est d’en revenir aux bestiaires de jadis, à l’Histoire naturelle de Pline, c’est-à-dire à un fatras assez incohérent, mélange d’observations justes et de fables dont nous avons la faiblesse de les croire ridicules.
- Mais voici une idée encore plus étonnante, quoique loin d’être nouvelle. C’est que, loin dans le passé, les hommes ont possédé une science égale et même supérieure à la nôtre. Une science et aussi une technique. Un auteur a imaginé, dans un roman, que les Incas polissaient des pierres avec des substances radioactives. Les antibiotiques ont été découverts il y a des milliers d’années. Comment se fait-il qu’il ne nous soit rien resté de tout cela ? Nos auteurs observent que la technique, en se perfectionnant, se simplifie. C’est en effet vrai pour certains objets, par exemple pour les postes de T.S.F. en miniature. C’est faux pour d’autres, une centrale atomique est d’une complication inouïe, mais on préfère ne pas en parler. Quoi qu’il en soit, d’antiques civilisations ont eu une science tellement perfectionnée, leurs instruments étaient tellement simples qu’il n’en est rien resté ! D’ailleurs, il en est peut-être resté quelque chose, mais on ne s’occupe pas de le chercher. Cela fait partie aussi des faits que la science moderne refuse de voir.
- Naturellement l’alchimie était aussi une vraie science : les alchimistes avaient le secret des transmutations, avec de l’argent faisaient de l’or et distillaient une eau qui était un élixir de longue vie. Ils ont écrit cent mille livres. A qui fera-t-on croire, disent MM. Pauwels et Bergier, que des hommes aient pris la peine, depuis 4 000 ans, d’écrire 100 000 ouvrages sur une science qui n’existait pas ? Là encore on entretient une confusion. Nul ne prétend qu’il n’existait pas une doctrine des alchimistes, une science si l’on veut, raffinée même, en tout cas une morale et une mythologie, très complexes, qui pouvaient donner lieu à des développements infinis. Mais ce n’était pas une science au sens où nous l’entendons aujourd’hui, c’est-à-dire un corps de propositions portant sur les lois du monde réel, et étayé par la méthode expérimentale. Pour les auteurs du Matin des magiciens, toute cette science antique, qui d’ailleurs se place on ne sait où et on ne sait quand, pouvait
- bien être contenue dans la bibliothèque d’Alexandrie, brûlée comme on sait par les Arabes. L’hypothèse est évidemment facile, étant invérifiable. Ils sont persuadés qu’il en existe encore des vestiges en plus d’un point du globe, mais les savants modernes ne cherchent pas à les retrouver, ils les étoufferaient même s’ils les trouvaient, car cela va contre leur dogme. Il est facile de répondre à MM. Pauwels et Bergier qu’ils n’ont qu’à se consacrer eux-mêmes à cette recherche. On leur serait bien reconnaissant de toute découverte qu’ils pourraient faire en ce domaine. Quant aux faits réels, très rares d’ailleurs, qu’ils invoquent, comme la présence d’aluminium dans les alliages chinois, il est absurde de dire qu’ils sont étouffés par les savants : à cet aluminium on a trouvé une explication parfaitement claire, que nos auteurs se gardent bien de reproduire (voir L,a Nature - Science Progrès, août 1961, p. 333-335).
- Il en est de même pour des faits longtemps mystérieux, comme l’existence des tectites, ces roches vitrifiées étranges que l’on rencontre en diverses régions. Pour MM. Pauwels et Bergier, ce seraient (tenez-vous bien) une des preuves que la Terre a été visitée par des êtres venus d’autres mondes, eux aussi naturellement possesseurs d’une science plus développée que la nôtre. Dans des articles récents (février 1961, p. 91-92, et septembre 1961, p. 389-390), nous avons examiné les explications parfaitement naturelles et plausibles que l’on peut donner de l’origine des tectites. Ces explications ont sans doute le tort de n’avoir rien de fantastique !
- Concluons. Ce livre n’apporte rien de nouveau, il se borne à brasser des imaginations vieilles comme le monde et simplement habillées à la mode du jour. Et il témoigne d’une ignorance inouïe sur nombre de points, notamment en histoire des sciences et des techniques qui, contrairement à ce qu’il insinue, est activement cultivée aujourd’hui. Un mauvais livre donc. Mais son succès est un phénomène qui doit retenir l’attention. La science authentique, avec son appareil de plus en plus abstrait, devient plus dure à assimiler pour nombre de gens. Elle réclame de nous un certain ascétisme mental, la renonciation à des nourritures faciles, une rigueur malaisée à observer sans défaillance. En compensation, les joies qu’elle nous offre sont un peu sévères. Rien d’étonnant que les vieux rêves cherchent leur revanche. La vogue renaissante de l’astrologie, de la voyance et des autres sciences illusoires, dont on dit qu’elles n’ont jamais brassé plus d’argent qu’au-jourd’hui, est un autre aspect du même phénomène.
- Paul Ostoya.
- Carburants à haute énergie, issus du goudron
- Dans une communication présentée au 33e Congrès international de Chimie industrielle, le professeur M. Letort, directeur général scientifique du Centre d’études et recherches des Charbonnages de France (CERCHAR), a mis en relief les procédés étudiés par ce centre en vue de la préparation de carburants à haute énergie.
- Les conditions à réaliser par ces carburants sont avant tout de posséder un pouvoir calorifique élevé (rapporté à l’unité de volume ou de poids), mais également de résister à la décomposition thermique, afin de jouer le rôle de réfrigérants à bord des avions se déplaçant à grande vitesse. D’autres qualités sont souhaitables, telles que : bas
- point de congélation, fluidité aux très basses températures, tension de vapeur réduites. Cet ensemble de qualités se trouve réuni dans les napht'enes polycycliques, obtenus après hydrogénation du goudron de houille. Le procédé original, mis au point par le CERCHAR, fait appel à des catalyseurs sulfurés, mieux adaptés à cette réaction que les classiques catalyseurs au nickel.
- Industriellement, les naphtènes polycycliques seraient intégralement « carbochimiques », l’hydrogène étant extrait des gaz de cokeries. On estime que les carburants de cette catégorie permettront d’accroître de 10 à 15 pour 100 l’autonomie de vol des avions à réaction.
- 264
- p.264 - vue 268/551
-
-
-
- s;n.a.p.
- pour bouée lumineuse
- Les Américains ont mis au point toute une série de générateurs électriques nucléaires, légers et de faible encombrement, baptisés S.N.A.P., dont certains utilisent l’effet thermoélectrique (effet Peltier) pour transformer en énergie électrique l’énergie calorifique engendrée par la désintégration de corps radioactifs (batteries nucléaires) ou même par un réacteur nucléaire miniature (sur les utilisations de l’effet Peltier, voir La Nature - Science Progrès, octobre 1961, p. 420-425). Des S.N.A.P. de divers modèles sont destinés à fournir l’électricité nécessaire aux satellites artificiels; mais ils peuvent être utilisés à diverses fins.
- C’est ainsi que le service de garde côtière des Etats-Unis a procédé récemment à Baltimore (Maryland) au lancement d’une bouée portuaire expérimentale alimentée en électricité par une batterie nucléaire miniature, le S.N.A.P.-7 A. Celle-ci comprend une enveloppe étanche parsemée de couples thermoélectriques et contenant du strontium 90 ; la chaleur dégagée par ce radioisotope est transformée par les thermo-
- Fig. 1. — Assemblage et lancement de la fusée expérimentale de l’U.S. Coast Guard.
- A gauche, on voit au premier plan le générateur thermoélectrique avant son installation et à l’arrière-plan la partie supérieure de la bouée avec la lampe-phare. Au milieu, les techniciens achèvent de mettre en place le générateur. A droite; la bouée est immergée dans le port de Baltimore.
- (.Photos aimablement communiquées par le Centre culturel américain).
- couples en énergie électrique, utilisée à son tour pour recharger une batterie d’accumulateurs. Le poids total du système, mis au point par la Martin Company de Baltimore, est d’environ une tonne. La période du strontium 90 étant de 20 ans environ, il peut fonctionner sans surveillance pendant une longue durée. Le service de garde côtière des Etats-Unis espère l’utiliser pour l’éclairage des bouées de signalisation situées à grande distance des côtes.
- 265
- p.265 - vue 269/551
-
-
-
- pH
- et mesures électrochimiques :
- Conductivité. Potentiométrie. Ampérométrie. Coulom Électrolyse à potentiel contrôlé. Titrages automatiques
- Une gamme d'appareils de mesure exceptionnellement étendue...
- étrie. . etc...
- * ® types de pH^mètresjmillivoltmètres
- - ULTRAMAX : 5 gammes de mesure »
- 2 décaleurs d'origine incorporés précision ± 0,005 pH
- - TS 6 : ; 4 gammes de mesure décaleur incorporé précision ± 0,01 pH
- - TS 4 : 4 gammes de mesure précision ± 0,01 pH
- U 8 : précision ± 0,03 pH
- P 5 : appareil portatif à piles précision ± 0,03 pH
- - PHRD : appareil industriel tropicali
- * 3 types de conductimètres s
- — CD 6 : 1 Q. à 100 M Qen 13 gammes étalées
- — CD 7 : 2 Cl à 100 M Q. en 14 gammes étalées
- Fréquence de mesure réglable : 35 Hz à 5 k Hz
- — CDRT2 : modèle industriel tropicalisé, avec
- alerte réglable, enregistrement, régulation.
- * Appareillage pour coulométrie, ampérométrie, électrolyse à potentiel contrôlé, études de corrosion s
- — potentiostats types ASA, PRT 500, PRT 2000
- — ampérostats types C 3 et CEAM 2
- — millivoltmètre type S 6 avec décaleur incorporé
- — titrimètre pour “ dead stop end point ”
- — amplificateur logarithmique
- — chronomètre électronique
- — intégrateur “ INTEGRONIC ”
- APPAREILS ELECTRONIQUES
- solea 2 et 4, RUE CARRY, LYON (3'j
- TÉLÉPHONE : 60-26-7 I et60-76-67 AGENCES A PARIS, ANGERS, LILLE, MARSEILLE, REMIREMONT, TOULOUSE
- J.TACUSSEL
- p.266 - vue 270/551
-
-
-
- L’ACTUALITÉ INSTRUMENTALE
- Potentio-/>H-mètre de haute précision
- On connaît l’importance des mesures de pH. et de potentiel, tant au point de vue analytique que pour l’étude des réactions en solution. De ce fait, un effort important a été accompli par divers constructeurs pour mettre à la disposition des chercheurs des matériels susceptibles de répondre aux plus sévères exigences. L’appareil que nous présentons ici, construit par la Société J. Tacussel, revêt un intérêt particulier du fait de la gamme étendue de ses utilisations. Si, en effet, la mesure du potentiel pris par une électrode indicatrice métallique associée à une électrode de référence de type courant s’accommode de n’importe quel type de voltmètre électronique, par contre les circuits à forte résistance interne (mesure du pH avec une électrode de verre dont la résistance dépasse io MO) exigent des montages spéciaux de construction délicate. Il n’est, pour s’en persuader, que de considérer le nombre important de publications consacrées à ce sujet, nombre qui dépasse la centaine dans les vingt dernières années. On doit dès lors utiliser des voltmètres électroniques de forte impédance d’entrée (supérieure à io6 MO) qui délivrent au circuit auquel ils sont connectés, en l’absence de toute force électromotrice entre les bornes d’entrée, un courant très faible, inférieur à 1er11 A environ.
- Le potentio-pH-mètre type T.S. 6 répond à ces diverses exigences. L’amplificateur électronique, à deux voies symétriques, est stabilisé par contre-réaction. L’impédance d’entrée est supérieure- à io6 MO. La lecture s’effectue directement par un instrument indicateur de précision à trois échelles. Un double circuit d’entrée avec commutation permet les mesures simultanées de pH. et de potentiels, Celles-ci peuvent être effectuées en gamme étalée grâce à un décaleur d’origine étalonné, incorporé. Les gammes de mesures et les précisions obtenues dans les différents domaines considérés sont rassemblées dans le tableau I.
- Tableau I. — Gamme de mesure du potentio-pH-mètre type T.S.6
- Gamme T ’A ! Potentiels
- Gamme principale 0-14 (précis. : ± 0,03) 0 ± 1 000 mV (± 5 mV)
- Gamme étalée 5,5-8,5 (précis. : ± 0,01) 0 ± 100 mV (± 0,5 mV)
- Gamme étalée (avec décaleur d’origine incorporé) — °,5"I2,5 (précis. : ± 0,02) 0 ± 1 200 mV (± 1 mV)
- Le réglage du zéro électrique et de la standardisation sont effectués par des potentiomètres hélicoïdaux à 10 tours. La stabilité est meilleure que ± 0,03 pH ou ± 2 mV par 24 h et pour une variation de la tension du secteur de
- Fig. I. — Potentio-pH-mètre de haute précision type T.S. 6. L’appareil est monté, ici, pour des mesures simultanées de pH et de potentiels.
- (Photo J. Tacussel).
- ±15 pour 100. La constance de l’étalonnage et la linéarité sont meilleures que ±0,3 pour 100 de l’étendue de chaque gamme. Enfin, l’appareil comporte un correcteur de température 0-1000 C agissant sur les deux gammes et le décaleur d’origine pour les mesures de pH.
- Par ailleurs l’appareil revêt un intérêt particulier par le fait qu’il permet d’effectuer des titrages potentiométri-ques à intensité constante. On sait que, dans cette méthode, on impose dans le circuit de mesure une intensité de courant très faible. Dans ces conditions, les potentiels deviennent stables très rapidement, ce qui permet des titrages dans des cas où la potentiomètrie classique, à courant nul, est inutilisable (systèmes lents, systèmes rapides où seul l’oxydant ou le réducteur est présent en solution). Le T.S.6 comporte un dispositif qui permet d’imposer dans le circuit un courant constant réglable en deux gammes de o à 50 pA environ.
- Les trois possibilités que nous venons d’examiner (mesures de pH, de potentiel, potentiomètrie à intensité constante) jointes à un nombre important d’accessoires (électrodes diverses, enregistreurs, burettes automatiques, etc.) font de cet appareil un matériel de choix, tant pour les dosages chimiques que pour un grand nombre d’études fondamentales de la chimie des solutions.
- 267
- p.267 - vue 271/551
-
-
-
- Moteur « à tout faire »
- La Société Prolabo propose depuis peu un moteur électrique auquel peuvent être associés un nombre important d’accessoires qui en font un appareil aux multiples possibilités, susceptible de rendre de grands services dans les laboratoires. Le moteur proprement dit, d’une puissance de 0,1 ch, est à vitesse réglable de o à 2 800 tr/mn dans les deux sens de rotation, par la simple manœuvre d’un levier situé sur le corps de l’appareil. Un réducteur à vis sans fin permet d’obtenir des vitesses réduites de rotation : de 40 à 400 tr/mn. Le moteur peut être branché à volonté sur 110 ou 220 V. Le rotor est parfaitement équilibré, ce qui assure une rotation sans aucune vibration à tous les régimes.
- Les accessoires susceptibles d’être adaptés sur le moteur (un certain nombre d’entre eux sont représentes sur la figure 4) peuvent être classés en trois catégories :
- Agitation. — On peut fixer- sur le moteur une transmission souple de 1 m, ce qui permet d’équiper le moteur d’un agitateur en verre ou en métal pour brasser un liquide par exemple, comme l’indique la figure 2. On peut aussi actionner de cette façon un agitateur magnétique. Une autre application est le lavage de la verrerie de laboratoire : il suffit d’adapter sur la tige souple de transmission un goupillon à tige creuse par laquelle on injecte de l’eau (% 3)-
- IIMIIIIDII llll III11111 limnmiiiiniiiiimiii///«!
- Fig. 3. — Lavage de la verrerie de laboratoire au moyen d’un goupillon
- à tige creuse.
- On distingue en bas le tuyau par lequel arrive l’eau de lavage.
- Petits travaux de mécanique. — Le moteur peut recevoir des tables à meuler et à scier de différentes dimensions. Des meules et lames de scie circulaire de différents diamètres permettent d’effectuer avec le moteur de nombreux travaux : polissage, sciage du bois, des métaux, du verre même, grâce à une lame spéciale. On peut encore fixer des perce-bouchons à lames d’acier, les bouchons eux-mêmes étant tenus par une pince spéciale.
- Compression ou production du vide. — Trois pompes de caractéristiques variées peuvent être actionnées par le moteur : une pompe à air à membrane permettant, en compression, un débit de 1 000 l/h avec une pression maximale de refoulement de 2,5 kg/cm2. Le vide limite est de 5 o cm de mercure. Une autre pompe à air, à palettes, assure une pression de 2 kg/cm2 pour un débit de 2 500 l/h et un vide limite de 70 cm de mercure. Enfin, une pompe à palettes, avec soupape anti-retour, niveau d’huile visible et filtre, permet un vide limite de 0,5 mm de mercure.
- Ce ne sont là que quelques-unes des applications possibles de ce moteur. L’utilisateur lui en trouvera bien d’autres selon les activités de son laboratoire.
- R.R.
- Fig. 4. — Le moteur Multifix et quelques-uns de ses accessoires.
- On distingue en haut, de gauche à droite, l’agitateur magnétique, l’agitateur pour tiges de verre ou de métal, le goupillon à tige creuse, la transmission souple. Au milieu : meules, lames de scie, table à scier, pompe à air. En bas : jeu de perce-bouchons, étriers de fixation du moteur.
- {Photo Prolabo).
- 268
- p.268 - vue 272/551
-
-
-
- Le Ciel en Juillet 1962
- SOLEIL : du Ier juillet au Ier août (à oh) sa déclinaison décroît de + 23°9' à + i8°i2'et la durée du jour de i6h3m à i5h6m; diamètre apparent le Ier (à oh) = 3i'3o",8, le 31 à (24^1) = 3i'34",o. — LUNE : Phases : N.L. le Ier à 231153m, p,Q, le 9 à 23h4om, P.L. le 17 à nh4im, D.Q. le 24 à 4hi9m, N.L. le 31 à I2h24m; apogée le 8 à 12*1, diamètre app. 29^ 3"; périgée le 20 à ioh, diamètre app. 32,43". Principales conjonctions : avec Vénus le 5 à 7b, à o°39' S; avec Uranus le 5 à 20b, à i°i'N; avec Neptune le 11 à 20b., à 3°38' N; avec Saturne le 18 à 13b, à o°4i' N; avec Jupiter le 20 à i8h, à i°44' S; avec Mars le 27 à 4b, à 4°i3' S; avec Mercure le 31 à i8h, à i°38' S. Principales occultations : le 5, d’Uranus (mag. 5,9), immersion à 20^145 “,5; le 15, de p. Sagittaire (mag. 4,0), immersion à 2ih37m)0; le 16, de ~ Sagittaire (mag. 3,0), émersion à 2ob29m,3 ; le 19, de 1 Capricorne (mag. 4,3), immersion à 2^15™,z et émersion à 2h5om,i; le 21, de L1 Verseau (mag. 4,5), immersion à oh28m,2 et émersion à ih36m,i; le 21, de û2 Verseau (mag. 4,6), émersion à 2hi8m,9_ — PLANÈTES : Mercure, difficile étoile du matin dans l’aube, pendant la première
- moitié du mois; Vénus, radieuse étoile du soir se couchant près de 2 heures après le Soleil; Mars, dans le Taureau, se lève le 12 à oh^»1 et passe le 23 à ;° au N d’Aldébaran ; Jupiter, dans le Verseau, astre magnifique apparaissant dès la fin de la soirée, le 12, diamètre pol. app. 42",4 et mag. — 2,3 ; Saturne, dans le Capricorne, brille toute la nuit et se lève plus d’une heure avant Jupiter, le 12, diamètre pol. app. 16",6, axes de l’anneau : 41",7 et -f 12",9 et mag. 0,5; Uranus, très proche de Béguins, devient peu visible le soir; Neptune, à l’ouest de fj. Balance, est visible durant la première moitié de la nuit, le 16, position : I4h36m et — i3°2i, diamètre app. 2",4. —ÉTOILES VARIABLES : minima de ji Lyre (3m,4~4m,3) le 8 à 6h,9, le 21 à 5h,3 ; maxima de d Céphée (3m,7-4m,6) le 6 à 511,7, le 11 à 14b,5, le 16 à 2311,3, le 22 à 8h,i, le 27 à i6h,9; maxima de 7j Aigle (3™,7-4™,4) le 4 à ioh,2, le xi à 14b,4, le 18 à i8h,6, le 25 à 22^9; maximum de RR Scorpion (5™,0-12^4) le 4. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.), le Ier: i8h43m5os, le 11 : i9h23m2s, le 21 : 2oh2m 28s, le 31 : 2oh4im53s.
- Amateurs d'ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- 28, rue Serpente, Paris-6e
- Vous aurez à votre disposition une importante Bibliothèque, un Observatoire, des séances mensuelles, cours, conférences, etc... Vous recevrez la revue mensuelle L’ASTRONOMIE Spécimen gratuit et conditions sur demande.
- Permanence au Siège social, tous les jours non fériés de 14 àl7 heures.
- POUR CONSTRUIRE VOUS-MÊMES votre INSTRUMENT achetez l’important ouvrage :
- LA CONSTRUCTION DU TÉLESCOPE D’AMATEUR
- par Jean Texereau,
- Ingénieur du Laboratoire d’Optique de l’Observatoire de Paris.
- 2e édition considérablement augmentée, magnifique volume 16 x 24 de 296 pages, illustré de 156 fig. et TV planches hors texte, sous reliure toile, 25,50 NF franco, réduit à 19,50 NF pour les Membres de la Société, payable à la commande : Ch. Post. Paris 1733.
- Phénomènes intéressants : Le 4 à 5b, la Terre à l’aphélie, le Soleil à l’apogée. — Surveiller l’apparition de taches à la surface du Soleil. — Du 25 au 29, lumière cendrée de la Lune, le matin. — Le 17, éclipse de Lune par la pénombre, invisible en France, commencement à ioh3om,2, milieu à nA^m,2, fin à I3hi8m,4, grandeur : 0,392. — Le 31, éclipse annulaire de Soleil, invisible en France, commencement à 9h25m,8, maximum à I2h24m,9, fin à 15h24m,i, grandeur : 0,986. — Les anneaux de Saturne, visibles toute la nuit, se referment peu à peu. — Du 25 au 30, étoiles filantes : Aquarides (radiant 3 Verseau), maximum le 28. — En l’absence de Lune, l’observation de la Voie lactée devient facile dans les constellations où elle est la plus intense : Scorpion, Ophiuchus, Sagittaire, Ecu, Aigle, Cygne.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- LES L I V
- Les mathématiques amusantes et sérieuses, par N. A. Court. Traduit de l’américain par R. Rosset. 1 vol. 14 X 22, 224 p., 18 fig. Dunod, Paris, 1962. Prix, broché: 9,80 NF.
- Nouvel ouvrage de vulgarisation mathématique écrit avec fantaisie et humour pat un excellent mathématicien américain. L’auteur y traite des rapports étroits qui existent entre les mathématiques et la philosophie, la sociologie et l’esthétique, y explique comment la notion de nombre a lentement émergé dès les premières heures de l’humanité, comment l’histoire des grandes découvertes a suivi une voie parallèle à celle des mathématiques. La « petite histoire » n’est pas oubliée non plus de même que les jeux mathématiques. Citons un excellent chapitre sur la notion d’infini et les paradoxes célèbres de Zénon d’Elée et de ses imitateurs. L’ouvrage est à recommander sans restriction au grand public de même qu’aux élèves des classes terminales des lycées ou des classes préparatoires aux grandes écoles qui y trouveront la matière de plus d’une dissertation philosophique.
- Précis de physique, par Maurice Curie. Tome I. 1 vol. 14 X 18,5, 336 p., 225 fig. Collection Euclide. Presses Universitaires de France, Paris, 1961. Prix: 24 NF.
- Le Ier tome de cet ouvrage, destiné aux étudiants du P.C.B. et du S.P.C.N., traite des notions de mécanique physique, de l’étude des fluides, des changements d’état, des solutions, de la thermodynamique et de l’électricité. L’exposé est classique et l’on ne saurait y trouver beaucoup de nouveauté. Félicitons toutefois l’auteur d’avoir su
- R E S NO
- assez souvent ouvrir des horizons à l’étudiant sur certaines questions actuelles de la physique, par exemple la mesure des basses pressions, la notion moderne d’état cristallin, etc. En revanche, pourquoi avoir laissé subsister une description de l’électrolyse qui est aujourd’hui entièrement périmée ?
- Lectures on field theory and the many-body problem, édité par E. R. Caianiello. i vol.
- ----- 4 NOS LECTEURS ----------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- est à la disposition des lecteurs de LA NATURE - SCIENCE PROGRÈS pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- U V E A U X
- 16 X 23,5, xiv-327 p., nombr. fig. Academie
- Press, New York et Londres, 1961. Prix, relié :
- 9,50 dollars.
- Ouvrage d’un niveau élevé qui rassemble les leçons professées par les meilleurs spécialistes mondiaux sur la théorie des champs à l’occasion des premiers « Cours d’été internationaux de physique» donnés à Naples en i960. On y relève les noms de trois physiciens français, C. Bloch, D. Kastler et M. Lévy.
- Mesures électriques (continu et basse fréquence) par J. Baurand. Tome I : Unités électriques, appareils de mesure, pont de Wheatstone. 1 vol. 16,5 X 24,5, vm-308 p., 299 fig. Masson, Paris, 1961. Prix, broché : 37 NF ; cartonné toile : 42 NF.
- L’ouvrage rassemble l’essentiel du cours professé par l’auteur à l’Ecole Supérieure d’Electricité. Après un chapitre consacré aux unités électriques et tout particulièrement au système Giorgi utilisé dans l’ouvrage, l’auteur développe la mécanique des appareils de mesure, des galvanomètres et appareils magnéto-électriques, des électrodynamomètres et des électromètres. Deux chapitres traitent du pont de Wheatstone et des appareils dérivés en continu et en courant alternatif. Quelques pages sont consacrées aux appareils thermiques, aux appareils à redresseurs, etc. Sans développements technologiques excessifs, l’auteur a su exposer l’essentiel des méthodes actuelles de mesure électrique. Le 2e tome sera consacré aux grandeurs magnétiques, appareils électroniques et mesures diverses.
- 269
- p.269 - vue 273/551
-
-
-
- Chimie physique des semi-conducteurs, pair J. P. SUCHET. I Vol. II X l6, 235 p., 95 fig. Dunod, Paris, 1962. Prix, relié toile : 19 NF.
- Laissant systématiquement de côté l’aspect physico-mathématique de la théorie des semi-conducteurs, pour lequel il existe de multiples ouvrages, l’auteur développe le point de vue de la cristallochimie et traite la semi-conductibilité comme une propriété dépendant de l’ordre cristallin et de la nature des liaisons interatomiques. Après avoir étudié les principaux mécanismes de la semi-conductibilité, un chapitre est consacre aux principales règles de prédiction de cette importante propriété. Les oxydes semi-conducteurs font l’objet d’une étude approfondie de même .que le domaine nouveau des semi-conducteurs organiques.
- La libération de l’énergie nucléaire, par Marc Lefort. Collection Applications des sciences nucléaires. 1 vol. 12 x 16,120 p., 18 fig. Gauthier-Villars, Paris, 1961. Prix : 9 NF.
- L’objectif visé par ce petit livre est d’expliquer schématiquement comment peut être domestiquée l’énergie nucléaire. Les éléments fournis, étant donné la place impartie, sont succincts, d’autant que le sujet a été abordé sous ses divers aspects. Il eût sans doute été préférable de le diviser, en traitant séparément de l’énergie par fission et de l’énergie par fusion de l’atome.
- Chimie générale. Thermodynamique chimique,
- par P. Souchay, professeur à la Faculté des sciences de Paris. 1 vol. 16,5 X 24,6, 428 p., 198 fig. Masson, Paris, 1961. Prix, cartonné: 48 NF.
- Cet ouvrage, le premier à paraître d’une collection principalement destinée à l’étudiant en chimie, reproduit, dans ses 24 premiers chapitres, l’essentiel du cours professé par l’auteur aux élèves de la Faculté des sciences de Paris. Il est donc accessible aux lecteurs possédant les connaissances
- du Certificat de M.P.C. des Facultés de Sciences. Les six derniers chapitres ne sont pas du programme de la licence d’enseignement, mais leur importance est telle que le futur chercheur ne saurait les ignorer, ils rendront également de grands services aux candidats à l’agrégation. Deux de ces chapitres sont des compléments d’électrochimie (complexes, phénomènes de polarisation); les quatre autres groupent les connaissances actuelles sur les phénomènes de surface : tensions superficielles, colloïdes, échangeurs d’ions, etc. Exposé très clair et surtout parfaitement à jour; l’auteur a su éliminer les anciennes considérations qui intéressent peut-être l’historien des sciences mais ne sauraient qu’alourdir un exposé moderne, destiné à de futurs chercheurs ou enseignants. Il en résulte un cours de licence neuf et parfaitement cohérent. De nombreux exemples et exercices résolus aident le lecteur dans son effort. Citons encore des parties qui n’appartiennent pas au programme de la licence mais jugées importantes et qui sont traitées sur place en petits caractères. — R. R.
- Micro-analyse organique élémentaire qualitative et quantitative, par Roger Lévy. — Détermination des masses moléculaires et des degrés de polymérisation, par P. Piga-niol, FI. Jean, C. Vallet et C. Wippler. Collection des Monographies de chimie organique. Compléments au Traité de Chimie organique. 1 vol. 18 x 25,5, 428 p., 124 fig. Masson, Paris, 1961. Prix, broché : 72 NF; cartonné toile : 82 NF.
- Tout édifice moléculaire est caractérisé d’abord par le nombre et la nature des atomes qui le constituent, d’où l’importance considérable de l’analyse élémentaire. La ire partie de cette monographie, très importante, fait le point des méthodes modernes de la microanalyse. Il ne suffit pas de connaître les proportions des atomes qui constituent l’édifice moléculaire, il faut également connaître les dimensions. C’est le rôle des méthodes de détermination des masses moléculaires. Ces
- méthodes, bien que classiques, ont fait cependant l’objet d’améliorations; elles ont été transposées aux substances macromoléculaires. Ce sont alors des méthodes physiques très délicates dont la théorie est en général complexe. La 2e partie insiste particulièrement sur la théorie des diverses méthodes et montre ce que l’on peut en attendre, ainsi d’ailleurs que les limitations et les difficultés tant expérimentales que théoriques. Les auteurs présentent un ensemble de méthodes modernes parfaitement au point permettant de déterminer les masses, les formes et les compositions des molécules que crée chaque jour le chimiste. A ce titre, l’ouvrage participe au développement de la connaissance dans le domaine de la chimie organique. — R. P.
- L’épuration chimique du gaz par voie sèche, par l’Association technique de l’Industrie du Gaz. Une brochure 21 X 27, 62 p. Journal des Industries du Gaz, Paris, 1961.
- L’industrie du gaz se transforme (voir La Nature, décembre 1955, p. 492-497) et n’utilise plus uniquement le charbon comme matière première; la carbonisation de la houille constitue encore cependant le principal de son activité et l’épuration du gaz pose toujours des problèmes délicats. L’épuration sèche, à laquelle on a pratiquement recours, est décrite dans cette brochure qui insiste sur l’évolution qu’elle a connue et notamment sur le procédé récent quasi continu des masses grenées.
- Les tremblements de terre, par Pierre Rousseau. 1 vol. 15 x 21, 272 p., 24 fig. Hachette, Paris, 1961. Prix : 17,50 NF.
- De 1948 à i960, les catastrophes d’Orléansville, d’Agadir, du Chili et quelques autres ont ramené l’attention universelle sur les tremblements de terre et la prévention possible de leurs dramatiques conséquences. Ce nouveau livre de Pierre Rousseau est d’abord une histoire des grands séismes,
- Ecole supérieure DE BIOCHIMIE ET BIOLOGIE VIENT DE PARAITRE
- MONOGRAPHIES DUNOD
- (Reconnue par l'État — A. M. 25 juillet 1955) 84, rue de Grenelle, Paris-7e TECHNIQUES VARIATIONNELLES
- Documentation : 5, quai aux Fleurs, Paris-4e — ODE 54-83 EN
- Préparation aux carrières des Laboratoires Médicaux, RADIOELECTRICITE
- Industriels, Agricoles. — Préparation aux diplômes d'Etat. PAR
- Brevets de Techniciens d'Analyses Biologiques, L. CAIRO T. KAHAN
- Biochimistes, Biologistes. Docteur de l’Université de Paris. Maître de Recherches au C.N.R.S.
- Cours du jour —- Cours du soir XII-I48 pages I I x lé, avec I2 figures. I962 Relié toile souple 15 NF
- Section d'enseignement " à domicile " En vente dans toutes tes bonnes librairies et chez
- (Joindre timbre pour notice) DUNOD ÉDITEUR, 92, rue Bonaparte, Paris-6e. DAN 99-15
- RAPf
- APPAREILS ELECTRONIQUES DE MESURE
- A HAUTES PERFORMANCES
- QUELQUES POSSIBILITÉS :
- Tensions : 100 y. V à 50 k V - R. d'entrée 10 m q Intensités : 10-15 à 10-3 ampère R. d'entrée nulle Résistances : 10 17h à lOOnn R. d'entrée nulle Capacités : 0,1 pF à 10.000 pF - R. d'entrée nulle Champs : 0,1 gauss à 10.000 gauss
- Electrisations : 10 pico-coulombs à 1.000 coulombs Pertes en watts des tôles : 0,5 à 5 W.
- Fluctuations de tension : depuis 1m\/l.000 ou 2.000 V Intégration : (analogique! 1 seconde à 60 mn. 1 à 20 voies Conductivité : 1 Q à 1.000 M n (mesure à distance!
- MO
- FONDÉ EN 1915
- 2Z£
- *A
- Fournisseur de 2.000 laboratoires officiels et privés toutes industries
- - 63 RUE DE CHARENTON - PARIS 12e- DID. 07.74
- 270
- p.270 - vue 274/551
-
-
-
- pour laquelle il a consulté toutes les sources dignes de foi. Puis l’auteur nous montre la science à la recherche des causes, mesurant l’énergie dépensée, installant ses séismographes, définissant les aires séismiques. On sera surpris d’apprendre que les constructions qui résistent le mieux sont les grands édifices rigides d’acier et de béton, à moins d’une malencontreuse « résonance ». Quant à la prévision, l’auteur espère beaucoup en une meilleure connaissance des influences solaires.
- Studies in Ophrys pollination, par Bertil Kullenberg, de l’Institut zoologique d’Uppsala. Avant-propos et résumé en français, i vol. 16 X 24,5, 340 p., 48 fig., 51 planches de dessins et photos, dont 2 en couleurs. Almqvist et Wiksells, Uppsala, 1961. Prix: 60 couronnes . suédoises.
- L’éminent zoologiste de l’Université d’Uppsala, après plus de dix années de recherches, surtout dans les pays du pourtour de la Méditerranée, a pu établir définitivement la réalité de l’étrange comportement de certains Hyménoptères mâles qui procèdent à un « pseudo-accouplement » avec les fleurs des Orchidées du genre Ophrys, et assurent ainsi leur pollinisation, La ressemblance du labelle de ces fleurs avec le corps des insectes qui leur a valu leur nom (Ophrys mouche, O. abeille, O. bourdon, etc.) prend ainsi une signification biologique. Ces fleurs sécrètent des substances odorantes spécifiques, analogues à celles que diffusent les femelles des insectes intéressés, et par là attirent de loin les mâles qui, de près, achèvent d’être leurrés par l’aspect du labelle. La consistance et la pilosité de cet organe stimulent ensuite les mouvements du mâle qui, dans la plupart des cas, favorisent la fixation sur lui des sacs polliniques puis leur dépôt sur le stigmate d’une autre fleur. Des expériences de laboratoire ont complété une riche moisson d’observations. Le regretté botaniste de Bergame, L. Ferlan, a publié dans La Nature (mai 1957, p. 180-185), un excellent résumé de cette question.
- Les Lichens, par J. Lambinon. i vol. 16 x 24,5, 84 p., 16 fig., 15 planches hors-texte. Les Naturalistes Belges, Bruxelles, 1961; dépositaire: N. Boubée, Paris. Prix : 12 NF.
- Avec les Algues et les Mousses, les Lichens jouent un grand rôle dans la conquête de la terre ferme par la vie végétale. Association d’une Algue et d’un Champignon (où celui-ci d’ailleurs parait beaucoup plus dépendant), le Lichen mérite par plus d’un aspect de retenir l’attention du naturaliste. Ce petit livre est une bonne introduction à l’étude de ces plantes et fournit une clef élémentaire pour la détermination des principales espèces; il fait état de celles que l’on trouve en Belgique, mais il pourra aussi bien être utilisé par l’amateur français.
- Champignons. Formes et couleurs, par H. Kleijn, président de la Société royale d’Histoire naturelle d’Amsterdam. Traduit et adapté par Patrick Joly, ingénieur agricole, licencié ès Sciences. 1 vol. 23 X 29, 144 p., 94 photos en couleurs de G.D. Swanenburg de Veye. Horizons de France, Paris, 1961. Prix, relié toile : 5 3 NF.
- Ce livre d’une présentation magnifique figure parmi ceux qui peuvent être recommandés aux amateurs d’histoire naturelle comme aux bibliophiles. 94 espèces y sont présentées en photographies d’une rare beauté, et les descriptions qui les accompagnent, parfois un peu succinctes, sont néanmoins suffisantes si l’ouvrage ne doit servir que d’aide-mémoire. Il suffira de se rappeler que la connaissance des champignons ne peut s’acquérir que sur le terrain sous la direction de moniteurs exercés. Le texte général constitue une agréable introduction élémentaire à la Mycologie, fournissant quelques données sur l’histoire de cette science, les grands groupes de champignons, les spores et leur dissémination, le mycélium, les principaux types de carpophores et les moyens de détermination, quelques conseils pour la récolte, enfin des indications sur les habitats d’espèces courantes.
- par Jean Rostand, de l’Académie française, et Andrée Tétry, directeur adjoint à l’École pratique des Hautes Études.
- Un ouvrage d’ensemble sur la Biologie, accessible au grand public et néanmoins d’une rigueur scientifique irréprochable.
- Une passionnante enquête surtous les mystères de la vie : cellule, hérédité, sexualité, parthénogenèse, génétique, origine et avenir de l'homme, etc.
- A chaque page, des illustrations en noir ou en couleurs, qui révèlent un monde étrange et pourtant familier.
- 1 volume relié (21 x 30 cm), sous jaquette en couleurs, 468 pages dont 23 en couleurs,960 illustrations en noir, index
- COLLECTION IN-QUARTO LAROUSSE
- chez tous les libraires - facilités de paiement
- 271
- p.271 - vue 275/551
-
-
-
- Y. BRAYER : Cavaliers aux Baux
- Lithographie 8 couleurs. 220 ex. 75 NF
- *
- Tous nos tirages sont limités, numérotés et signés par les artistes.
- Prix : de 45 à 250 NF
- CATALOGUE N SUR DEMANDE
- *
- EXPOSITION PERMANENTE
- j.1, Rue de Seine, PARIS-6e DANton 05-44
- LA GRAVURE
- 0\
- DECOREZ vos murs avec des LITHOGRAPHIES
- ORIGINALES des meilleurs peintres de notre époque tels que BUFFET CARZOU, L. FINI, LURÇAT, LARS-BO, JANSEM, BRAYER, OUDOT, HUMBLOT, PLANSON, VERTES, DAUCHOT, etc...
- R. OUDOT : Eve
- Lithographie 6 couleurs. 99 ex. 150 NF
- Mammifères sauvages d’Europe, par Robert Hainard. I. Insectivores, Chéiroptères, Carnivores. Préface du Dr F. Bourliére. Partie générale, par Jean-Louis Perrot, docteur ès Sciences. 2e édit, mise à jour. 1 vol. 12,5 X 17,5, 322 p., 50 fig., 36 planches en noir et en couleurs. Collection Les Beautés de la Nature, Delachaux et Niestlé, Neuchâtel (Suisse) et Paris, 1961. Prix, cartonné toile : 24 NF.
- Les mammifères, les animaux les plus proches de nous, nous sont aussi les moins bien connus, car presque tous, traqués et décimés sinon exterminés, ont acquis des habitudes nocturnes et se terrent durant le jour. L’auteur compte parmi les rares amateurs qui se soient consacrés à leur étude, non pas seulement de leur anatomie et de leur systématique, mais de leurs mœurs. Avec une incroyable patience il les a épiés et observés dans toute l’Europe, attendant parfois durant des heures et des jours l’occasion d’une vision de quelques secondes. Mais son attention vigilante et son œil exercé ont su tirer parti des instants les plus fugitifs. Mettant à profit d’autre part une érudition soigneusement contrôlée, il nous présente tout ce qu’on sait de vraiment certain sur la vie des mammifères sauvages de nos contrées. Ses dessins et aquarelles, tous pris sur le vif, sont des documents charmants et d’une éloquente vérité.
- La vie fantastique des animaux, par Maurice Burton. Trad. de l’anglais par Guy de Germiny et Bernard Heuvelmans. i vol. 14,5 x 22, 364 p., 28 planches hors-texte. Collection
- D’un monde à l’autre, Plon, Paris, 1961. Prix, cartonné : 16,95 NF.
- M. Burton a jugé utile de réagir contre le scepticisme des zoologistes qui considèrent comme des fables nombre de récits sur le comportement extraordinaire de certains animaux. Il est bien possible qu’un scepticisme exagéré ait pu faire négliger quelques faits véritables qu’il eût mieux
- valu tenter de vérifier. Mais il semble que M. Burton soit allé un peu trop loin dans le sens contraire. A côté de quelques données de sciences naturelles sérieuses, il nous ressert l’histoire des rats qui se mettent à deux pour transporter un œuf, et d’autres du même genre. Le titre du livre avertit d’ailleurs qu’on est dans le fantastique.
- L’agriculture aujourd’hui et demain, par
- Jules Milhau et Roger Montagne, i vol.
- 14 X 22,5. 378 p. Presses Universitaires de
- France, Paris, 1961. Prix: 20 NF.
- Ce livre qui figure dans la Bibliothèque d’Eco-nomie agricole comporte une large compilation des données sociologiques, économiques, démographiques et juridiques qui régissent l’occupation du sol et l’exploitation agricole dans des pays de degrés d’évolution différents et animés par des idéologies différentes. Ce sont en somme les structures humaines qui sont ici définies, à l’exclusion de toutes considérations biologiques et techniques.
- Inquiétant Yémen, par François Balsan. i vol.
- 14 X 20, 238 p., 1 carte, 8 pl. hors-texte. La
- Palatine, Paris et Genève, 1961. Prix : 11,40 NF.
- Ce récit très animé d’un voyage au Yémen, pays difficile à pénétrer, donne un tableau rapide de la configuration géographique de ce pays et de certains de ses caractères ethnologiques. L’intérêt en est accru par la découverte de mines qui datent d’une époque incertaine.
- L’Homme et son évolution possible, par
- P. Demaniovitch Ouspensky. i vol. 11,5 X
- 17,5, 160 p. Denoël, Paris, 1961. Prix : 6,50 NF.
- Il ne s’agit que d’évolution individuelle. Disciple de Gurdjieff, l’auteur a une méthode personnelle de développement et d’accomplissement de la personnalité qui ne doit rien à la « prétendue psychologie scientiste ».
- Ulu, le bout du monde, par Jeorgen Bitsch. Traduit du danois par Marguerite Gay et Gerd de Mautort. i vol. 16x21,5, 208 p., 40 planches hors-texte dont 24 en couleurs, une carte. Prix, broché : 19,50 NF; relié pleine toile : 28,50 NF.
- Récit d’un voyage à Bornéo, passant des régions civilisées à cet ulu, « bout du monde », habité par des Pygmées et d’autres peuplades primitives, avec quelques aventures qu’illustrent en outre de belles photos en couleurs.
- Conférences du Palais de la Découverte.
- Signalons, aux Editions du Palais de la Découverte, les conférences suivantes (brochures 13,5 X 18,5 d’un prix modique) : Le changement de la définition du Mètre et le rôle du Bureau international des Poids et Mesures, par Jean Terrien, sous-directeur du B.I.P.M. ; Météorologie et littérature, par L. Dufour, météorologiste à l’Institut royal météorologique de Belgique.
- A propos de soudage des plastiques. — Parmi les plastiques susceptibles d’être soudés par ultrasons, nous citions (février 1962, p. 92) la cellophane, terme qui pour les Américains désigne toute pellicule de cellulose régénérée. On nous prie de préciser qu’il ne s’agit donc pas de la Cellophane qui, en France, désigne une marque déposée.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Le Gérant : F. Dunod. — DUNOD, Éditeur, Paris. — Dépôt légal: 2e trimestre 1962, N° 3957. — Imprimé en France. Imprimerie Bayeusaine, 6-8, rue Royale, Baybux (Calvados), N° 3246. — 6-1962.
- p.272 - vue 276/551
-
-
-
- Panorama d’une expérience
- La centrale nucléaire de Chinon
- et ses trois réacteurs par Yves mma
- La centrale^^^i^è j^e Chinon va démarrer, avec la « divergenceVAteAson premier réacteur E.D.F. i. Il n’est pas dans notre propos d’entreprendre une description de cette centrale et de son environnement que l’on trouvera, plus ou moins en détail, dans de nombreux organes de la presse spécialisée ou non.
- Il nous a paru utile, en revanche, de souligner les caractéristiques essentielles de l’expérience qui va se dérouler à Chinon, expérience menée par les ingénieurs de l’Electricité de France,'solidement épaulés, sur le plan scientifique et technique, par le Commissariat à l’Energie atomique. Il s’agit en effet de la première centrale nucléaire authentique étudiée et construite en France, les trois piles de Marcoule étant essentiellement des plutonigènes, consacrées à la production du plutonium 239. Elles ont été équipées, à vrai dire, en vue d’une récupération de courant électrique mais pour des puissances limitées.
- A Chinon, les trois réacteurs E.D.F. 1, E.D.F. 2, E.D.F. 3 sont spécifiquement des réacteurs de puissance et ont été conçus dans l’intention nettement exprimée de mettre au point une formule industrielle qui puisse être appliquée aux centrales de l’avenir.
- L’expérience va donc se poursuivre sur trois modèles apparentés dans leur conception générale, mais dissemblables pour un certain nombre de dispositions aussi bien fondamentales qu’accessoires. Théoriquement, il aurait pu paraître logique que les prototypes se succèdent à d’assez larges intervalles, le projet d’E.D.F. 2 par exemple n’étant arrêté qu’en tenant compte de tous les enseignements recueillis pendant le fonctionnement d’E.D.F. 1. Mais cette méthode rigoureuse aurait conduit à un trop large étalement dans le temps : on peut évaluer à sept ans le temps que couvre pour chaque réacteur l’établissement du projet, la construction et les débuts de l’exploitation, et l’opération totale se serait déroulée en plus de vingt ans. La conduisant au contraire selon un horaire comprimé (avec les trois « divergences » prévues respectivement en 1962, 1963 et 1965), on obtiendra l’information recherchée dans un délai raisonnable. Et c’est presque simultanément que l’on pourra apprécier et comparer les mérites des différents organes.
- Avant de s’engager dans l’examen des plus importants de ces organes, il est utile de préciser un point qui donne
- lieu à de larges controverses. On sait que les centrales nucléaires ne diffèrent des centrales classiques que par la source de chaleur : réaction de fission dans le premier cas, réaction chimique de combustion dans le second. Or tous les progrès récemment enregistrés dans les centrales classiques ont consisté en de sensibles améliorations du rendement thermodynamique, dues aux températures de plus en plus élevées auxquelles se trouve portée la vapeur lorsqu’elle est injectée dans les turbines.
- C’est ainsi que les foyers des centrales les plus modernes chauffés au fuel ou au gaz naturel, peuvent fournir de la vapeur surchauffée à 565° C, ce qui conduit à des rendements de l’ordre de 40 pour 100. Cela est obtenu grâce à différents systèmes de surchauffe et tout naturellement certains constructeurs de centrales nucléaires ont cherché à employer des moyens similaires, dans l’intention de s’aligner sur le rendement du « classique ». C’est notamment dans les réacteurs à eau, utilisant de l’uranium enrichi, que des efforts sont tentés en ce sens.
- Avec la filière qu’ont adoptée les Britanniques et les Français, cette course au rendement thermodynamique ne pouvait être envisagée. Les éléments assemblés dans les réacteurs sont en effet : l’uranium naturel (c’est-à-dire non enrichi en uranium 235) comme combustible, le graphite comme modérateur et le gaz COa comme réfrigérant. Or l’uranium naturel, surtout sous la forme métallique où il est employé, risque de se déformer -si la température s’élève au delà de 4500 C ; les gaines de magnésium qui entourent ce combustible ont un point de fusion relativement peu élevé; le graphite, d’autre part, n’est pas le meilleur modérateur possible. Bref, le foyer nucléaire ainsi créé comporte des limitations strictes qui influent nécessairement sur le rendement.
- Il semblerait donc que Chinon, où la filière uranium naturel-graphite-gaz est appliquée dans toute sa rigueur, soit grevée au départ d’un assez lourd handicap. Et nous pouvons tout de suite indiquer que le rendement net (c’est-à-dire en défalquant l’énergie absorbée par les pompes et autres organes auxiliaires) ne dépassera sans doute pas 32 à 33 pour 100 dans le plus évolué des trois réacteurs, c’est-à-dire E.D.F. 3.
- On pourrait en conclure hâtivement que l’expérience actuellement tentée n’est pas significative, son but, qui
- 273
- p.273 - vue 277/551
-
-
-
- Fig. i. — La centrale atomique de Chinon (Indre-et-Loire).
- Prise le 30 janvier 1962, cette photo montre les bâtiments des deux premiers réacteurs. E.D.F.i, au premier plan, sera par la suite entouré d’une enceinte sphérique de confinement en acier, dont seule la partie inférieure est en place (cette enceinte n’a qu’une valeur expérimentale et ne sera prévue dans l’avenir que pour les réacteurs à neutrons rapides). E.D.F.2 se présente dans sa forme architecturale définitive. Seule, la fouille d’E.D.F. 3 se devine à l’arrière-plan. A gauche, le canal de dérivation de la Loire où est puisée l’eau de refroidissement et du circuit vapeur.
- (Photo J. Decker, Saumur).
- est de démontrer la valeur économique de l’électricité d’origine nucléaire, étant d’avance impossible à atteindre en vertu de... la formule de Carnot.
- Cette conclusion doit être révisée en tenant compte de certains éléments qui peuvent échapper à ceux qui sont insuffisamment informés des problèmes énergétiques. Il convient tout d’abord de se rappeler que la combustion chimique du charbon, du pétrole ou du gaz fait obligatoirement intervenir un comburant, l’air, qui une fois l’oxygène consommé, est évacué sous forme d’azote et de gaz carbonique et qui emporte avec lui une part appréciable de la chaleur produite. Les calories ainsi dissipées dans l’atmosphère, par le canal des cheminées des centrales, ne représentent pas moins de iz pour xoo de l’énergie calorifique libérée par la combustion classique. Rien de semblable dans le cas des foyers nucléaires où ce qu’on appelle
- (à tort d’ailleurs) la combustion n’implique aucun échange gazeux avec l’atmosphère.
- L’économie de combustible que l’on doit aux systèmes de surchauffe est d’ailleurs moins forte qu’on ne pourrait le croire. Ces systèmes sont coûteux et leurs complications structurales entraînent des pannes assez fréquentes.
- En outre, la vapeur à haute température impose l’emploi de matériaux spéciaux dont le prix est élevé.
- Enfin et surtout, le rendement thermodynamique est un facteur de moindre importance dans le « nucléaire » que dans le « classique ». Pour ce dernier le combustible est l’élément primordial du prix de revient (environ 70 pour 100). Au contraire, dans les centrales nucléaires, les frais d’amortissement priment largement la dépense en combustible (évaluée à 35 pour 100); une amélioration de rendement, si satisfaisante qu’elle puisse être, techniquement parlant, y est donc moitié moins profitable.
- C’est, on le voit, en pesant avec soin toutes les données du problème que deux grandes nations atomiques ont opté pour la filière gaz-graphite. Ceci n’empêche que, de part et d’autre de la Manche, on s’est ingénié à en tirer le meilleur parti possible. Tout en se résignant par avance à ne fournir de la vapeur qu’aux environs de 4000 C, on cherche tout au moins à transmettre avec un minimum
- 274
- p.274 - vue 278/551
-
-
-
- de perte jusqu’à la turbine l’énergie calorifique créée par la fission. C’est ce souci qui, avant tout, a inspiré la conception des trois réacteurs de Chinon.
- Les caissons
- Dans la recherche de l’optimum, la «géométrie» joue un rôle important. Trois configurations différentes ont été adoptées, dont les mérites respectifs pourront être utilement comparés. Cette comparaison ne portera pas seulement sur l’efficacité thermique de ces appareils : on jugera aussi de la plus ou moins grande souplesse apportée à la construction par l’emploi de matériaux différents.
- C’est ainsi que, face au cylindre d’acier terminé par deux coupoles hémisphériques (fig. 2) qui constitue le caisson d’E.D.F. i et à la sphère du même métal à E.D.F. 2, le caisson d’E.D.F. 3 (fig. 3) est entièrement réalisé en béton précontraint, comme le furent précédemment ceux des réacteurs de Marcoule. L’avantage de cette formule est d’allier dans une même enveloppe la résistance à la pression et la protection biologique. Pour E.D.F. 1 et 2, l’enveloppe en acier est entourée de béton afin de répondre à cette dernière exigence. Une enceinte remplie d’eau assure une protection supplémentaire.
- Des difficultés technologiques particulières ont dû être surmontées dans la construction des caissons. Il s’agissait, dans le cas d’E.D.F. 1, de souder entre elles des plaques cintrées d’acier au manganèse-molybdène dont l’épaisseur
- Fig. 2. — Le caisson du réacteur E.D.F. x. Fig. 3. — Modèle réduit du caisson d’E.D.F. 3.
- On voit au centre la coupole supérieure, avec la série des tubes au travers Les tubes qui hérissent la surface du béton coiffent l’extrémité des câbles (ou desquels coulisseront les barres de contrôle. La construction annulaire qui tirants) de précontrainte. Ce modèle, habillé à l’intérieur, comme le futur caisson, entoure le caisson sera remplie d’eau (protection biologique additionnelle). d’une « peau » d’acier, a été soumis à des épreuves de pression.
- (Photo J. Decker). (Photo J. Decker).
- p.275 - vue 279/551
-
-
-
- Fig. 4. — Schéma des trois réacteurs de la centrale de Chinon.
- L’enveloppe cubique en béton sert uniquement de protection biologique à E.D.F. 1 et 2 qui possèdent chacun un caisson métallique (cylindrique pour E.D.F. i, sphérique pour E.D.F. 2). L’enveloppe d’E.D.F. 3 en béton précontraint sert en même temps de cai sson. Les cotes des cylindres actifs expriment la hauteur et le diamètre.
- Caisson d 'acier Enveloppe de béton Cylindres actifs
- EDF3
- atteignait 107 mm. Ni l’alliage ni l’épaisseur ne correspondaient aux normes jusqu’ici appliquées dans le travail du soudage sur chantier et des méthodes inédites ont dû être mises au point. Il a été fait appel à des centaines de résistances électriques appliquées sur les tôles, à un nombre également très important de thermocouples, mesurant réchauffement, et à des tonnes de matières isolantes, destinées à concentrer la chaleur. Le même travail a été exécuté sur le caisson sphérique d’E.D.F. 2, dont la forme n’apportait évidemment aucune simplification. Elle a seulement permis de réduire l’épaisseur des blindages à
- Le combustible
- Le point essentiel sur lequel va porter l’expérience de Chinon est le combustible, considéré à la fois sous l’angle de sa masse, de sa forme et de sa disposition.
- Une idée simple domine actuellement la théorie des réacteurs de puissance : plus ils sont volumineux et contiennent donc une plus grande masse d’uranium, plus
- 95 mm.
- Quant au béton précontraint d’E.D.F. 3, on ne saurait dire qu’il constitue une technique beaucoup plus facile que celle de l’acier, notamment pour la disposition des tirants, orientés sous différents angles. Le béton n’a pas été jugé apte à assurer à lui seul l’étanchéité du caisson : il est donc garni, à l’intérieur, d’une « peau » d’acier de 25 mm d’épaisseur.
- Les dimensions de ces différentes enveloppes apparaissent sur la figure 4. Précisons, en ce qui concerne la forme, que le caisson cubique d’E.D.F. 3 circonscrit une cavité intérieure cylindrique de 20 X 19 m. Les caissons ont dû être calculés en fonction de la pression de 25 kg/cm2 sous laquelle circule le gaz COs, cette pression étant elle-même un facteur important dans la puissance des réacteurs : plus elle est grande en effet, plus intense est l’énergie calorifique transmise par le gaz pour chaque unité de temps.
- En dépit des formes différentes des enveloppes, le cœur des trois réacteurs est réalisé selon une même figure géométrique, le cylindre. Constitué d’un empilement de « briques » de graphite, percées de canaux, ce cylindre est relativement allongé dans le cas d’E.D.F. x, surbaissé au contraire pour E.D.F. 2 et 3. Là encore, il sera possible, en cours de fonctionnement, d’apprécier les avantages respectifs des deux formules bien qu’on ait toutes les raisons de penser que la seconde .est préférable.
- Fig. J. — Comparaison entre les tonnages de combustible des trois réacteurs.
- Les tonnages réels sont figurés par les rectangles en traits pleins. Les rectangles en traits interrompus, à E.D.F. 2 et 3, montrent le supplément de tonnage qui aurait dû être prévu, s’il avait été calculé sur les mêmes bases qu’à E.D.F. i, en fonction de la puissance thermique.
- Puissances
- EDF1
- thermique 300 MW électrique 68 MW spécifique 0,49 MW/t
- 700 MW 170 MW 0,83 MW/t
- EDF3
- 1250 MW 375 MW 0,97 MW/t
- 276
- p.276 - vue 280/551
-
-
-
- leur puissance spécifique est élevée. Rappelons que cette puissance spécifique s’exprime en mégawatts par tonne d’uranium. Une des causes de l’avantage que comporte la grandeur rappelle curieusement un fait biologique bien connu : les gros mammifères (éléphants, rhinocéros, etc.) rayonnent moins facilement la chaleur que les petits, leur surface corporelle étant moins grande, rapportée à la masse. Dans le cas des réacteurs, il ne s’agit pas tant de dissipation de chaleur que de perte de neutrons, ceux-ci s’échappant toujours sur la périphérie du cylindre actif, malgré la présence du réflecteur en graphite.
- La représentation graphique de la figure 5 fait apparaître ce bénéfice neutronique, tel qu’il a été calculé pour les deux réacteurs les plus volumineux. Mais d’autres éléments interviennent qui tendent à réaliser l’optimum dans la production de chaleur, ceci pour l’ensemble des trois prototypes.
- Barreaux tubulaires. — A Marcoule, comme dans les centrales britanniques, l’uranium se présente sous forme de cylindres pleins. Pour Chinon, une innovation importante a été réalisée en choisissant une forme tubulaire (les sections exactes sont indiquées dans la légende de la figure 6).
- Graphite-
- Canalgaz
- Fig. 6. — Schéma de la section des canaux et des barreaux tubulaires.
- L’espace libre à l’intérieur des canaux percés dans le graphite est en majeure partie occupé par les gaines de magnésium, leurs ailettes et des manchons de graphite, ainsi qu’il apparaît sur la figure 10. Ces éléments, non représentés ici, sont séparés du barreau d’uranium par le canal gaz. Voici les diamètres des sections pour les trois réacteurs. E.D.F. i : canal gaz, 84 mm; barreau, 35 mm; canal intérieur, 14 mm. E.D.F. 2 : 98 mm, 40 mm, 18 mm. E.D.F. 3 : 100 mm environ, 40 mm, 18 mm.
- La raison nous en est donnée dans le cours de génie atomique de M. Vendryès où il est rappelé que la puissance d’un réacteur est fonction de l’énergie dégagée par unité de temps, en vertu du phénomène de la fission. Au moment où les noyaux d’uranium 235, frappés par les neutrons, « volent en éclats », leurs fragments se dispersent à des vitesses considérables : énergie cinétique qu’on ne peut malheureusement transformer directement en énergie mécanique. On ne peut la capter que sous sa forme dégradée d’énergie calorifique.
- « Or (citons le texte même de M. Vendryès) les fragments de fission emportent avec eux la plus grosse partie de l’énergie disponible sous forme cinétique. Ils sont rapidement ralentis et stoppés dans la matière. Sur leur parcours
- ils ionisent les molécules et bousculent les noyaux atomiques qui à leur tour communiquent à d’autres molécules l’énergie acquise. Ces cessions d’énergie intéressent un nombre considérable d’atomes sur le passage du fragment et cet apport local d’énergie se disperse en un temps très bref dans la matière par chocs et ionisations en cascade. Tout se passe comme si, à l’endroit où se produit la fission, une sorte de point très chaud se formait et se résolvait dans la masse environnante en élevant sa température ».
- Ce phénomène physique, si brillamment analysé et décrit, se passe en un temps très court et se trouve concentré dans un volume très restreint de matière : le parcours des fragments de fission n’excède pas en effet une dizaine de microns. Les points très chauds sont donc étroitement localisés.
- Il reste à présent à considérer, du point de vue pratique, la chaleur récupérable en vue de la production ultérieure d’énergie mécanique, c’est-à-dire la chaleur qui se dégage à la surface du barreau d’uranium. Un facteur défavorable intervient à l’intérieur du barreau : c’est la mauvaise conductibilité thermique de l’uranium (0,07 cal/cm/s contre 0,93 cal/cm/s pour le cuivre et 0,20 pour le fer). Il est donc avantageux de réduire, dans toute la mesure du possible, la distance moyenne que doit parcourir la chaleur entre les points chauds définis plus haut et la surface du barreau.
- Vu la difficile évacuation de la chaleur, un barreau plein sera plus fortement échauffé en son centre que sur sa périphérie. Il atteindrait par exemple, au centre, une température de 5500 C contre seulement 400° à la surface. On se rapprocherait ainsi des températures critiques où s’amorcent les déformations de l’uranium. A masse égale, le barreau creux diminue l’épaisseur, favorise ainsi la conduction de la chaleur et produit, de ce fait, une puissance plus forte que le barreau plein. On estime qu’une très appréciable économie en neutrons sera obtenue.
- Gaines et ailettes. — Les objectifs fixés par la production de chaleur « à la source », c’est-à-dire au niveau du combustible nucléaire, s’étagent entre des températures de 4000 C pour E.D.F. 1 et 43 50 C pour E.D.F. 3. Mais il convient de rappeler la forme sous laquelle se présente ce combustible. L’uranium (notons en passant qu’il est allié à 1 ou i,5 pour 100 de molybdène afin d’améliorer sa tenue sous irradiation) est hermétiquement gainé de magnésium au zirconium. Cet alliage figure fort heureusement parmi les bons conducteurs de la chaleur et les faibles absorbeurs de neutrons. Encore faut-il qu’il soit « sculpté » de telle sorte qu’il transmette le mieux possible la chaleur au gaz COa chargé de la véhiculer.
- Nous nous trouvons ici en face du banal problème de la radiation ou de l’extraction de chaleur, dont les exemples nous sont fournis par les radiateurs d’appartement et d’automobile. Mais ici les données ne sont pas tout à fait les mêmes : le gaz circule en effet, sous la pression de 25 kg/cm2, à travers les canaux percés dans le graphite, et son cheminement rapide a dû être étudié sous l’angle de l’aérodynamique. Il était opportun d’une part d’accroître la surface d’échange par de nombreuses ailettes qui garniraient la gaine de magnésium; il fallait d’autre part proportionner judicieusement cette surface et le ralentissement que la présence des ailettes allait nécessairement opposer au flux gazeux. Deux dispositions (fig. 7) vont être compa-
- 277
- p.277 - vue 281/551
-
-
-
- EDF 1
- Ailettes rectilignes
- EDF 2 et3
- Ailettes en chevrons interrompus
- Fig. j. — Schéma de la disposition des ailettes des gaines de magnésium.
- A gauche, ailettes rectilignes (E.D.F. i). A droite, en chevrons interrompus (E.D.F. 2 et 3).
- rées : à E.D.F. i, les ailettes longitudinales, placées parallèlement à l’axe du canal, produiront sur le flux un freinage minimal. Le gaz ne ya-t-il pas, en conséquence, se charger de moins de calories qui si son écoulement était moins facile ? On a donc pensé d’abord à remplacer la disposition rectiligne des ailettes par un enroulement hélicoïdal : solution qui, après essais, a été rejetée, car elle donnait lieu à des tourbillons jugés inopportuns. La solution qui apparaît sur notre figure est celle des chevrons interrompus, jugée bonne à la fois au point de vue aérodynamique et pour l’extraction optimale de la chaleur.
- Le réseau
- Aplatissement du flux neutronique
- Il nous faut à présent revenir à une notion de base qui régit la production de l’énergie nucléaire, à savoir le rôle du modérateur. Permettant le rebondissement élastique des neutrons sur les atomes légers (qui en l’espèce sont des atomes de carbone), le modérateur ralentit les neutrons et aide ainsi à leur capture par les atomes de la matière fissile, l’uranium 235. Cette action,* n’est pas déterminée «au petit bonheur» et l’on a dû procéder à de longues études pour fixer d’une part la meilleure répartition possible des éléments combustibles (uranium) au sein de l’empilement du modérateur (graphite), et d’autre part le rapport optimal U/C entre la masse de l’uranium et la masse de carbone du graphite.
- Examinons tout d’abord la répartition : elle résulte d’une figure géométrique uniformément répétée, que les atomistes nomment le réseau. Les deux types de réseaux expérimentés à Chinon sont représentés en plan sur la figure 9. Le réseau d’E.D.F. 1 a été constitué en empilant des briques de graphite de section carrée : les éléments d’uranium, se trouvant dans les canaux percés selon l’axe
- Fig. 8. — Un élément combustible d’E.D.F. 1. Réduit au quart environ.
- des briques, sont au sommet de carrés jointifs. On a donc un réseau carré. Dans le cas d’E.D.F. 2 et 3, les briques sont à section hexagonale et occupent donc le sommet de triangles : le réseau est triangulaire.
- C’est de propos délibéré que ces deux types de réseau vont être confrontés, bien que le second soit présumé meilleur que le premier pour l’échange des neutrons dont le bilan serait donc amélioré. Mais il arrive que la pratique en vraie grandeur dément les résultats théoriques et les essais à échelle réduite.
- Le rapport des deux masses U/C peut facilement être réglé par avance par la dimension des briques et des éléments combustibles. Ainsi est réalisé ce qu’on appelle le pas du réseau, autrement dit l’espacement entre les axes des barreaux. Sans entrer dans le détail des calculs, nous pouvons indiquer que le rapport optimal U/C est voisin de 0,2. Tenant compte des densités très différentes de l’uranium et du graphite, ce rapport se concrétise pour E.D.F. 1 par un pas de 224 mm.
- p—19( G Dtnm-H O
- O O
- EDF 1
- Fig. 9. — Section schématique des réseaux des réacteurs de Chinon.
- A gauche, les réseaux carrés d’E.D.F. i, avec le pas de 196 mm au centre du réacteur et celui de 224 mm sur la périphérie. A droite, le réseau triangulaire d’E.D.F. 2 et 3.
- Nous sommes parvenus à une configuration géométrique assez séduisante du cylindre actif. Il nous faut malheureusement déchanter car un problème délicat est en train de surgir. Le cylindre (on le sait par suite d’expériences déjà nombreuses) ne se comporte pas avec toute l’uniformité désirable : il s’agit en particulier du flux des neutrons qui est nettement plus intense au centre, atteignant une valeur maximale approximative de 3 x io13 n/cm2/s et s’amenuisant vers la périphérie où nous avons déj à noté que les neutrons s’évadent en un nombre appréciable.
- 278
- p.278 - vue 282/551
-
-
-
- Ceci retentit évidemment sur la densité de puissance qui sera plus forte dans la zone centrale. Si l’on n’y portait pas remède, on se trouverait en présence d’une série de canaux beaucoup plus chauds que les autres et dont il faudrait théoriquement évacuer la chaleur à un rythme bien plus rapide : complication devant laquelle on a reculé. Ajoutons qu’en produisant davantage de puissance, les barreaux d’uranium s’useraient plus vite et obligeraient à des « défournements » plus fréquents, ce qui manque également d’attrait.
- Ce problème a été abordé de diverses façons. C’est ainsi qu’un procédé fruste avait été employé à Marcoule et dans divers réacteurs britanniques : des corps étrangers tel que le fer étaient insérés dans la partie centrale du réseau, à seule fin d’absorber l’excédent des neutrons. Perte sèche, évidemment. Et on a proposé d’employer à cet effet le thorium qui a, tout au moins, l’avantage de se convertir partiellement en uranium 233, matière fissile.
- On a préféré, à Chinon, réaliser Y aplatissement du flux neutronique au centre du réseau en jouant sur le rapport U/C. Nous avons indiqué que ce rapport est optimal aux environs de 0,2. En l’élevant à une valeur approximative de 0,3, on abaisse la qualité neutronique du réseau. On a tenu compte du caractère apparemment paradoxal de ce procédé (où on enfourne « trop » d’uranium) en lui donnant le nom de garage.
- Pour réaliser ce gavage, deux solutions ont été adoptées. Le cylindre actif d’E.D.F. 1 a été construit avec deux réseaux différents : le réseau de la zone centrale a un pas de 196 mm, la zone périphérique a un pas optimal de 224 mm Pour E.D.F. 2 et 3, le pas est uniformément de 225,16 mm qui, compte tenu du rapport U/C, est un pas de gavage. Mais un certain nombre de canaux de la périphérie ne contiennent qu’un nombre réduit d’éléments combustibles. Ce remplissage partiel n’est d’ailleurs pas rigoureusement fixé par avance : l’aménagement du réseau se fera de manière progressive avant la montée en pleine puissance. Et à cet égard, le système des canaux à remplissage facultatif est certainement d’une grande souplesse.
- Les latitudes de réglage laissent une marge assez importante dans l’évaluation des puissances de chaque réacteur Celles qui ont été indiquées plus haut sont des puissances nominales qui pourront ne pas être atteintes ou, plus vraisemblablement, être dépassées.
- Chargement et déchargement
- Nous n’avons pas indiqué jusqu’ici que l’uranium gainé de magnésium est divisé en un grand nombre de cartouches (17000 environ à E.D.F. x, 23700 à E.D.F. 2, 41 500 à E.D.F. 3). Elles sont rigoureusement étanches, ce qu’un laboratoire de Chinon contrôle dans un appareil où elles sont mises en présence d’hélium sous pression. La moindre infiltration constatée les ferait rejeter.
- Le chargement de ces cartouches dans les canaux du cylindre actif, ainsi que leur déchargement après irradiation, posent une série de problèmes mécaniques qui ont donné lieu à diverses solutions.
- Pour E.D.F. x, la solution adoptée est double : un bras d’acier de plusieurs mètres de long sollicite les cartouches par en bas. Elles sont recueillies, s’il s’agit d’un déchargement, dans une galerie souterraine « chaude ». C’est
- seulement en cas de difficulté (cartouches déformées ou coincées) que l’on fait appel à un dispositif de secours, placé au-dessus du réacteur. De toute manière, ces manipulations ne sont entreprises que pendant des arrêts de la centrale.
- Comparaison sera faite avec les dispositifs prévus pour E.D.F. 2 et 3 où les chargements et déchargements se feront uniquement par en haut. Des appareils mécaniques pesant des centaines de tonnes et munis de bras articulés se déplacent, grâce à un pont roulant, pour venir s’aligner avec précision sur les trous de chargement. Un dispositif spécial permet d’effectuer toutes les opérations alors que les réacteurs sont en marche.
- L’échange de chaleur
- Une station de compresseurs (familièrement appelés « soufflantes ») fait circuler le gaz COa à travers les canaux du réacteur, sous la pression déjà indiquée de 25 kg/cm2. Ainsi se trouve amorcé un premier circuit auquel répond un deuxième qui est le circuit de vapeur. Le problème est évidemment que l’énergie calorifique créée dans le cœur
- Fig. IO. — Maquette de l’empilement de graphite d’E.D.F. 2.
- Les briques superposées sont à section hexagonale. On remarque des briques en arraché où apparaissent (à gauche) le manchon en graphite et (à droite) le même manchon, laissant voir la jonction entre deux éléments combustibles.
- (Photo Pechiney).
- p.279 - vue 283/551
-
-
-
- du réacteur soit transmise avec le minimum de perte d’un circuit à l’autre. Sans entrer dans le détail des dispositifs adoptés, on peut dire, en gros, que la solution de ce problème est acquise en créant une surface d’échange aussi grande que possible.
- Ce principe est respecté dans tous les cas : à Marcoule, le dense réseau de tubulures qui réalise la surface d’échange était concentré dans de massives et gigantesques colonnes qui voyagèrent sur les routes de France et furent popularisées sous le nom de « mille-pattes ». A Chinon, il a paru préférable de répartir la fonction de l’échange entre un certain nombre d’éléments qui échappent ainsi au gigantisme du « mille-pattes ». Aucune différence essentielle entre les configurations de ces éléments. On s’est seulement attaché à leur donner une forme susceptible de s’harmoniser avec les proportions de chaque réacteur : ils sont plus minces à E.D.F. i (29 X 0,635 m) qu’à E.D.F. 2 (25,1 x 0,922 m) (fig. 11) et à E.D.F. 3 (14,27 x 1,10 m). Les surfaces totales d’échange sont chiffrées en hectares ( !) : 3,78 ha pour E.D.F. 1 avec 120 éléments de 315 m2 ; 4,26 ha pour E.D.F. 2 avec 96 éléments de 444 m2 ; 8,09 ha pour E.D.F. 3 avec 192 éléments de 421,5 m2.
- Selon les calculs, l’échange de chaleur doit aboutir aux résultats suivants :
- A E.D.F. 1, le gaz C02 est admis dans le circuit à la température de 1450 C. Il est réchauffé à 3 5 5°C dans le réacteur et élève à 3420 C la température du circuit vapeur.
- A E.D.F. 2, température d’admission C02 : 198° C ; température à l’échange : 365° C ; température vapeur : 34°° c.
- A E.D.F. 3, température d’admission C02: 2400 C ; température à l’échange : 4100 C ; température vapeur : 4000 C.
- Pilotage et sécurité
- Que demande-t-on en somme à un réacteur de puissance ? De fournir une puissance constante dans le temps et aussi uniforme que possible dans l’espace que représente le cylindre actif, ce second but étant théoriquement atteint grâce à l’aplatissement du flux.
- Quant à la puissance, elle est susceptible de varier en fonction de la réactivité du réseau (combustible ff- modérateur). L’expérience acquise démontre que cette réactivité tend à s’élever dans une première phase et à s’abaisser progressivement dans une seconde phase, d’ailleurs beaucoup plus durable.
- Ceci demande à être expliqué. Les noyaux de la matière fissile, l’uranium 23*5, sont évidemment «consommés» et ce combustible non renouvelé devrait en principe fournir de moins en moins de chaleur. Mais il se trouve que les neutrons agissent sur la masse très importante de l’uranium 238 en convertissant une partie de ses atomes en plutonium 239, autre matière fissile dont la capacité d’absorption neutro-nique est meilleure que celle de l’uranium 23 5. Le plutonium contribue donc pour sa part au travail du réacteur et c’est ainsi que ce dernier monte en puissance jusqu’à un certain maximum. Par la suite, la réactivité commence à baisser, non seulement en raison de la consommation de l’uranium 235, mais aussi de l’accumulation des produits de fission dont certains (samarium et xénon) sont des absorbeurs voraces de neutrons.
- En définitive, la charge du réacteur de la filière gaz-graphite est « empoisonnée » et doit être renouvelée lorsque sa valeur en uranium 235 s’est abaissée aux environs de 0,4 à 0,45 pour 100. On évalue à quatre ans sa durée maximale de vie, pour les taux de combustion qui ont été adoptés à Chinon.
- Il est clair que la montée initiale et la baisse finale de puissance doivent être compensées : ce rôle est dévolu aux barres de compensation à base de carbure de bore (corps absorbeur de neutrons) que l’on fait plonger plus ou moins profondément dans le cœur du réacteur selon qu’on veut déprimer ou accélérer le flux neutronique. Il existe également des barres dites de pilotage qui interviennent en cas d’incident pour stopper rapidement le réacteur.
- Mais on conçoit aisément que toute action imprimée aux barres de l’une ou l’autre catégorie est subordonnée aux informations transmises à l’extérieur sur ce qui se passe dans l’enceinte hermétiquement close du réacteur. Ce sont essentiellement des mesures de température, fournies par des thermocouples répartis à travers la masse du graphite, chaque thermocouple enregistrant la température d’un canal.
- Or ces canaux sont nombreux : 1 148 à E.D.F. 1, 1 977 à E.D.F. 2, 2 737 à E.D.F. 3. C’est donc autant d’informations qui parviennent en principe au tableau de commande de chacun des réacteurs, sous la forme de forces électro-motrices (f.e.m.) transmises à partir des thermocouples. Non seulement ces f.e.m. sont très faibles (de l’ordre de la dizaine ou de la centaine de miUivolts), mais on conçoit que mises simultanément, de quelque manière que ce soit, et en telle quantité, sous les yeux d’un opérateur, elles sont par celui-ci strictement inexploitables.
- Il faut donc que cette masse d’informations soit traitée. Premier point : chaque information f.e.m. doit être séparée de la voisine et cela ne peut se faire qu’en réalisant une séquence déterminée. Elle peut alors être amplifiée, sans qu’il soit nécessaire désormais de faire appel à un amplificateur individuel pour chaque conducteur issu d’un thermocouple.
- Cet échelonnement dans le temps est obtenu grâce à un système de commutation, analogue à ceux employés en téléphonie et sur la structure desquels nous n’insisterons pas. L’essentiel est de savoir que la f.e.m. amplifiée parvient à destination sous une forme théoriquement « lisible », ayant été traduite (ce qui ne pose qu’un problème simple) en degrés Celsius. Le message reçu sera par exemple : « Le thermocouple E 23 N annonce 360° C».
- Les informations se succèdent à un rythme ultra-rapide (1 200 à la minute). Est-il vraiment indispensable de les recueillir toutes ? Non, avait-on décidé à Marcoule où le traitement de l’information était confié à une première installation électronique, conçue et construite par la Compagnie industrielle des téléphones (C.I.T.). Seules méritaient d’être connues, estimait-on, les anomalies, c’est-à-dire les températures excédant un seuil déterminé. L’installation automatique de Marcoule ne se déclenche donc que dans ce cas : une téléscriptrice affiche en rouge les températures excessives. L’opérateur fait alors le nécessaire pour corriger l’anomalie. Autrement dit, l’information est traitée, concentrée jusqu’à devenir utilisable, mais le pilotage, confié à un opérateur humain, reste « manuel ». C’est à partir de ce degré d’automaticité que nous allons voir le matériel se perfectionner à Chinon.
- 280
- p.280 - vue 284/551
-
-
-
- Fig* il* — Une série d’échangeurs de chaleur d’E.D.F. 2. vus par dessous).
- {Photo J. Decker.
- 281
- p.281 - vue 285/551
-
-
-
- A E.D.F. i, ce matériel s’est enrichi d’un organe de mémoire, capable d’enregistrer 18 ooo températures. Cela permet aux ingénieurs de pratiquer des sondages dont, selon tout ce qui précède, il est facile de concevoir l’intérêt. On peut par exemple demander à la mémoire de restituer toutes les températures enregistrées pendant une minute : c’est ce qu’on a baptisé, de manière expressive, la carte-pile, carte en effet où il est possible de repérer les régions plus ou moins chaudes. Mais si un canal est devenu suspect, la mémoire sera consultée à son sujet pour une période bien plus longue, allant même jusqu’à 30 heures. Et les informations chiffrées sont complétées par des courbes grâce auxquelles on peut apprécier rapidement une situation.
- Avec E.D.F. 2, un nouveau stade est franchi dans le sens de pilotage automatique : l’appareil CITAC 210 B est un calculateur pilote qui ne reçoit plus seulement les informations concernant les températures, mais également les débits, les pressions et certains paramètres nucléaires et chimiques. 1 609 valeurs sont ainsi scrutées, chaque minute. Leur enregistrement par le calculateur répond à deux objectifs : la statistique et la surveillance. N’insistons pas sur le premier qui est, comme précédemment, du simple domaine de l’information, exploitée après coup par le personnel technique. Dans la surveillance au contraire, c’est le calculateur qui intervient directement et spontanément dans le pilotage du réacteur. Il a en effet enregistré un programme où figurent un certain nombre de seuils maximaux et minimaux.
- Deux exemples vont montrer l’efficacité de ce pilotage automatique. Le premier concerne le circuit de refroidissement par CO 2 : les mesures reçues (température, pression) sont comparées avec les données du programme et, si elles ne sont pas conformes, le calculateur réagit par des interventions telles que des ouvertures ou des fermetures de vannes. Deuxième exemple : s’il apparaît, par des baisses ou des haus'ses locales de température, que la courbe aplatie des flux s’est déformée dans un sens ou dans l’autre, c’est le calculateur qui, guidé par son programme, rectifiera la distorsion en agissant sur les barres de compensation. Les consignes enregistrées dans la mémoire du calculateur lui enjoignent, en cas d’anomalies importantes, de stopper le réacteur en abaissant rapidement les barres dites de pilotage.
- Notons que ces missions multiples excéderaient la capacité d’un seul calculateur. Ce sont en réalité quatre CITAC qui fonctionneront simultanément au poste de pilotage d’E.D.F. 2. Aucune indication n’a encore été donnée au sujet des auxiliaires électroniques d’E.D.F. 3.
- D’autres dispositifs automatiques où intervient à nouveau le calculateur électronique sont destinés à parer à un incident toujours possible qui est la rupture de la gaine en magnésium allié de zirconium d’un élément combustible.
- E.D.F. 4 dans
- A la suite de la centrale de Chinon, l’Electricité de France développera son programme nucléaire en créant, également en bordure de la Loire, une nouvelle centrale. Elle sera située à Saint-Laurent-des-Eaux (Loir-et-Cher) et sa première unité, E.D.F. 4, conforme à la formule uranium naturel - graphite - gaz, pourrait atteindre une puissance électrique nette de 50© MW. Il est à noter que cette puis-
- En pareil cas, les produits gazeux de fission se répandraient dans le circuit du COa et compromettraient la sécurité biologique de la centrale.
- Pour parer à ce risque, on a créé un système de détection qui utilise tout d’abord une série d’appareils électropneumatiques dont le rôle est d’opérer des prélèvements de CO 2 sur chacun des canaux du réacteur. A vrai dire, étant donné le grand nombre de ces canaux, ils sont groupés en faisceaux de 4 ou 8. Le gaz prélevé est automatiquement soumis au comptage des particules, ce qui permet de mesurer son degré de radioactivité. Le dispositif qui assure le prélèvement et le comptage est appelé prospecteur. Les prospecteurs sont la source d’informations immédiatement transmises au calculateur, à raison de 12 par minute à E.D.F. 1 et 2, 17 par minute à E.D.F. 3.
- Les informations sont comparées par le calculateur avec les valeurs stockées dans sa mémoire. Si le seuil fixé par avance est légèrement dépassé, le calculateur déclenche un détecteur spécial, le suiveur, chargé d’individualiser, dans le faisceau contaminé, le canal responsable de l’excès de radioactivité. Une fois cette nouvelle information reçue, il ne reste qu’à procéder au remplacement de l’élément combustible défaillant. Si le seuil avait été brusquement et largement dépassé, on ne ferait pas appel aux bons offices du suiveur : le calculateur, appliquant une consigne d’alerte, stopperait le réacteur.
- L’appareil chargé de ce contrôle spécial est le R.W. 300, construit par la Compagnie européenne d’automatisme. Chacun des réacteurs de Chinon sera en principe doté de deux de ces appareils, afin de parer à une défaillance de l’un d’eux. Le cycle complet de détection durera en principe 24 mn à E.D.F. 1 et 2, 48 mn à E.D.F. 3.
- *
- * *
- Nous ne pouvons nous étendre sur les nombreuses installations annexes de la centrale, telles que le stockage sous l’eau des barres irradiées, la station d’épuration du gaz CO 2, le château d’eau qui fournit l’eau de refroidissement aux condenseurs et loge en même temps un dispositif d’épuration par échanges d’ions pour l’eau du circuit de vapeur. Chacune de ces annexes est en elle-même intéressante mais ne joue qu’un rôle secondaire dans le développement de l’expérience de Chinon. Expérience dont les chances de succès sont en général jugées très favorablement. C’est sur le plan technique en premier lieu et sur le plan économique en seconde analyse que ce test, à la fois ample et original, apportera, espère-t-on, une confirmation industrielle de la filière uranium naturel, graphite et gaz.
- Yves Mériel.
- le Loir-et-Cher
- sance serait fournie par un seul réacteur, alors que les centrales britanniques similaires juxtaposent des réacteurs de moindre puissance.
- La construction d’E.D.F. 4 doit en principe débuter en 1963. Son achèvement est prévu pour 1967-68. D’autres unités, E.D.F. 5 et 6, sont envisagées dans un avenir assez rapproché.
- Y. M.
- 282
- p.282 - vue 286/551
-
-
-
- Le vol orbital du commandant Carpenter
- Le jeudi 24 mai, l’Agence pour l’Aéronautique et l’Espace a fait accomplir à un second astronaute, le capitaine de corvette Malcolm Scott Carpenter, une triple révolution autour de la Terre. L’expérience, semblable dans ses grandes lignes à celle qu’avait mené à bien le 20 février le colonel Glenn, s’est déroulée conformément aux prévisions, à ceci près qu’une défaillance du dispositif de « contrôle d’attitude » de la capsule, alliée, semble-t-il, à un malaise du pilote, a fait que la capsule spatiale occupée par l’astronaute, Y Aurore--], est retombée dans l’Océan Atlantique à quelque 400 km du point prévu pour la chute. Aussi le temps nécessaire à la récupération de l’astronaute et de son engin a-t-il été sensiblement plus long que lors du vol précédent.
- En principe, la seule différence entre le vol du colonel Glenn et celui du commandant Carpenter devait résider dans la tâche confiée au pilote. Dans la première de ces expériences, l’astronaute avait surtout reçu pour mission de vérifier le bon comportement des divers organes de la capsule Mercury et de déterminer dans quelle mesure un pilote humain pouvait se substituer aux dispositifs automatiques pour assurer le contrôle de l’attitude de la capsule. On sait que les circonstances ont permis au colonel Glenn de donner une brillante démonstration tant de ses capacités personnelles que de la manœuvrabilité de l’engin. Le commandant Carpenter, au contraire, avait pour tâche essentielle de procéder à un certain nombre d’observations destinées pour la plupart à préparer les vols spatiaux de l’avenir.
- La première série d’observations, qui portait sur la visibilité d’un engin spatial et l’appréciation des distances dans l’environnement terrestre, avait essentiellement pour but de rassembler des informations sur la manière dont pourrait être mené à bien, dans l’avenir, un « rendez-vous orbital ». Ainsi le pilote dut apprécier les distances où s’est trouvée la fusée porteuse, une Atlas 107 D, après qu’elle se fut séparée de la capsule; de même il lui a fallu observer le comportement d’un ballon largué par la capsule et revêtu de diverses couleurs, puis observer des confetti multicolores lâchés par son engin. La seconde expérience, qui revêtait une importance particulière, visait à étudier la
- Les effets des charges électriques sur les précipitations atmosphériques
- Des chercheurs de l’Université de l’Illinois étudient actuellement l’influence des charges électriques sur la formation des nuages et des chutes de pluie. A cet effet, près de 50 km de fil métallique ont été tendus au-dessus de 155 km2 de terres cultivées de l’Illinois, afin de charger d’électricité les particules de poussière contenues dans l’air. Cinq stations d’observation au sol étudieront l’effet de ces charges sur les nuages qui passeront au-dessus d’elles, tandis que des avions traverseront ces nuages pour mesurer leur charge électrique. On espère ainsi obtenir des informations complémentaires sur la formation des nuages et les précipitations atmosphériques. {Information U.S.I.S.).
- manière dont se comporte en état d’impesanteur un liquide placé dans un réservoir; seule, en effet, une connaissance approfondie des phénomènes qui se déroulent alors, impossible à obtenir sur terre, peut permettre la mise au point d’un moteur-fusée qui fonctionne en état d’impondé-rabilité. Quant à la troisième série d’expériences, elle visait à mettre à l’épreuve un certain nombre de procédés photographiques et notamment à déterminer avec quelle précision l’on pouvait repérer d’un engin spatial la ligne d’horizon qui est souvent employée comme repère pour les dispositifs de contrôle d’attitude.
- Il s’en faut malheureusement que l’astronaute ait été à même de mener à bien toutes les tâches qui lui avaient été confiées. Le dispositif automatique de stabilisation de la capsule n’a pas fonctionné d’une manière irréprochable : on a constaté un épuisement anormalement rapide du peroxyde d’hydrogène qui alimente les petits moteurs-fusées chargés d’assurer le contrôle d’attitude. Pour économiser le carburant l’astronaute a donc dû, comme l’avait fait le colonel Glenn, prendre lui-même les commandes de son engin. La capsule était donc pilotée par son occupant lorsque le moment vint de mettre à feu les rétrofusées qui devaient « décrocher » Y Aurore--] de son orbite et l’engager dans la trajectoire de rentrée prévue. L’engin n’a pas alors été orienté comme il aurait dû l’être pour que la trajectoire suivie corresponde à celle établie par les calculs; la poussée des rétrofusées ne s’est pas exercée dans la direction arrêtée à l’avance et la composition des forces auxquelles la capsule était soumise s’opérant d’une manière imprévue, l’engin a amorcé une descente qui devait l’amener à prendre contact avec la surface de la Terre à une distance assez considérable de la zone où l’attendaient les forces aéronavales chargées de la récupération. C’est à 13 h 45 (heure française) que la fusée porteuse avait été mise à feu de la base de Cap Canaveral; Y Aurore--] et son occupant sont tombés dans l’Océan Atlantique à 18 h 41; c’est seulement à 19 h 20 qu’un hydravion dépêché à leur recherche a pu prendre le contact ; la récupération de l’astronaute ne put avoir lieu qu’à 21 h 45, et celle de la capsule sensiblement plus tard.
- N. V.
- Expérience d’irradiation contre la mouche des fruits
- Une opération de grande envergure contre la mouche des fruits {Ceratitis capitata), qui attaque les fruits les plus divers et occasionne des pertes considérables pour les producteurs des pays méditerranéens et tropicaux, est en cours en Australie. Des expériences ont montré que les mâles, irradiés dans certaines conditions, deviennent stériles tout en conservant la faculté de s’accoupler. Les femelles, ne s’accouplant qu’une fois, sont ainsi stérilisées quand elles ont eu affaire à un mâle irradié. On a inauguré une expérience qui consiste à irradier deux millions de mouches mâles et à les lâcher ensuite dans six régions de l’Etat des Nouvelles Galles du Sud. {Information de/’Ambassade d’Australie).
- 283
- p.283 - vue 287/551
-
-
-
- Etourneau, grive, merle, loriot dans l’histoire et la linguistique
- par Michel Rohlin
- Un précédent article, consacré aux noms de quelques passereaux à gros bec (Fringillidés et Plocéidés) nous avait montré le profit que l’ornithologie, l’histoire et la philologie pouvaient tirer d’une recherche située aux frontières des sciences humaines et des sciences naturelles. Après les pinsons et moineaux, et genres voisins, les merles, les grives et les étourneaux vont également nous permettre un agréable voyage dans l’espace et le temps au cours duquel nous assisterons à une phase particulièrement captivante de l’intégration du monde de l’oiseau au sein du domaine sans cesse croissant de l’humanité (1).
- Un tourbillon désordonné : l’étourneau ou sansonnet
- Le nom de l’étourneau dans la Rome antique, sturnus, a été fidèlement conservé dans les langues latines, aussi bien en français que dans le provençal estornel, l’espagnol estornino ou l’italien storno, resté plus proche de la commune origine. L’allemand star et l’anglais starling, visiblement apparentés aux précédents, nous conduisent au lithuanien j'fraudas et au roumain stur^, emprunté au slave des Balkans, qui désignent non pas l’étourneau, mais la grive. Or ce dernier passereau, rangé par les naturalistes dans une famille différente, partage avec l’étourneau un certain nombre de caractères et il est très normal que nos ancêtres des âges de la pierre n’aient pas cru devoir préciser, dans leur élémentaire lexique, la différence qui les sépare. Nous retrouvons en effet dans le nom de la grive en latin, turdus, en russe dro%d et en allemand drossel, le radical précédent, amputé seulement de la consonne initiale. Cette chute de l’j- s’applique d’ailleurs aux deux familles dans les dialectes celtiques et en breton, par exemple, l’étourneau, dred, est encore très proche de la grive, drask. Nous avions déjà rencontré ce radical dans le nom du moineau en grec, strouthos et le nom de celui-ci en latin, passer, concerne à Athènes l’étourneau, psar, tandis que les Hollandais avec spreeuw et les Polonais avec s^pak lui ont attribué sans doute le même terme, mais encore pourvu de la consonne initiale, conservée dans l’anglais sparrow et l’allemand spatti pour désigner précisément le moineau ! Dans tous les cas, l’allusion est empruntée au vol désordonné, accompagné de pépiements discordants, de l’étourneau, de la grive et du moineau, car en latin strido évoque le
- ï. Voir : Quelques passereaux à gros bec dans l’histoire et la linguistique, par Michel Roblin, La Nature-Science-Progrès, juillet 1961, p. 299-305. Les passereaux dont il sera question ici sont rangés dans d’autres familles : Sturnidés étourneau), Turdidés (grives et merles), Oriolidés (loriot).
- grincement strident, en allemand struâeln le tourbillon désordonné, sens proche du grec spairo, se débattre et se trémousser, qui nous ramène à Rome avec sperno, repousser du pied, et à Berlin où spornen évoque la stimulation de l’éperon, l’énervement et l’agitation.
- Dans nos campagnes l’étourneau est plus fréquemment nommé sansonnet. Surnom ironique ont prétendu des philologues comme Littré : la force de l’étourneau mise par plaisanterie dans la même balance que celle du héros de la Bible. Explication que rien ne justifie, car si l’étourneau est un passereau de taille médiocre, sa faiblesse n’attire pas spécialement l’attention et des oiseaux beaucoup plus petits comme le roitelet ou même le moineau auraient, avec plus de justesse, dû recevoir ce sobriquet moqueur. Qu’il s’agisse bien du prénom Samson est cependant hors de doute, et il nous reste à savoir la raison de ce choix curieux.
- Les passereaux ont souvent reçu des prénoms qui ont parfois supprimé l’ancienne appellation, mais presque toujours nous en saisissons la raison. En anglais Robin appliqué au rouge-gorge, jadis red breast, rouge poitrail, est le diminutif de Robert, en vieil anglais Rodbrecht, et le jeu de mots nous donne la clef ; chez nous le martinet et le martinet-pêcheur, le martin-pêcheur, semblent avoir été voués par la tradition populaire au culte de l’apôtre des Gaules, le bon saint Martin, alors qu’il s’agit d’une simple allusion à la longueur de leurs ailes frappant l’air comme les lanières d’un martinet, d’un fouet, c’est-à-dire d’un petit marteau; Margot, diminutif de Marguerite, désigne familièrement la pie, et en anglais, magpie, Margot la pie, est devenu un nom commun, mais à l’époque où le passereau babillard a reçu ce prénom notre langue gardait encore du latin margarita, perle, un souvenir précis, et c’est une allusion à une perle blanche et à une perle noire qui a doublé le nom de l’oiseau, déjà formé à Rome, pica, en hommage au coloris de la pie, peinte, picta, à la beauté de sa livrée ; on l’appelle aussi Jaquette, synonyme de Jacqueline, car elle est également nommée agace et jagasser, jacasser et jaqueter sont apparentés à l’agacement produit par le caquetage ininterrompu du passereau bavard.
- Chez les Hébreux de l’Ancien Testament le nom de Chimchôn, grécisé en Samson, est tiré de celui du soleil, chemech ; il est par conséquent d’origine plus chanaanéenne, païenne et polythéiste que véritablement israélite et évoque les cultes astraux de l’ancien Orient. Douzième juge d’Israël, sa mémoire a toujours été vénérée chez les Juifs de l’Antiquité, du Moyen Age et des Temps Modernes, avec des prénoms orthographiés selon les régions Samson, Schimschon ou Chimchôn, mais les chrétiens semblent
- 284
- p.284 - vue 288/551
-
-
-
- Fig. I. — Nuage d’étourneaux sur un étang.
- En automne les étourneaux forment des bandes énormes qui tourbillonnent au crépuscule avant de se poser aux roseaux des étangs.
- avoir été peu sensibles à son souvenir, sauf peut-être en Bretagne, indirectement d’ailleurs, puisqu’il s’agit d’un culte voué à saint Samson, venu de Grande-Bretagne au VIe siècle pour fonder le monastère de Dol, origine de l’évêché et de la superbe cathédrale que le touriste est surpris de découvrir en ce bourg aujourd’hui déchu et qui fut la première capitale de notre province. Chez nos paysans des autres régions, Samson était plutôt le symbole de la force, et, comme celle d’Achille, vulnérable en un point secret, le tendon pour le héros grec, la chevelure pour le héros juif. Trompé par Dalila, le vainqueur des Philistins est tondu pendant son sommeil, livré à ses ennemis qui l’enchaînent après lui avoir crevé les yeux et lui font tourner la meule d’un moulin. Ayant recouvré ses forces en même temps que ses cheveux, Samson, symbole de la force aveugle, mais non pas inconsciente, s’ensevelit volontairement sous les ruines du palais où il était prisonnier, entraînant dans la mort toute l’aristocratie philistine.
- C’est vraisemblablement ces derniers épisodes de la vie de l’athlète aveugle qui ont valu à l’étourneau le surnom de sansonnet ; il vole rapidement, brusquement, mais sans direction, sans but, à Y aveuglet te, et si la cécité du juge biblique n’était nullement accompagnée d’aveuglement,
- il est à croire que le folklore n’a pas retenu ces nuances et que des noms de famille comme Sançon, Sanson et Samson sont, plutôt que d’anciens prénoms, de simples surnoms attribués au Moyen Age à un chef de famille dont le comportement physique ou moral rappelait de quelque façon la vie légendaire de l’amant de Dalila. Il est d’ailleurs à remarquer que les Allemands ont donné le nom de cécité de l’étourneau, starblind, à la cataracte, à la taie qui, comme une herse barrant une porte, en gréco-latin cataracta, peut conduire à une perte totale de la vue.
- En général toutefois le manque de réflexion du passereau a davantage intéressé nos facétieux ancêtres et des patronymes comme Etourneau, Etournaud, Estournet, Estournel ou Létourneau, qui abondent dans nos annuaires, n’ont pas d’autre origine.
- Étourderie ou étourdissement Grivèlerie et grivoiserie
- Le nom latin de la grive, turdus, est passé en italien et en castillan, tordo, ainsi qu’en vieux français, lourd ; les trois langues ont tiré de l’appellatif un verbe, stordire, atordir, étourdir qui exprime à l’origine l’abrutissement de l’oiseau gavé de raisin, nous disons encore « saoul comme une grive». Le passereau s’abat en effet sur nos vignobles à l’époque des vendanges, mais cet étourdissement éthylique n’a rien à voir avec l’étourderie, la légèreté, qui provient d’une confusion avec l’étourneau, la ressemblance des espèces expliquant facilement cet accrochage, cette
- 285
- p.285 - vue 289/551
-
-
-
- 800 km
- strazdas
- starling * •S37hrosti
- szpah
- drozd
- star drosseI
- drozd
- étourneau
- sansonnet
- milch'ouid
- \ grive
- k mauviette r litorne estornel
- testorninno
- chanta
- cagaceite
- zorzal
- Fig. 2. — L’étourneau et la grive dans diverses langues d’Europe.
- Les noms qui désignent l’étourneau sont soulignés.
- étymologie populaire. La nuance est encore très sensible avec l’adjectif étourdi, devenu pratiquement synonyme de distrait, sauf lorsqu’il est précisé par un complément, étourdi par le bruit, étourdi par un coup, et retrouve alors le plein sens d’êtourdir, abasourdir, assommer. La grive ne passe pas non plus pour être spécialement intelligente, mais il s’agit bien de sottise et non d’étourderie, comme dans l’espagnol cabe^a de tordo, à la fois tête de linotte et tête de mule, ou dans le grec kôphoteros kikhlès, plus stupide qu’une grive, nous dirions plus bête qu’un âne.
- Notre langue a abandonné tourd au profit d’un adjectif féminin, grive, au masculin grieu, forme ancienne de « grec ». Certains ont cru y voir une allusion aux migrations de l’oiseau, opposant la grive, qui apparaît seulement en été dans nos campagnes, au merle, son proche parent, qui réside chez nous en toutes saisons. A l’appui de cette hypothèse, on peut citer le nom vénitien de l’hirondelle, ciprioto, en faisant toutefois remarquer que les Vénitiens étaient en relations constantes, à l’époque de la Sérénissime République, non seulement avec l’île de Chypre, mais avec tout l’Orient grec et qu’il est normal pour eux d’avoir précisé dans le vocabulaire l’hiver cypriote de l’hirondelle. Il paraît curieux que les Français qui avaient déjà un nom pour le merle, à la différence des Anglais, pour lesquels le passereau
- Fig. }. — Grive de nos pays.
- A gauche : Draine (en haut) et Mauvis.
- A droite : Litorne et Grive musicienne sur un pied de vigne.
- (Dessins inédits de Roger Reboussin).
- est simplement l’oiseau noir, black bird, et des Russes, la grive noire, tcherny dro^d, aient précisément été les seuls à vouloir isoler la grive par rapport au merle.
- Nos ancêtres du Moyen Age voyaient dans le monde grec une humanité hostile parce que schismatique, et l’orthodoxie byzantine n’était guère plus appréciée en Occident catholique que l’Islam, le judaïsme et autres formes de « paganisme ». A cette méfiance première, les Croisades avaient ajouté l’incompréhension naturelle entre l’esprit placide des compagnons nordiques de Godefroy de Bouillon et l’astuce des héritiers d’Ulysse. Les Français, à en croire nos chroniqueurs, auraient rencontré chez les Grecs des caractères batailleurs plus que belliqueux, avec un mélange de bavardage, de discussions stériles, de bruit, de tapage inutile, de rixes provoquées par l’ivresse. Tout ceci conduisit à donner à l’adjectif grive, et à une variante, grièche, un sens presque toujours péjoratif qui cadre fort bien avec la médiocre estime dans laquelle les vignerons et en général les cultivateurs tiennent le passereau qui vient en octobre compromettre par ses déprédations le résultat d’une année d’efforts. La pie-grièche est d’ailleurs bien plus querelleuse que la grive, on l’appelle parfois l’écorcheuse, et sans se contenter d’insectes elle s’attaque même aux petits oiseaux ; l’ortie-grièche pique, brûle, d’une façon particulièrement douloureuse, la noix-grièche est si coriace qu’on n’arrive pas à la casser et nos aïeux donnaient aussi le nom de grièche à un jeu de dés si compliqués qu’il en naissait toujours d’interminables discussions byzantines.
- Du nom de la grive nous avons tiré un adjectif, grivelê, pour qualifier la teinte même du ventre du passereau où
- 286
- p.286 - vue 290/551
-
-
-
- se mêlent le gris et le blanc et aussi un appellatif, la grivèlerie, allusion aux menus larcins de la grive, partie sans payer la note de ses consommations dans les clos et les vignes. Il ne faut sans doute pas mettre sur le compte déjà si chargé de l’oiseau pillard la seconde acception du terme dans le sens de querelle, appliqué au tapage des soldats en goguette, de la vie de garnison ; contentons-nous de l’attribuer également à la vieille antipathie des Latins, des «Francs», à l’encontre des Grecs, qui donna pendant longtemps le nom de corps de grive au corps de garde, et à ses plaisanteries d’un goût douteux, celui de grivoiseries. La tabatière des soldats de l’Ancien Régime, des joyeux grivois, était la grivoise et le nom allemand du long fer à râper qu’elle contenait, reib eisen, n’est pour rien dans sa désignation.
- Les annuaires nous offrent une collection nombreuse de noms de famille comme Grivaud, Grivaux, Grivaz, Griveau, Grivel, Grivelet, Grivellé, Grivet, Grivois et Grivot. Selon les cas, et le doute est toujours permis, l’allusion peut concerner la teinte des cheveux ou le manque de scrupule d’un ancêtre médiéval et dériver ainsi directement du nom du passereau, mais le caractère querelleur et batailleur est souvent plus probable, appliqué parfois à d’anciens militaires, revenus au pays après avoir fait partie d’un corps de grive et connus dans le village pour la verdeur de leurs propos grivois !
- Folâtrer comme la litorne
- Les Néerlandais, Flamands et Hollandais, ont appliqué à la grive, lyster, un radical exprimant le désœuvrement, le fait de folâtrer, de s’amuser à des riens et traduisant bien l’activité désordonnée du passereau, avec ses alternatives de nonchalance et de fébrilité. Connu dans le francique des guerriers de Clovis, le terme a pénétré en français par l’intermédiaire du patois picard, truffé de germanismes, et litorne, on dit aussi lutrone, est le nom d’une grande grive du nord de la France, tandis que lutroner ou lutourner, en Picardie, évoquent la démarche lente du lutron, du lambin. La plus petite de nos grives, la mauviette, le mauvis, malvis en espagnol et mavis en anglais, est la plus appréciée pour sa chair. Son nom en breton, milcFouid, très proche de celui du merle, moualdh, nous donne peut-être l’origine du terme, et il est possible que la Bretagne ait jadis été renommée pour la succulence de ses mauviettes. Les Castillans ont une infinité de termes pour toutes ces petites grives particulièrement nuisibles dans un pays sec où les fruits plus rares sont spécialement attirants pour tous les oiseaux amateurs de baies. Ils leur donnent souvent le surnom même de l’ouvrier des huileries, cagaceite, travaillant au milieu de la pulpe des olives, nauséabonde comme des excréments, ou parfois celui du bonimenteur des foires, charla, emprunté à l’italien ciarlatano, charlatan, primitivement cerretano„ habitant de Cerreto, village des environs de Spolète en Ombrie dont les naturels avaient une bonne renommée de loquacité.
- D’un noir brillant : le merle
- Bien plus populaire en France que la grive, le merle est comme elle un oiseau comestible et l’expression « Faute de grives on mange des merles » nous montre que le passereau est parfois considéré comme une variété inférieure, ce qui explique son nom en russe, tcherny drogd, la grive
- Fig. 4. — Merle noir d’Europe et sa femelle.
- Le mâle est noir avec le bec jaune; la femelle est gris foncé.
- noire et en anglais, black bird, l’oiseau noir. Cette précision empruntée à la couleur de sa livrée se retrouve, semble-t-il, dans la plupart des autres langues européennes. Le nom de l’oiseau en latin, merula, a persisté, parfois avec un changement de genre, dans le français merle, l’italien merlo, l’espagnol mirlo, le roumain mierloiu et le portugais mêlro ; le celtique de Bretagne moualdh, et même l’allemand amsel semblent empruntés au même radical. Les philologues le rapprochent du qualificatif latin merus, pur, et germanique mir et mar, célèbre, conservé seulement par des noms propres comme Clodomir et Adhémar, et d’un verbe exprimant en grec le scintillement et l’éclat, amarussô et marmairô. Le plumage noir brillant du merle, opposé à la teinte plus terne de celui de la grive, nous fournirait ainsi l’explication de ce nom mystérieux. Cette explication s’appuie également sur le nom allemand, schmerl, en français êmerillon, d’un petit faucon plus noir que le hobereau ou le pèlerin. Or un terme très voisin, schmerle, désigne outre Rhin un poisson tacheté de noir, la loche, tandis qu’à Rome merula qualifiait non seulement le merle, mais toutes sortes de poissons, comme le merlan et la merluche, auxquels leur couleur foncée a parfois valu le surnom de charbonnier.
- Fig. J. — Emerillon poursuivant une allouette.
- {Dessins de Roger Reboüssxn).
- 287
- p.287 - vue 291/551
-
-
-
- C’est à son chant que le merle, comme le pinson et le rossignol, doit sa popularité et sa fréquence en onomastique avec des noms de famille comme Merle, Merlet, Merlette, Merley, Merleau, Merlaud, Merlo, Merlot et Merlat et leurs variantes dialectales comme Mellet ou Mellot, Lemelle et Lemesle, déformation de Lemerle, qu’il importe de ne pas confondre avec la série Mellin, Meslin et Merlin, tirée du nom de l’enchanteur gallois et de la vogue du cycle de la Table Ronde. Il est d’ailleurs possi e que l’adaptation en Merlin du celtique originel, Merddjn, ait été inconsciemment l’effet d’un « accrochage », d’une confusion entre l’enchantement et le chant, à une époque où le français de Normandie était la langue courante de l’aristocratie anglaise.
- Les toponymes, les noms de lieu, évoquent souvent le chant du merle : Cantamerle, Cantemerle, Chantemesle, Chantemelle et Chantemerle ; son nid, Limelle, déformation de nid de merle ; les buttes qu’il fréquente, Mont-merle et Merlemont.
- De merle oriot à compère-loriot !
- Rangé par les ornithologues dans une famille différente, le loriot a été en général considéré par nos ancêtres comme une simple variété de merle, et tandis que ce dernier était souvent la grive noire, il était, il est encore, le merle d’or, de la belle couleur jaune de sa livrée, dans la plupart des langues d’Europe, même lorsque des étymologies populaires, des cuirs, semblables aux « perles du facteur», ont rendu le terme méconnaissable.
- Son nom en grec, chlôrion, dérive de celui de la couleur jaune, apparenté à la bile dans le lexique indoeuropéen et à l’or, le métal jaune, dans les langues germaniques. A Berlin d’ailleurs le passereau est bien le merle d’or, gold amsel, tandis qu’à. Stockholm gulsparj\ le moineau doré, fait toujours appel à la même image. Le terme usité par le latin classique, galbula, ne pose pas non plus de problème, encore que l’adjectif dont il dérive, galbus, jaune, évidemment apparenté à l’allemand gelb, soit probablement un emprunt, étranger à la langue primitive de Rome, pour doubler les qualificatifs plus courants comme flavus ou helvus. Un synonyme de galbula, masculin cette fois, aureolus, diminutif de aureus, doré, le remplace dans la basse latinité. Il est permis de constater à ce propos l’hésitation courante entre les deux genres pour la plupart des oiseaux. En général les noms des animaux, dans lès langues
- Fig. 6. — Loriot portant une cerise dans le bec.
- trast J gu/sparC'
- j—nn' wilga
- 7wielewaal amsel kos
- \ 9°M smsel
- tcherny drozd ivolga
- mierloiu /
- merle
- loriot
- moualc’h'
- merlo
- rigogolo
- auriol
- chlôrion
- oropendola\ 4
- kottuphos
- Fig. 7. — Le merle et le loriot dans diverses langues d’Europe. Les noms qui désignent le merle sont soulignés.
- comme le latin où il y a plusieurs genres, sont du masculin, mais comme le nom de l’oiseau, avis, était du féminin, les termes dont le sens qualificatif était encore perçu reçurent aussi la marque de ce genre, comme merula, galbula et nous pourrions aj outer fringilla, le pinson, pica, la pie ou luscinia, le rossignol. Or le français et l’itaHen, dont les langues ont donné à oiseau et à uccello le genre masculin, ont très souvent changé le genre, ainsi que nous l’avons constaté à propos du merle.
- Aureolus pour désigner notre passereau doré, se différencie ainsi d’aureola, la couronne d’or, corona auréola, l’auréole ; il est passé sans grand changement en provençal, en langue d’oc, auriol, et en vieux français, oriot, plus souvent merle oriot, la merle oriot, car à cette époque le féminin était encore d’un usage courant. Une série de « perles » devait nous conduire de merle oriot à mère loriot et à loriot, nom définitif de l’oiseau en français littéraire, puis à père loriot et finalement à compère loriot, désignant très souvent notre merle d’or jusqu’au début du siècle dernier. Une série parallèle de « cuirs », partie du nom de l’orge en latin, hordeus, s’était acharnée sur le grain d’orge, hordeolus, qui nous pousse malencontreusement aux yeux. Il est appelé communément l'orgelet, mais on disait aussi Yorgeul et même Yorieul, surtout dans le chuintant patois picard où compère loriot se prononçait compère lorgeot et rendait impossible la distinction entre les héritiers âdaureolus et de hordeolus. Voici pourquoi le merle d’or a été confondu avec une affection oculaire !
- Le loriot fait son nid sur une fourche élevée des grands arbres, une coupe artistement construite qui semble se balancer au gré du vent. Telle est la raison pour laquelle en Espagne aureolus a été confondu avec horologium, l’horloge, la pendule, devenu oreloj, puis reloj et souvent appelé comme en France le balancier, la pendule, pendola ; le loriot est à Madrid la pendule d’or, oropendola ! En Italie, les étymologies populaires ont rapproché aureolus, devenu oriolo, non pas de l’orge, mais de l’orgueil, orgoglio, puis rigoglio, et son nom actuel, rigogolo, avec son diminutif rigoletto, semble l’apparenter à la danse populaire trans-
- 288
- p.288 - vue 292/551
-
-
-
- alpine, car rigoler indique à l’origine non pas le fait de rire, mais de s’amuser et de se divertir.
- Les linguistes rattachent son nom en polonais, wilga, et en russe, ivolga, à une allusion à l’humidité, à la pluie, et il est certain que les oiseaux chantent volontiers avant et après la pluie, mais le loriot ne constitue pas une exception, et l’étymologie n’est guère convaincante, d’autant plus que son nom en hollandais, melmaal, qui renferme peut-être la même allusion que le castillan oropendola, semble apparenté. Il ne s’agit sans doute ni de balancier ni de pluie, mais probablement d’un très ancien nom du loriot déformé à l’est comme à l’ouest et dont nous voudrions percer le secret.
- Auriol dans le Midi, Loriot dans le Centre et le Nord sont des noms de famille très courants; on peut y joindre les Lauriol, Loriol, Loriou, Hauriou, Lauriaux, Lorieux et même Doriot des annuaires et la série complète des dérivés français d’aureolus concernerait bien une centaine de patronymes. En toponymie, des noms de Heu comme Mon-tauriol, Montoriol et Montorieux sont aussi très fréquents. Cette abondance a semblé suspecte et d’aucuns en ont cherché la raison. Le loriot n’aurait-il pas été, comme le coucou, le symbole de l’infortune conjugale ? Les textes du Moyen Age ne nous autorisent pas à une semblable supposition et l’abondance du patronyme donnerait une piètre idée de la moralité de nos aïeux ! Il est plus plausible de penser que le passereau dont le nom, toujours compréhensible, évoquait l’éclat de l’or et la richesse du précieux métal a été choisi comme symbole de la prospérité, de la gloire, peut-être de la yanité, de l’orgueil et que ces antiques surnoms ont été donnés par moquerie,
- L’Année du
- On se souvient que l’Année géophysique internationale (A.G.I.) avait été organisée en 1957-58, tenant compte de ce que cette période correspondrait à un maximum de l’activité solaire. Il a paru intéressant de mettre en œuvre les mêmes moyens, bien qu’avec une moins grande ampleur, à l’occasion de la période inverse, c’est-à-dire d’activité solaire minimale.
- Cette période est prévue pour 1964-65, mais avec une assez large approximation : il est apparu, en effet, que vers la fin de l’Année géophysique, la fréquence et l’intensité des taches solaires avaient commencé à décroître avant la date prévue. Dans l’espoir d’éviter toute erreur dans l’horaire, 1’ « Année du Soleil calme » débutera le premier janvier 1964 et se prolongera jusqu’en septembre 1965. Elle durera donc 21 mois.
- Les raisons qui militent en faveur d’une nouvelle série d’observations, coordonnées à l’échelle de notre planète, ont été récemment exposées par le Comité international de Géophysique (C.I.G.). Tout d’abord un outillage et des méthodes ont été inaugurés à l’occasion
- certes, mais non par méchanceté. Les noms de lieu sont probablement à ranger à côté des Montfaucon, des Mont-merle et des Montpinson, bien que certains aient voulu y voir des collines dorées par le soleil, des monts d’or, notamment sur les bords du Tarn où Montauriol faisait face à Montauban. Or, cette hypothèse donnait à ce dernier toponyme le sens de colline blanche ou de colline où se lève l’aurore, l’aube, généralement rejeté au profit de mont aubain, refuge de colons étrangers, d’aubains, sur lesquels le suzerain pouvait percevoir le droit d’aubaine. Il est donc probable que les loriots chantaient à Montauriol, à moins que l’oiseau n’ait également symbolisé la gloire et la réussite, et nous aurions là l’équivalent des nombreux Montastruc, « protégé par les astres », de nos campagnes languedociennes.
- *
- * *
- Depuis les millénaires de la préhistoire, étourneaux, grives, merles et loriots ont été lentement distingués de la masse tumultueuse des passereaux. Leurs noms les plus anciens sont le reflet de la primitive mentaUté de nos ancêtres, les plus récents témoignent de notre enrichissement intellectuel, de notre histoire, des contacts entre les diverses civilisations, tandis que par un choc en retour, l’homme les a finalement utilisés pour symboliser des défauts et des qualités que la tradition populaire a depuis longtemps reconnus chez ces oiseaux babillards, étourdis, joyeux et élégants.
- Michel Roblin,
- Docteur ès Lettres
- Soleil calme
- de P A.G.I. et n’ont pas encore été mis en œuvre avec toute Pefficacité désirable. On désire également profiter des moyens accrus qui sont offerts par les satellites artificiels pour établir des corrélations entre les observations spatiales et les observations au sol. Le calme du Soleil permettra d’autre part une étude plus approfondie des rayons cosmiques issus des galaxies, ainsi que des événements solaires isolés, des phénomènes étant « noyés », en période d’activité, dans l’abondance des émissions de particules solaires et des perturbations consécutives.
- Il est enfin d’une grande utilité de pouvoir comparer la série des phénomènes géophysiques étudiés par diverses branches (météorologie, géomagnétisme, aurores et lumière nocturne, ionosphère, aéronomie) en période calme avec les mêmes phénomènes en période agitée. Une telle comparaison, systématiquement organisée, ne peut qu’aider à mettre en relief les répercussions terrestres et spatiales de l’activité solaire.
- Y. M.
- Pétrole exploitable en Australie
- Un forage effectué au Queensland, à 320 km à l’ouest de Brisbane (Australie), a rencontré du pétrole à une profondeur de 1 832 mètres. Le débit qui au début était de 500 barils mélangés d’eau, a atteint 1 800 barils par jour le 17 décembre dernier. Il s’accompagne d’un dégagement de gaz naturel de 5 000 m3/jour. C’est la deuxième décou-
- verte de pétrole faite dans cette région, mais c’est le premier forage australien qui fournisse un pétrole brut apte au raffinage. Dans le seul état de Queensland, le gouvernement australien a consacré plus d’un million de livres australiennes (xi 000 000 NF) à la prospection pétrolière au cours des trois dernières années.
- 289
- p.289 - vue 293/551
-
-
-
- Le réglage des entrées d’air
- nouvelle nécessité
- pour les avions à grande vitesse
- par Jacques Spincourt
- Les projets les plus récents d’intercepteurs, de bombardiers et même d’avions de transport font appel pour leur propulsion à des turboréacteurs capables de fonctionner à une vitesse de Mach 3 (3 fois la vitesse du son). Sur de telles machines, le dessin de l’entrée d’air prend une importance fondamentale, car de son rendement dépendent dans une large mesure les performances de poussée et de consommation spécifique. D’ores et déjà, sur les avions à vitesse de croisière nettement supersonique, on note la présence de réacteurs à entrée d’air réglable, de telle sorte que pour chaque cas de vol, cette entrée d’air puisse être adaptée à son rendement maximal.
- Avant d’examiner en détail les principes de réglage d’une entrée d’air de réacteur, rappelons brièvement de quels éléments se compose ce dernier. L’air admis est considérablement ralenti dans l’entrée d’air, de forme convergente-divergente, puis il traverse le compresseur, qui peut être décomposé en deux corps distincts, l’un basse pression et l’autre haute pression. Il débouche alors dans la chambre de combustion, où il sert partiellement à brûler le combustible. Les gaz de combustion traversent alors la turbine, puis sont éjectés dans l’atmosphère par l’intermédiaire de la tuyère. Si le compresseur est à double corps, il en est évidemment de même de la turbine, les deux corps du compresseur devant être entraînés séparément.
- Caractéristiques aérodynamiques de l’entrée d’air
- Lors d’un vol à vitesse supersonique, les particules d’air qui entourent l’avion sont animées par rapport à ce dernier d’une vitesse supérieure à la vitesse du son. Or, pour des questions de rendement des aubages du compresseur sur lesquelles il serait trop compliqué de nous étendre ici, la vitesse des particules d’air à l’entrée du compresseur doit être la plus faible possible, et en tous cas nettement inférieure à la vitesse du son. C’est le rôle de l’entrée d’air d’effectuer la réduction de vitesse nécessaire, en transformant l’énergie cinétique des particules d’air en pression, c’est-à-dire en quelque sorte en transformant un mouvement ordonné en mouvement désordonné. Ainsi donc, il s’effectue dans l’entrée d’air une précompression qui est d’autant plus grande que la vitesse de vol est plus grande. A la limite, toute la compression peut être obtenue dans l’entrée d’air et l’on aboutit au statoréacteur, moteur sans compresseur ni turbine, qui est ainsi, comme on le sait déjà,’ un moteur essentiellement adapté aux très grandes vitesses. En supersonique, deux types d’entrée d’air sont
- plus généralement utilisées : celles dites « à choc normal» et celles dites « à chocs obliques ».
- Dans les premières, le passage d’une vitesse supersonique à une vitesse subsonique s’effectue par l’intermédiaire d’une onde de choc droite, c’est-à-dire normale à l’axe de l’entrée d’air, d’où leur nom. On a pris l’habitude d’appeler onde de choc une région de l’écoulement très mince, dans laquelle il se produit des discontinuités de pression, vitesse, température et masse volumique. L’utilisation la meilleure d’une entrée à choc normal consiste à situer l’onde de choc exactement dans le plan d’entrée (fig. 1), un écart par rapport à cette position entraînant une augmentation de la traînée de l’avion. L’intensité du choc normal, c’est-à-dire le rapport entre la pression aval et la pression amont, est généralement grande.
- _____________ .___________________ A____________________
- 'a b c
- Fig. 1. — Entrée d’air à choc normal.
- A, Fonctionnement sous-critique : l’onde de choc est en avant du plan d’entrée.
- B, Fonctionnement critique : c’est le cas où le rendement est le meilleur; l’onde de choc est alors juste dans le plan d’entrée. C, Fonctionnement surcritique :
- l’onde de choc est en arrière du plan d’entrée.
- Mais ce choc normal de grande intensité peut être remplacé par une succession de faibles chocs obliques, c’est-à-dire inclinés sur l’axe de l’entrée d’air. On est alors dans le second cas mentionné ci-dessus. De telles entrées d’air peuvent prendre deux formes : soit avec une pointe conique centrale (fig. 2), soit avec des parois déformables. La comparaison des performances se fait sur la base de ce que les techniciens appellent la récupération de pression, c’est-à-dire de l’augmentation de la pression entre l’entrée
- Fig. 2. — Entrée d’air à choc oblique du type à pointe centrale. Seule la moitié du dispositif est représentée sur ce schéma.
- 290
- p.290 - vue 294/551
-
-
-
- et le col, comme le montre la figure 3. On voit qu’aux nombres de Mach élevés, les entrées d’air à choc normal sont trop mauvaises; il faut donc choisir des entrées à choc oblique et à section au col variable afin qu’elle soit bien adaptée au débit d’air désiré.
- Entrée à choc oblique
- Entrée à / choc normal
- h/ombre de Mach
- Fig.3. — Comparaison des performances des deux types d’entrée d’air.
- Les moyens de contrôle
- Il est en effet évident que lorsque la vitesse de vol varie, la proportion d’énergie cinétique à transformer en énergie de pression varie dans le même sens. Ceci entraîne un déplacement de la position optimale des chocs obliques par rapport à l’entrée d’air. Il faut donc, pour que le rendement aérodynamique soit toujours le meilleur possible, une commande automatique qui relie d’une façon continue le déplacement des ondes de choc à la variation de la vitesse de l’avion.
- Deux moyens d’action sur la position des ondes de choc ont été envisagés : d’une part, modifier la forme géométrique du conduit d’entrée d’air par l’angle 0 des surfaces de compression (fig. 4); d’autre part, adapter exactement le débit d’air aspiré dans l’entrée au débit d’air nécessité par le réacteur en ouvrant plus ou moins un circuit de dérivation situé le long de la paroi. On détermine si les paramètres de contrôle ont les valeurs optimales en mesurant les pressions en amont de l’entrée et à l’intérieur de celle-ci.
- En dehors du fait qu’elle doit être automatique pour ne pas surcharger la tâche du pilote déjà largement occupé par de nombreuses autres manœuvres, les principales
- Fig. 4. — Action sur la position de l’onde de choc par géométrie variable du conduit d’entrée d’air.
- qualités demandées à la commande sont une grande sensibilité, mais aussi la robustesse et la rapidité de réponse. En outre, le dispositif de régulation doit permettre un fonctionnement sûr de l’entrée d’air dans des conditions critiques, par exemple en cas de panne de moteur.
- La prise de pression d’entrée doit donner une variation de pression pour toute modification de la géométrie, cette variation étant, de plus, d’autant plus importante que l’on est plus loin de la configuration optimale. Les études expérimentales ont montré que l’emplacement le plus favorable de la prise de pression pour satisfaire à ces conditions était dans le plan des lèvres de l’entrée d’air.
- Le contrôle peut se faire en boucle ouverte ou en boucle fermée. Dans le premier cas qui est le plus simple, il y a une relation déterminée à l’avance entre la pression d’entrée, c’est-à-dire le nombre de Mach en vol, et la modification de la géométrie. Dans le second cas au contraire, la commande est sous la dépendance de l’écart entre la position réelle de l’onde de choc et la position désirée, et il faut alors un circuit de retour entre la position de l’onde de choc et la commande, d’où le nom de boucle fermée donné au dispositif. C’est cette dernière méthode qui donne les meilleurs résultats.
- Pour situer l’importance d’un bon contrôle d’entrée d’air, on peut dire qu’à une vitesse de Mach 3, la différence entre une entrée bien adaptée et une mal adaptée peut atteindre 30 pour xoo sur la poussée. En ce qui concerne la position de l’onde de choc, c’est au centimètre près qu’elle doit être respectée.
- L’obtention de ces résultats a naturellement demandé de nombreux essais, qui sont réalisés dans des souffleries supersoniques, sur des maquettes, non d’avions complets mais de l’élément d’entrée d’air seul, afin que l’échelle puisse en être plus grande. On peut aussi les étudier en vol sur des maquettes de plus grandes dimensions propulsées par fusées ou par statoréacteurs.
- Tous ces problèmes deviendront de plus en plus importants, au fur et à mesure de l’accroissement des vitesses, dans la limite, bien sûr, des possibilités d’emploi des turboréacteurs qui se situe actuellement un peu au delà de Mach 3.
- Jacques Spincourt.
- Le « bateau-éponge »
- Tel est le surnom donné à un bateau, construit en Union Soviétique et dont la mission est de nettoyer les ports pétroliers. La pellicule de pétrole répandue sur l’eau a de multiples inconvénients : perte de combustible, corrosion de la peinture des navires et surtout risque grave d’incendie. Le « bateau-éponge » est en réalité une plateforme flottante dont les principaux organes sont le receveur et le séparateur.
- Le premier, qu’actionne un moteur de 45 ch, aspire la couche superficielle de l’eau. Le mélange recueilli est refoulé vers le séparateur qui emmagasine le pétrole dans une citerne et rejette l’eau purifiée par dessus bord. Le bateau-éponge est capable de nettoyer 500 m2 de superficie par heure et de récupérer, dans un port pollué, des centaines de kilos de pétrole.
- 291
- p.291 - vue 295/551
-
-
-
- Comment se fit la symbiose des fourmis et des pucerons
- Les relations curieuses qui existent entre les fourmis et les pucerons sont couramment interprétées comme un élevage de la part des fourmis. Cette opinion est basée sur le fait que les fourmis lèchent le miellat, excrément sucré que rejettent les pucerons. Ce phénomène bien connu a été l’objet des travaux de nombreux chercheurs en ces dernières années. Dans une étude parue en 1961 dans le bulletin de /’ Université de 'Léningrad, l’entomologiste soviétique Grunfeld a cherché, en se référant à l’évolution de ces deux groupes d’insectes, sous l’angle de la sélection des espèces, à rendre compte de la naissance et du développement de leur association.
- Les Aphides, ou pucerons, constituent une famille dont l’apparition remonte, dit M. Grunfeld, à l’ère paléozoïque, c’est-à-dire à une époque où la flore et la faune étaient très différentes de celles d’à présent. Il semble cependant que le mode de nutrition des Aphides se soit peu modifié. Comme toutes les espèces animales, ils ont besoin de protides, de lipides et de glucides. Mais le fait qu’ils se nourrissent exclusivement de la sève des plantes les oblige, pour satisfaire leurs besoins en matières azotées, à consommer une très grande quantité de cette nourriture qui, on le sait, est surtout riche en glucides. Il en résulte un excédent de sucres qui est rejeté par l’organisme. Telle fut du moins l’explication du miellat des pucerons donnée par Büsgen en 1891 et encore admise par de nombreux entomologistes. Elle paraît cependant quelque peu compromise après les travaux de Tort et Davidson, qui ont successivement analysé la sève des plantes et les excrétions des pucerons : 90 pour cent de glucides et 5 pour 100 de matières azotées ont été trouvés dans la première analyse; 85 pour 100 de glucides et 3 pour 100 de matières azotées figuraient dans la deuxième analyse. Il faut donc admettre que les Aphides excrètent non seulement l’excédent de glucides, mais même une partie des protides absorbés. Bref, ils n’ont pas besoin pour vivre de toute la quantité de nourriture qu’ils absorbent.
- Évolutions parallèles
- Les fourmis, sous la forme que nous leur connaissons, sont apparues beaucoup plus tard que les Aphides : au milieu, pense-t-on, ou à la fin de l’ère mésozoïque. Précisons qu’il s’agit des insectes déj à évolués, devenus sociaux et nantis de l’organisation qui leur a valu leur grande prospérité. La prospérité de ce groupe est telle en effet, et sa faculté d’adaptation si grande, qu’on en rencontre littéralement partout : il est difficile, assure-t-on, de trouver un point du globe dont les fourmis soient absentes.
- On peut supposer que, dans les temps reculés, le régime alimentaire des fourmis était exclusivement carnivore. C’est le cas d’ailleurs, encore à présent, pour les fourmis les plus primitives au point de vue morphologique, comme les Myrmecia d’Australie. Dans la suite des temps, les modes
- d’alimentation des fourmis ont évolué dans des directions assez diverses. La base de l’alimentation des fourmis tropicales du genre Atta sont des champignons qu’elles cultivent dans leurs fourmilières. D’autres fourmis, les Messor, qui habitent les zones semi-arides, sont connues sous le nom de « cultivatrices ». Elles ramassent les graines de graminées et d’autres plantes qu’elles entassent dans leurs fourmilières, qui atteignent deux mètres de profondeur. L’humidité fait gonfler les graines qui commencent à germer et ce sont les jeunes pousses qui servent à l’alimentation de ces insectes.
- Après les fourmis champignonnistes et cultivatrices, on en arrive aux buveuses de miellat, parmi lesquelles Lasius flavus, E. umbratus et L. brunneus. Leur rencontre avec les Aphides, d’après Grunfeld, a joué un rôle déterminant dans l’évolution de ces deux groupes d’insectes et a créé entre eux un type de relations qui peut être considéré comme une forme de « symbiose », car les deux partenaires y trouvent leur profit.
- Trois moyens de défense
- A première vue, la rencontre des Aphides, insectes extrêmement lents, avec les fourmis agiles et carnivores aurait dû, dit M. Grunfeld, entraîner la disparition des premiers. Observons pourtant que la nature abonde en espèces qui sont apparemment sans défense aucune contre leurs ennemis; en fait il se produit un équilibre entre proies et prédateurs. Quoi qu’il en soit, Mordvulko, en 1936, a émis l’hypothèse que les pucerons n’étaient pas comestibles. Mais, 22 ans plus tard, les travaux de Pontin ont démontré que même les fourmis qui vivent en symbiose avec les pucerons en consomment une certaine quantité, ce qui peut d’ailleurs s’expliquer * par une légère carence en protides de leur alimentation.
- Etant prouvé que les pucerons, à quelques exceptions près, sont des proies désirables, on pouvait encore se demander si vraiment ils étaient tout à fait privés de défense. Non, a répondu Dixon en 1958, à la suite des observations suivantes : lorsqu’une larve de coccinelle attaque un puceron qui ne vit pas en symbiose avec les fourmis, ce dernier fait sortir de canaux réservés à cet usage (cornicules) une gouttelette huileuse qui, une fois projetée sur le corps de l’ennemi, s’étale et durcit. Si la larve de coccinelle est très jeune, elle reste alors immobilisée comme sous une « camisole de force ». Cette immobilité dure une heure et demie; après quoi la pellicule tombe et la larve peut de nouveau se mouvoir librement.
- M. Grunfeld est convaincu que ce moyen de défense a fait reculer les fourmis, lors de leurs premières prises de contact avec les pucerons, et qu’il les a mises sur leurs gardes. C’est cette période de transition qui aurait favorisé la découverte par les fourmis des excrétions 'sucrées des pucerons. D’autre part, la rencontre de ces ennemis mortels
- 292
- p.292 - vue 296/551
-
-
-
- aurait favorisé chez les Aphides le développement de divers moyens de défense, tels que, par exemple, la formation des galles, qui servent de refuge à certains, et, dans le cas particulier des pucerons de racines, l’excrétion de cire qui les rend impropres à la consommation. Mais la défense était encore mieux assurée par les pucerons qui devinrent capables d’accélérer leurs excrétions sucrées, bientôt recherchées par les fourmis.
- On peut supposer que cette performance n’était pas accessible à toutes les espèces de pucerons et que celles qui excrétaient facilement et abondamment le miellat se sont trouvées dans des conditions spécialement favorables. Le danger mortel que représentait la rencontre avec les fourmis a donc servi de stimulant pour l’évolution des Aphides.
- A l’appui de sa thèse, Grunfeld cite des expériences de Banks et Nixon (195 B) par lesquelles ces deux chercheurs ont pu démontrer que les excrétions des pucerons doublent de volume dès qu’ils sont visités par les fourmis. Voici comment l’expérience a été menée : sur des plants de fève ( Vicia faba) auxquels on avait fait absorber une solution nutritive marquée au phosphore radioactif ont été placés deux groupes de pucerons de la même espèce. Le premier était visité par les fourmis, le second était isolé de ces dernières et servait de témoin. On a pu constater que les pucerons du groupe auquel les fourmis avaient libre accès étaient devenus deux fois plus radioactifs que ceux du groupe témoin, ce qui prouvait qu’ils avaient ingéré une double ration de sève. Si les pucerons de ce groupe étaient séparés des fourmis pendant environ une vingtaine de minutes, leur radioactivité décroissait et se rapprochait de celle du groupe témoin.
- Cette expérience semble bien prouver que les Aphides peuvent à volonté, pour les besoins de la cause, ralentir ou accélérer leur consommation et leurs excrétions, en quoi ils méritent pleinement le surnom de « vaches laitières des fourmis ».
- Selon Gliviarov (1948), l’excessive consommation de sève par les Aphides est due au fait que ces insectes ont des téguments très minces, ce qui donne lieu à une constante évaporation de liquide. Cette opinion s’appuie sur le fait que, placés dans une atmosphère imprégnée d’humidité, les pucerons excrètent moins de miellat. Grunfeld ne conteste pas ce phénomène mais affirme qu’il se produit seulement dans le cas où les pucerons ne sont pas visités par les fourmis : les variations hygrométriques cessent, dans le cas contraire, d’avoir la moindre influence sur la consommation et l’excrétion.
- Adaptations anatomiques
- Outre l’adaptation physiologique due à la symbiose, on observe également une nette adaptation morphologique. Les pucerons « autonomes» qui, comme il a été dit plus
- haut, se défendent par la sécrétion d’un liquide adhésif possèdent, de part et d’autre de l’anus, des « cornicules » proéminentes par où s’écoule le liquide. Or, ces appendices sont atrophiés chez la plupart des Aphides qui vivent en symbiose avec les fourmis. On peut voir, au même emplacement, de petites excroissances qui ne correspondent plus à aucune fonction. Non seulement ces organes ont perdu leur utilité mais ils pourraient même présenter un inconvénient, car ils gêneraient l’alimentation des fourmis. On constate également, chez ces mêmes espèces, une régression de l’appendice (cauda) qui prolonge le tubercule anal, ainsi que l’apparition de poils préanaux qui retiennent la goutte de miellée. Toutes ces transformations ont été favorisées par la sélection naturelle parce qu’elles facilitaient les rapports pacifiques avec les fourmis.
- Aucune transformation morphologique n’a été relevée chez les fourmis, mais la symbiose avec les pucerons a nettement modifié leur « comportement de chasse ». Etant en relations constantes avec ces insectes immobiles, elles ont cessé en général d’exterminer les insectes qui ne bougent pas. C’est ainsi que les larves de certaines coccinelles, prédatrices des Aphides, obéissent au mot d’ordre « faire le mort» quand se présentent des fourmis. Ces fourmis ne les attaquent pas, alors qu’elles poursuivent et dévorent les larves d’autres coccinelles qui croient bien faire en prenant la fuite.
- Les avantages que retirent les fourmis de cette association sont évidents : elle est la source d’une nourriture presque équilibrée (rappelons les 3 pour 100 de protides) que leurs «vaches» fournissent en abondance. Ajoutons à ce propos que pendant les années de grande prolifération de pucerons les abeilles, elles aussi, se précipitent sur le miellat pour en faire la récolte. Certains apiculteurs russes profitent de cette « aubaine » pour faire transhumer leurs ruches dans les forêts : on a vu une ruche recueillir, à elle seule, près de sept kilos de miellat en un jour.
- Les Aphides, pour leur part, ont pu perpétuer leur espèce sous la protection des fourmis. Ils sont à l’abri (plus ou moins) des autres carnivores et jouissent de conditions favorables créées par leurs protectrices : en été les fourmis construisent, au-dessus de certaines colonies d’Aphides, des galeries aériennes ou des toits suspendus qui évitent l’évaporation de l’humidité; à l’automne, les femelles ovipares de quelques espèces sont transportées dans les fourmilières, où elles hivernent à l’abri des intempéries. Il est prouvé en tout cas que, dans les colonies expérimentales de pucerons où les fourmis sont admises, la population augmente.
- C’est sur ces avantages réciproques qu’a pu se fonder et se maintenir la symbiose fourmi-puceron.
- Solange Clavel.
- Sept tonnes de clous romains
- Des archéologues écossais ont découvert récemment, près fde Perth, par l’armée romaine contrainte d’évacuer l’Ecosse ; le but de l’opé-un stock de 7 tonnes de clous (dont certains géants, longs de 40 cm), ration était de soustraire le fer à la convoitise des Scots, qui le consi-Ces clous auraient été enterrés volontairement vers 90 de notre ère déraient comme plus précieux que l’or et que l’argent.
- 293
- p.293 - vue 297/551
-
-
-
- Plus maniable que les bathyscaphes
- La soucoupe plongeante permet l’exploration du plateau continental
- par J. P. Carbonnel
- L’exploration océanographique qui dut, pendant longtemps, se borner à utiliser des moyens aveugles a été dotée dans les récentes années d’un outillage nouveau qui permet à l’homme de pénétrer lui-même dans le milieu océanique. Deux inventions, jusqu’ici, étaient à cet égard primordiales : le scaphandre autonome, grâce auquel l’explorateur a acquis (on pourrait dire retrouvé) les possibilités physiologiques du poisson, et le bathyscaphe qui le conduit jusqu’aux énormes profondeurs des fosses du Pacifique. Mais entre ces deux modes nouveaux d’exploration se présentait une lacune considérable que la « soucoupe plongeante » du commandant Cousteau est venue combler.
- Pour comprendre en quoi consistait cette lacune, il est utile de définir les différentes zones où l’océanographe souhaite pouvoir pénétrer. Sur la coupe schématique de la figure i, tracée perpendiculairement au rivage d’un continent, on trouve :
- — la t(one littorale, alternativement émergée et submergée par les marées, dont l’amplitude dépasse rarement xo mètres ;
- — la zone du plateau continental qui s’abaisse en pente douce jusqu’à des profondeurs d’environ 200 mètres ;
- — la zone dite de la pente continentale, abrupt presque vertical que découpent les gorges connues sous le nom de
- canyons ou vallées sous-marins et qui se termine à une profondeur approximative de 2 000 m ;
- — la zone de la plaine abyssale, où les profondeurs s’étagent (en ce qui concerne l’Océan Atlantique) entre 2 000 et 4 000 m. En Méditerranée sa profondeur moyenne est voisine de 2 000 m.
- Connaissant ces zones, on peut se demander quelles sont les latitudes de pénétration offertes par le scaphandre autonome et le bathyscaphe. Le premier ne peut être utilisé que jusqu’à une profondeur maximale de 70 m. Pour des travaux scientifiques qui impliquent un séjour prolongé, ce maximum n’est jamais atteint : pratiquement, il doit être réduit à 5 o m. Quant au bathyscaphe, sa maniabilité est des plus faibles ; c’est pourquoi il sera vraisemblablement spécialisé dans l’exploration de la plaine abyssale où il est seul à pouvoir accéder.
- La lacune se situe donc entre les profondeurs de 70 à 2 000 m, c’est-à-dire au niveau de la plus grande partie du plateau continental et sur toute la pente continentale. Or les sujets d’étude, à tous égards les plus intéressants et les plus urgents, ont pour objet le plateau continental dont la majeure partie (entre 50 et 200 m) échappe aux investigations directes par scaphandre autonome.
- Si en effet il existe des socles continentaux, comme en
- Zones géologiqueg et sédimentaires Zones zooloqiques
- Zone littorale
- Surfbce de la mer
- - ~70m
- Zone épipélagigue
- -200 m
- Pente
- continentale
- 1omame
- Fig. 1. — Coupe schématique des océans.
- Explications dans le texte. La partie non hachurée représente la lacune entre la zone de pénétration du scaphandre autonome et celle du bathyscaphe.
- 'd'utiljsationyies y bathyscaphes
- -2000 m
- -2000 m____
- plaine abyssale
- 294
- p.294 - vue 298/551
-
-
-
- Méditerranée, où le plateau continental, en bordure d’une côte montagneuse, est réduit à sa plus simple expression, on en trouve au contraire où son extension vers le large est considérable. Un cas typique nous est donné par la Mer du Nord et la Manche qui appartiennent en totalité au plateau continental. Même le long des côtes de Bretagne (massif montagneux ancien largement érodé), cette zone marine se prolonge sur de longues distances.
- Pour le géologue, le plateau continental est un lieu privilégié de recherche. Ce prolongement sous-marin des continents a été en effet le théâtre des transgressions et des régressions, immenses raz-de-marée à longue période et grande amplitude : c’est donc au niveau de cette terrasse que le géologue peut espérer trouver certaines explications des phénomènes de « pulsation » de l’écorce terrestre.
- Au zoologiste et au botaniste, la visite du plateau continental peut permettre un riche ensemble d’observations écologiques, car la vie y est extraordinairement dense. Cette étude a d’ailleurs un prolongement pratique, en raison du nombre des bancs de pêche qui se trouvent dans cette zone. A cela, il convient d’ajouter l’importance croissante des explorations minières (pétrole, métaux et autres matières premières) qui se développent sur le plateau continental. Rappelons le problème nouveau ainsi posé quant à la délimitation territoriale de chaque pays du globe.
- Ayant circonscrit le domaine qui s’ouvre devant la soucoupe plongeante, il nous reste à présenter ce véhicule, sa description ne pouvant d’ailleurs qu’exercer un attrait extrême sur les océanographes et en général sur tous les amis de la mer.
- Grande souplesse d’évolution
- La soucoupe plongeante (S.P.I.) est un petit sous-marin autonome biplace ayant la forme d’un ellipsoïde de révolution dont les axes ont 2 m et 1,43 m. Il a été construit par l’Office Français de Recherches sous-marines. Ses essais ont eu lieu en 1959 et il a été mis en service en janvier 1961. Il a déjà à son actif 63 plongées dont 47 en Méditerranée occidentale. Le tableau I donne ses caractéristiques générales.
- La propulsion de la soucoupe est assurée par deux hydrojets sortant de deux tuyères orientables situées de part et d’autre de l’esquif. Sa grande maniabilité est due en partie à ce mode de locomotion, en partie à sa forme, et surtout à
- Tableau I. — Caractéristiques générales de la Soucoupe plongeante
- Poids en ordre de marche : 3 500 kg.
- Encombrement : hauteur, 1,50 m; longueur et largeur, 2,85 m. Dimensions intérieures : hauteur, 1,43 m; largeur, 2 m.
- Habitabilité : 1 pilote et 1 observateur en position allongée. Profondeur d’écrasement : 900 m; d’utilisation : 300 m.
- Vitesse économique : 1 nœud; maximale : 1,5 nœud.
- Autonomie : 3 h en fonctionnement continu; respiratoire, 24 h. Mobilité : verticale; horizontale en marche avant, arrière; oblique jusqu’à 30° de part et d’autre de l’horizontale; rotation sur place. Energie : 125 V continu par batterie 105 Ah.
- Eclairage : 1 lampe 200 W; vision normale, 1 lampe 2 800 W; cinéma : autres lampes à la demande.
- Propulsion : par hydrojets avec motopompe électrique 2 ch et tuyères orientables.
- Télécommande de l’intérieur par circuit hydraulique.
- Correction d’assiette par équilibreur à mercure.
- Descente et remontée par gravité avec lest de fonte 25 kg. Respiration en circuit fermé par oxygène avec débitmètre, absorbeur de Co2 et indicateur continu de la teneur en COa.
- Gyrocompas directionnel.
- Sondeur 2 échelles, 3 gammes de 0-5 m jusqu’à 200-300 m; permutation sur 3 transducteurs, vers le haut, le bas, l’avant. Télécommunications : en plongée, par ultrasons; en surface, par radio (15 milles max.) ; par fil au départ et à l’arrivée.
- ses ballasts de mercure qui lui assurent presque instantanément un angle de descente ou de montée pouvant aller jusqu’à 35 degrés. Cette grande souplesse de mouvement rappelle celle du plongeur beaucoup plus que celle du sous-marin. Et c’est un grand avantage pour l’observateur, qu’il soit géologue ou zoologiste, que de pouvoir se diriger vers un objectif avec la même facilité ou presque que s’il était libre de ses mouvements.
- Le pilote et l’observateur (fig. 2) sont étendus confortablement sur des lits en caoutchouc mousse profilé pour
- Fig. 2. — Coupe longitudinale de la soucoupe plongeante.
- L’observateur et le pilote sont allongés à plat ventre sur la couchette C ; leur tête se trouve au niveau du hublot H. Trois autres hublots à grand champ, dont l’un en H’, permettent une vision panoramique du milieu. L’observateur dispose des différentes commandes (prise de photos, sondeur, pince pour prélèvements, etc.) qui lui permettent d’exécuter son travail. A la portée de sa main également, le téléphone par lequel il communique avec le bateau d’accompagnement. En E, les ballasts à mercure.
- Commande
- photo
- Téléphone
- 295
- p.295 - vue 299/551
-
-
-
- Fig. 3. — La soucoupe plongeante, en cours d’essais par petits fonds.
- (Photo Les Requins associés).
- éviter la fatigue (une plongée pouvant durer quatre heures). La régénération de l’air intérieur est assurée par des bouteilles d’oxygène et des cartouches de granulés absorbant le gaz carbonique.
- L’observation se fait à travers deux hublots coniques en plexiglas à grand champ. A la partie supérieure, trois systèmes optiques monoculaires spéciaux assurent un champ de vision de 180 degrés. Un petit hublot spécial situé entre les deux hublots principaux permet la prise de vues cinématographique. Pour la photo, deux caméras de format 24 x 36, d’une capacité de 800 vues, sont fixées à l’extérieur. L’une opère en noir et blanc, l’autre en couleurs. L’éclairage est assuré par des lampes spéciales en verre pyrex à atmosphère de xénon, résistant à la pression, et de puissance moyenne ou faible. En outre, deux lampes à grande puissance de 100 000 lumen chacune permettent la prise de vues cinématographique. Pour la photographie, la soucoupe dispose de quatre flashs électroniques de 200 watts-seconde chacun, pouvant être jumelés. Deux des lampes en pyrex et deux
- ampoules flash électronique sont fixées à l’extrémité d’un bras télescopique permettant de régler les éclairages.
- L’énergie pour l’éclairage, la propulsion, les accessoires et les asservissements est fournie par des accumulateurs travaillant dans le mayoline et mis en légère surpression par des sacs souples. Leur capacité est de 100 ampères-heure sous 120 volts ; comme la plupart des mécanismes, ils sont situés dans l’eau, à l’extérieur de la coque épaisse, sous un carénage hydrodynamique stratifié.
- La direction de la soucoupe est commandée par un palonnier répartissant à la demande entre les deux tuyères le refoulement d’une pompe volumétrique entraînée par un moteur de 2 ch. La soucoupe est une « traction-avant », ce qui lui confère une grande stabilité de route.
- Un sondeur graphique peut être branché à volonté sur l’un ou l’autre des trois transducteurs qui orientent le faisceau des impulsions ; l’un, émettant vers le haut, donne un écho sur la surface, ce qui permet de connaître avec précision la profondeur atteinte ; l’autre, dirigé vers le bas, indique la distance du fond ; le troisième, dirigé vers l’avant, permet de repérer à grande distance les obstacles, ou encore les épaves ou rochers que l’on se propose d’aller reconnaître.
- 296
- p.296 - vue 300/551
-
-
-
- Le problème du point
- Tout travail en mer est conditionné, à la base, par un problème primordial, celui du point. Dans le cas particulier de l’exploration sous-marine, chacune des observations perdrait la plus grande partie de sa valeur si elle ne pouvait être localisée dans l’espace avec précision. Cet impératif est encore renforcé pour la soucoupe plongeante, instrument de travail à l’échelle de l’observation de l’homme et qui peut approcher une surface rocheuse à moins de 50 cm. Il faut donc que la localisation soit assurée à la même échelle.
- Ce problème a été résolu grâce à deux procédés complémentaires qui allient la précision à l’élégance. Bien qu’encore au stade de l’expérimentation, ces deux techniques sont certainement appelées à être largement utilisées.
- i° Repérage sur trois balises sonores. — Ces balises sont mouillées avant chaque plongée, autour du champ d’action probable de la soucoupe. Ayant été repérées très exactement lors de leur mouillage, elles émettent sans interruption un signal sonore codé caractéristique. Quand la soucoupe en plongée veut faire le point, elle s’arrête, fait un tour complet d’horizon et note au gyroscope les relèvements vrais de chaque balise. Le point se résout ensuite comme sur un bateau, quand on fait le point par relèvement d’amers.
- 20 Relèvement-distance sur un réflecteur fixe. — Au centre de la zone d’action de la soucoupe, un réflecteur acoustique est mouillé en un point connu. Avec son sondeur en position horizontale, la soucoupe mesure périodiquement le relèvement et la distance de ce réflecteur. Le réflecteur peut être constitué par une bouteille d’air comprimé laissant échapper en permanence à travers un diffuseur un mince filet de bulles de gaz. On peut également choisir comme réflecteur un accident naturel de la topographie
- sous-marine ; mais dans ce cas la précision est évidemment moindre. Quoi qu’il en soit, la solution du réflecteur est sans doute la plus simple et la plus rapide. Elle ne nécessite qu’un mouillage.
- Observation et prélèvements
- Dans sa conception actuelle, la soucoupe plongeante est un instrument d’observation. Son but essentiel est la description du plateau continental tant au point de vue géologique que zoologique. Ses hublots spéciaux, ses caméras, et ses systèmes d’éclairage perfectionnés répondent à ce but. L’observateur, en plus, dispose d’un magnétophone à enregistrement continu pour n’avoir pas à écrire de notes, ce genre de servitude risquant de rompre la continuité de son observation. Mais le naturaliste ne saurait se contenter d’une vue à distance. Il lui faut des échantillons, un matériel sur lequel travailler au laboratoire. A cette fin, la soucoupe est munie d’une pince télécommandée pour le prélèvement de petits échantillons que recueille un panier de récupération.
- Cette pince, à l’heure actuelle, n’est guère utilisable qu’en zoologie. En effet, sa force ne dépasse pas celle qui est nécessaire à l’arrachage d’un corail sur une paroi rocheuse. C’est déjà beaucoup, mais le géologue sous-marin ne saurait s’en satisfaire, car son rêve est de faire de la géologie Sous mer comme il en fait sur le continent, c’est-à-dire en « cassant du caillou ». Cette possibilité n’est pas exclue, mais il faudra chercher un instrument plus fort et plus pénétrant. La roche saine, la seule utilisable pour le géologue, n’est généralement pas superficielle, elle se cache sous une épaisse couche de décomposition et d’encroûtement. L’outillage souhaité devrait permettre à la fois de dégager la roche de ce manteau et d’en détacher un morceau. On a pensé que ce double but pourrait être
- Fig. 4. — La soucoupe vue de face.
- Cette photo permet de distinguer les trois hublots, un des appareils photos (à gauche) et les
- p.297 - vue 301/551
-
-
-
- atteint grâce à une microcharge de dynamite ; après l’explosion, la pince actuelle de la soucoupe serait largement suffisante pour ramasser les échantillons. Mais il est à craindre que cette solution comporte des risques pour la coque et l’outillage de l’embarcation, dont on ignore le comportement sous vibrations et surcompressions. Une autre idée a été émise : celle d’un dispositif rappelant le fusil à flèche de la chasse sous-marine, le projectile étant doué d’une masse et d’une énergie suffisantes pour « casser le caillou ».
- Il nous faut ajouter que les océanographes naturalistes ne sont pas les seuls usagers possibles de la soucoupe. Le géophysicien n’a pas été oublié : l’embarcation pourrait accueillir une charge supplémentaire de 80 kg, ce qui ne suffirait certes pas pour emporter un appareillage complet. Des mesures gravimétriques seraient toutefois possibles.
- De Calypso à Amphitrite
- En océanographie le premier problème, quel que soit l’instrument à immerger, est celui du véhicule transporteur. C’est lui qui conditionne le travail. L’idéal voudrait qu’il soit adapté à chacun des travaux pour lesquels on veut l’utiliser. Inutile de dire qu’il ne l’est pratiquement jamais, surtout (comme c’est le cas en France, jusqu’ici) si les navires océanographiques sont des bateaux de pêche ou de guerre
- transformés. Or il serait déplorable que la soucoupe, instrument parfaitement maniable, soit tributaire d’un bateau lent et lourd qui lui ferait perdre en surface ce qu’elle gagne sur le fond. Ce problème est en voie d’être résolu. Jusqu’à présent la soucoupe a été transportée sur les lieux de plongée par le navire océanographique Calypso ; ce bateau a des missions très variées et de ce fait la soucoupe ne fonctionne pas avec la fréquence désirable. Le commandant Cousteau, directeur du Musée océanographique de Monaco, a donc construit un petit bateau pneumatique, gonflable et démontable, Amphitrite, qui peut mettre à l’eau et récupérer la soucoupe lors de ses plongées. C’est une embarcation de 20 m de long sur 9 m de large, aménagée spécialement pour une immersion et une émersion faciles de la soucoupe. Ses moteurs hors-bords lui donnent une vitesse de 25 nœuds.
- Ainsi, accompagnée de ce bateau « pliant », la soucoupe peut être transportée par avion dans n’importe quelle mer du monde en 24 heures au maximum, et plonger dès son arrivée sur les lieux.
- Fig. j. — Manœuvre de mise à l’eau.
- La soucoupe plongeante est suspendue à la grue utilisée, à bord de la Calypso, pour l’immersion des différents outillages océanographiques. A côté, on reconnaît la silhouette du commandant Cousteau.
- (Photo Les Requins associés).
- p.298 - vue 302/551
-
-
-
- On imagine ce qu’une telle rapidité peut rendre de services, ne serait-ce que pour récupérer les ogives, tombées en mer, des fusées expérimentales et qui, pour une raison ou pour une autre, auraient coulé. En dehors de ce cas, pour un travail scientifique quelconque faisant appel à la soucoupe, le transport par avion coûte moins cher que le déplacement d’un bateau de quelque tonnage, pourvu d’un équipement spécial.
- *
- * *
- La soucoupe plongeante actuelle doit être considérée comme un prototype. Elle n’est pas destinée à rester unique et l’on peut prévoir que son domaine d’utilisation, aujourd’hui limité à 300 m de profondeur, sera par la suite augmenté. Il suffira de renforcer la résistance de la coque.
- Dans un proche avenir l’océanographe aurait donc à sa disposition une gamme de soucoupes plongeantes dont le champ d’action s’étagerait entre zéro et deux mille mètres. Avec le scaphandre autonome et les prochains bathyscaphes, l’homme pourrait ainsi pénétrer dans l’Océan presque aussi facilement qu’il accède aux diverses couches atmosphériques. Alors un plus grand nombre de savants pourront étudier ces deux tiers de notre globe pratiquement vierges de toute observation ; les sciences les plus diverses pourront y appliquer leurs méthodes.
- J.P. Carbonnel,
- Station océanographique de Viliefranche-sur-Mer, Laboratoire de géologie sous-marine, Sorbonne.
- La vie animale et végétale sur le fond des océans
- par Lucien Chopard
- Dans la collection « Euclide » a paru récemment un premier volume sur l’Océanographie biologique comportant l’étude de la vie benthique, c’est-à-dire des animaux et des plantes qui vivent en liaison intime avec le fond de la mer, soit qu’ils y soient fixés, soit qu’ils fouissent, marchent ou rampent à sa surface, soit même qu’ils nagent à son voisinage immédiat, sans jamais s’en écarter notablement. Ce monde benthique, ou benthos, est considérable; on y distingue d’abord deux grandes subdivisions, benthos phytal et benthos aphytal. Le premier est caractérisé par la présence de végétaux chlorophylliens, qui exigent un minimum de lumière; il va donc delà ligne du rivage à la limite inférieure de la végétation; on constate dans ce domaine, au fur et à mesure qu’on s’enfonce dans la mer, une diminution graduelle de la densité des peuplements végétaux et une augmentation des peuplements animaux. Au delà de la limite des végétaux, c’est le domaine du benthos aphytal qui comprend tous les fonds jusqu’aux plus grandes profondeurs.
- On peut distinguer dans le domaine benthique sept zones ou étages. Les quatre premières appartiennent au domaine du benthos phytal : i° l’étage supralittoral où se localisent les organismes qui supportent ou exigent une émersion presque continue; z° l’étage médiolittoral caractérisé par des peuplements qui supportent ou exigent des émersions quelque peu prolongées, en tant que phénomène normal, sans supporter d’immersion continue ou presque continue; 30 l’étage infralittoral, où les peuplements sont, soit toujours immergés, soit très rarement émergés; sa limite inférieure est celle des Zostéracées (plantes Phanérogames marines) et des Algues « photophiles » ; 40 l’étage circalittoral, qui s’étend depuis la limite extrême des végétaux précédents jusqu’à la profondeur la plus grande où l’on trouve encore les Algues les plus tolérantes aux faibles éclairements (les plus sciaphiles).
- 1. Océanographie biologique et Biologie marine, par J.-M. Pérès : Tome premier : La vie benthique. Presses Universitaires de France, 1961, 1 vol. 541 p. Prix : 30 NF.
- Les trois étages suivants divisent le domaine du benthos aphytal, privé de lumière; ce sont : 50 l’étage bathyal, comprenant les peuplements qui occupent le talus continental et la portion des fonds à pente adoucie qui se trouve immédiatement au pied de ce talus; la limite inférieure de cet étage paraît se situer un peu au delà de 3 500 m; 6° l’étage abyssal qui correspond aux peuplements de la grande« plaine » à pente très faible qui s’étend depuis la pente adoucie du pied du talus jusque vers 6 000-7 000 profondeur à laquelle commencent les grands ravins ou grandes fosses de l’étage suivant; 70 enfin l’étage hadal, dit aussi ultra-abyssal, qui englobe les fonds dépassant 6 000-7 000 caractérisés par un appauvrissement quantitatif et qualitatif du peuplement et par la présence des bactéries dites barophiles, adaptées à vivre sous des pressions dépassant 600-700 atmosphères.
- L’originalité du benthos profond
- La connaissance du benthos aphytal ou benthos profond est relativement récente. Jusque vers le milieu du 19e siècle on admettait communément que la mer était privée de vie à partir d’une profondeur d’environ 700 m; on sait aujourd’hui qu’il existe des êtres vivants jusqu’aux plus grandes profondeurs, qui sont de l’ordre de ix 000 m. Le nombre des espèces décroît cependant très rapidement, dans tous les groupes, à partir de 7 500 m environ. Alors que la faune de l’étage bathyal moyen compte des centaines d’espèces appartenant à presque tous les groupes d’animaux marins, celle des plus grandes profondeurs bathyales et surtout celle de l’étage hadal sont réduites à des Actinies, des Holothuries (fig. 1 et 2), des Pogonophores, quelques Vers Polychètes, des Crustacés Isopodes et Amphipodes.
- La plupart des formes qui habitent les grands fonds montrent des adaptations spéciales à ce milieu. Les espèces fixées sont des formes dites « pivotantes », c’est-à-dire
- 299
- p.299 - vue 303/551
-
-
-
- Bien que cette faune benthique des grandes profondeurs ne soit très nombreuse ni en espèces, ni en individus, le problème de son alimentation a paru assez difficile à résoudre. Il semble bien que ce sont surtout les cadavres d’animaux pélagiques qui en fournissent le principal élément. Leurs particules organiques descendent très lentement vers le fond, formant ce qu’on a appelé une « neige » parfois extraordinairement dense. L’enrichissement nutri-tiel du fond qui en résulte est d’autant plus important qu’on a démontré récemment que la dégradation bactérienne des matières organiques au cours de leur descente est très lente, sans doute à cause de la température très basse et assez uniforme qui, avec l’absence de lumière et les très hautes pressions, caractérise ces grandes profondeurs.
- Fig. I. — Une Holothurie de grande profondeur.
- Oneirophante mutabilis, pêchée vers 4 000 m de fond.
- (D’après Filhol, La vie au fond des mers).
- Fig. 2. — Une autre Holothurie des grands fonds.
- Cette Holothurie, Loetmogone brongniarti, pêchée vers 2 000 m, est caractérisée par une symétrie bilatérale et l’existence d’une sole ventrale qui lui permet de ramper sur le fond.
- (D’après Edmond Perrier, Les explorations sous-marines).
- qu’elles présentent une sorte de racine qui s’enfonce dans le sédiment presque toujours mou du fond des abysses. Le corps est souvent aplati, comme par exemple chez le Céphalopode Opistholeuthis et certains Oursins; cette forme semble une adaptation à l’enfouissement temporaire. D’autres montrent une longueur excessive des appendices (fig. 3 et 4), adaptation que l’on a voulu également mettre en rapport avec le caractère meuble ou fluide du fond. Enfin, il est remarquable de constater que beaucoup de formes des grands fonds sont des géants dans leur groupe : les plus grands Isopodes connus (Bathynomus), les plus grands Crabés ('Gerjon), le plus grand Oursin (Hygrosoma hoplacanthus), parmi les Coraux les plus grands Pennatules, et surtout l’énorme Pycnogonide Colossendeis (fig. 5) en sont des exemples frappants.
- Dans le domaine éclairé
- Le benthos phytal ou littoral est naturellement bien plus riche, tant en espèces que pour le nombre des individus; il est par contre moins original. Dans le système phytal sont réalisées les conditions de température les plus variées; on y trouve aussi une grande variété de conditions de substrat, roches diverses, galets, graviers, sables, ^ vases, qui ont chacun leur peuplement caractéristique. Enfin, c’est aussi dans ce système que les sources de matières organiques nécessaires à l’alimentation des animaux sont les plus nombreuses. Il faut d’abord parler des végétaux dont la présence est un des caractères de cette zone. Ils appartiennent aux groupes suivants : Lichens, Algues, Phanérogames et Bactéries. Les lichens sont très localisés
- Fig. ). — Un Crustacé Décapode de l’étage bathyal.
- Cette « crevette » aux pattes et antennes extraordinairement allongées a été pêchée par l’Expédition du Talisman dans l’Atlantique, vers I 000 m de profondeur.
- (D’après Filhol, La vie au fond des mers).
- 300
- p.300 - vue 304/551
-
-
-
- Fig. 4. — Un Décapode Gala-théide aux pinces démesurées. L’animal a été pêché par le Talisman sur des fonds de plus de 1 000 m.
- (D’après Filhol).
- et jouent un rôle négligeable dans l’économie générale des mers. Les bactéries sont abondantes surtout dans la couche superficielle du fond, riche en colloïdes, et elles sont susceptibles de modifier les caractères physiques et chimiques des sédiments. La distribution des algues dépend des caractères physiques du substrat, de la température des eaux, et, plus encore, de l’éclairement ; leur rôle est important, non seulement en ce qui concerne les grandes espèces pluricellulaires, mais aussi les Diatomées et les Zooxanthelles, ces dernières vivant en une sorte de symbiose dans les tissus des Coraux et d’autres organismes récifaux. Les Phanérogames marines appartiennent à la famille des Zostéracées; elles exigent pour se développer un véritable sol et, naturellement, un éclairement suffisant. La plupart d’entre elles sont localisées à l’étage infralittoral (15 m au maximum), mais certaines atteignent une profondeur de 40 et même 70 m. Cette formation, qu’on appelle souvent « herbier », forme un milieu très favorable pour la faune qui y trouve des abris et une nourriture abondante.
- Les animaux du système phytal sont nombreux et variés; ils s’installent de préférence dans les zones qui, du fait du micro-relief, jouissent d’un éclairement diminué et dans celles où la densité de végétation crée au niveau du substrat les mêmes conditions. Toutes les classes d’animaux marins se trouvent représentées dans cette faune qui présente des conditions biologiques si complexes que, dans un long chapitre, les grandes lignes seules peuvent en être indiquées.
- M. Pérès étudie d’abord les rapports entre les animaux benthiques et le substrat, insistant sur les adaptations au fouissage et au forage. Le problème de l’alimentation est ensuite envisagé dans tous ses détails; il s’y rattache la question de la place disponible, qui se pose avec acuité pour les formes fixées et immobiles, principalement dans les étages supérieurs du système phytal où les conditions d’alimentation favorables attirent le maximum d’espèces. La reproduction pose pour les formes benthiques un problème capital, car c’est surtout des conditions de
- reproduction que dépendent la répartition et le succès d’une espèce dans la lutte interspécifique pour l’espace et la nourriture. Bien qu’il soit impossible de dégager des lois générales sur les modalités de la reproduction du benthos, on constate la fréquence de la reproduction asexuée et des formes hermaphrodites chez les espèces fixées. Parmi les facteurs qui jouent un rôle dans la maturation et l’émission des produits sexuels, il faut noter
- Fig. /. — Un Pycnogonide de l’étage bathyal.
- Le Collossendeis arcuata a été récolté par le Talisman dans l’Atlantique à 1 500 m de profondeur. Ce curieux animal appartient au groupe des Pycnogonides, Arthropodes marins dont les affinités sont discutées, mais qu’on s’accorde généralement à rapprocher des Arachnides. La plupart des espèces de Pycnogonides vivent à des profondeurs moyennes parmi les Polypiers dont elles font leur nourriture. Les Colossendeis, par contre, habitent les mers profondes, entre 1 500 et 4 000 m; ils sont de taille relativement grande, le corps mesurant une “dizaine de centimètres, les pattes atteignant 30 cm.
- (D’après Filhol).
- 301
- p.301 - vue 305/551
-
-
-
- l’alternance des jours et des nuits, entraînant un rythme nycthéméral, et les phases de la lune auxquelles sont liés les phénomènes d’épitoquie (danses nuptiales en surface des reproducteurs) des vers Polychètes. L’auteur envisage aussi l’importance des facteurs du milieu (température, pü, salinité, teneur des eaux en matières organiques, lumière) dans la répartition des animaux benthiques.
- *
- * *
- Cette étude sur l’écologie du benthos est complétée par une longue analyse des modalités d’association des animaux et végétaux dans le domaine benthique. Ces peuplements peuvent être envisagés du point de vue qualitatif, en dressant des listes aussi complètes que possible des espèces, ou du point de vue quantitatif en recherchant les espèces numériquement dominantes. La méthode quantitative a été mise au point par le savant danois Petersen ; elle exige l’emploi de procédés assez complexes consistant non seulement dans le comptage des individus des différentes espèces, mais aussi dans la notation des poids frais
- et secs des lots ainsi obtenus. Ces notions de base sont indispensables pour l’établissement de tableaux qui donnent une idée des rapports entre les différents groupes zoologiques. Cette connaissance de la biomasse permet d’apprécier la richesse des fonds et elle peut trouver des applications pratiques.
- L’ouvrage de M. Pérès s’adresse particulièrement aux étudiants du troisième cycle, mais aussi à tous ceux qui s’intéressent à l’océanographie. Sa lecture demande des connaissances sérieuses en botanique et surtout en zoologie, pour suivre l’auteur dans l’énumération de formes que nécessitent les différents chapitres. L’édition en est soignée mais on peut regretter qu’il n’ait pas été plus abondamment illustré. On peut aussi se demander si la bizarre notation adoptée pour les chapitres et sous-chapitres en facilitera beaucoup l’utilisation. De toutes façons c’est un ouvrage bien construit, richement documenté, qui sera d’autant plus indispensable aux océanographes qu’il n’existe actuellement aucun livre en langue française sur ce sujet.
- L. Chopard.
- Le lac de Neuchâtel, nouvelle victime de la pollution
- L’Association française pour l’Etude des eaux a relevé dans un journal suisse une information selon laquelle des signes graves de pollution seraient en train de se manifester dans le Lac de Neuchâtel. Le fait est d’autant plus inquiétant qu’on se trouve en présence d’un lac de grande étendue. Ainsi que nous l’avions exposé, en effet (La Nature, août 1956, p. 315), la pollution semblait devoir s’installer surtout dans les lacs de relativement petite superficie, tels que ceux de Morat, Baldegg, Zoug et Hallwyl en Suisse, Nantua en France. Les grands lacs, à l’exception de celui de Zurich, étaient jusque là indemnes.
- Cette différence s’explique, rappelons-le, par le processus de Y eutrophisation, phénomène hydrobiologique, qui intervient lorsqu’une eau dont le rythme de renouvellement est limité reçoit un excès de matières nutritives. C’est le cas des lacs situés dans des régions peuplées et où se déversent les affluents des villes, villages et habitations isolées, ainsi que les eaux de ruissellement, chargées au passage des engrais que les cultivateurs épandent dans leurs champs.
- Dès qu’un lac dépasse une certaine teneur en phosphates et en nitrates (le seuil, selon le professeur Iaag, de l’Université de Zurich, se situe à 6 mg de phosphates par m3 d’eau) la vie aquatique est profondément bouleversée. Un des signes les plus caractéristiques, apparu pour la première fois à Morat en 1825, et appelé populairement « le sang des Bourguignons », est un rougissement de l’eau qui pro-
- Yestiges préhistoriques
- Lors de l’exploration, en i960 et 1961, d’une série de cavernes dans l’Oural du Nord et, plus précisément, dans la région de la haute Pét-chora, des géologues et des archéologues soviétiques trouvèrent, non seulement de nombreux ossements d’animaux, mais aussi des objets en silex fabriqués par l’homme paléolithique. C’est pour la première fois, dit la revue Priroda, que des vestiges de l’homme préhistorique ont été découverts dans une région aussi septentrionale (au delà de 62° de latitude nord).
- On y a découvert aussi des ossements d’animaux tels que le mammouth, le bison et, surtout, l’antilope « saïgak », celle-ci n’existant aujourd’hui que dans des pays situés beaucoup plus au sud. L’explo-
- vient de la prolifération d’une algue unicellulaire, Oscillatoria ntbescens.
- L’apparition massive de cette algue coïncide avec un appauvrissement en oxygène des couches inférieures des lacs et une pullulation des bactéries anaérobies. Mais on considérait jusqu’ici que ces phénomènes risquent bien moins de se produire dans les lacs de grande étendue, soumis en permanence à l’action du vent et des vagues, ce qui renouvelle leur oxygène et provoque une auto-épuration.
- Malheureusement, on doit constater par l’exemple du Lac de Neuchâtel, venant après celui de Zurich, que l’auto-épuration des grandes étendues d’eau ne doit plus être considérée comme une règle. On a commencé par observer l’envahissement du lac par une algue filamenteuse, dont l’espèce n’a d’ailleurs pas été précisée et qui s’accumulant à la surface donnait aux eaux une teinte bleuâtre. C’est seulement par endroits qu’ Oscillatoria rubescens s’était installée.
- Mais à l’automne dernier, la redoutable algue rouge s’est manifestée pour la première fois sur l’ensemble du lac. Les hydrobiologistes se demandent si les deux espèces sont en concurrence où si elles peuvent vivre en association, comme c’est fréquemment le cas entre Oscillatoria et Tabellaria fenestrata.
- La preuve est en tout cas fournie que des mesures doivent être prises d’urgence pour enrayer la pollution croissante des lacs.
- G. C.
- dans le Nord de l’Oural
- ration de 1961, organisée par l’Académie des Sciences de l’U.R.S.S., a permis d’aboutir aux conclusions suivantes. Les migrations du mammouth, du bison et surtout du « saïgak » vers le nord de l’Oural ne purent se produire qu’à une époque où le climat de cette région était beaucoup plus doux qu’il ne l’est à présent. Elles se produisirent vraisemblablement il y a 50 000 à 60 000 ans pendant la période que les géologues russes appellent interglaciaire dniépro-valdaïen, donc à une époque de réchauffement au milieu de la dernière glaciation européenne, celle de Würm. L’Oural du Nord aurait donc connu à cette époque une civilisation paléolithique.
- C. M.
- 302
- p.302 - vue 306/551
-
-
-
- Les reliefs de l’Océan Indien
- précisés par le Vitia%
- La carte des reliefs sous-marins s’enrichit constamment d’éléments nouveaux recueillis grâce aux sondages océanographiques exécutés à travers les océans. On est loin cependant d’avoir repéré toutes les chaînes montagneuses sous-marines et délimité les plaines abyssales. Cela est vrai même pour l’Océan Atlantique, relativement bien exploré, mais dont les fonds n’ont pu donner heu qu’à des reconstitutions schématiques.
- Dans le cas de l’Océan Indien, on se trouvait, récemment encore, en plein inconnu. C’est ce qui donne tout leur intérêt aux deux campagnes accomplies en 1959-60 et 1960-61 dans cet océan par le navire océanographique dont
- il a été rendu compte dans la revue Priroda. On constatera en effet, sur la carte de la figure 1, l’ampleur de l’itinéraire total parcouru par ce navire : plus de 61 000 milles marins dont 5 7 000 consacrés à des sondages du fond, par sondes acoustiques et bathymètres.
- L’allure générale de la topographie, telle qu’elle ressort des sondages, est conforme à celle des autres océans : vastes plaines abyssales, séparées les unes des autres par de puissantes chaînes montagneuses et interrompues ça et là par des chaînes ou des pics isolés.
- Différents secteurs géographiques ont pu être définis. Celui de la Mer d’Oman se signale par une plaine abyssale que borde, dans la partie N-NE, au voisinage des terres émergées, une chaîne sous-marine, dont les sommets généralement aplatis culminent parfois à des profondeurs de l’ordre de 450 m. Cette chaîne, orientée NE-SO, constitue le prolongement de formations montagneuses du Pakistan. Elle est bordée par un sillon dont la profondeur atteint 4 230 m.
- Au Sud de la Mer d’Oman se trouve l’imposante chaîne connue sous le nom de chaîne de Carls-berg, qui avait déjà été signalée par les océanographes. Sa largeur est toutefois beaucoup plus grande que ne l’indiquaient les cartes
- jusqu’ici publiées. Son relief est très irrégulier et de nombreux pics, hauts de 2 000 à 2 500 m, ont pu y être décelés. A son extrémité méridionale, cette chaîne, orientée NO - SE, rejoint une autre chaîne qui a été baptisée Centre-Indienne. A l’est des Iles Chagos, au pied même de la chaîne, se dessine un sillon à pente raide dont le fond plat se trouve à 5 400 m de profondeur.
- Passant au golfe du Bengale, on rencontre à nouveau une vaste plaine abyssale que recoupent des vallées sous-marines aux pentes adoucies. Au sud de cette plaine, alors que les profondeurs se sont établies aux environs de 4500 m, surgit (à 550 milles au SSE de Ceylan) une chaîne montagneuse, couronnée de volcans sous-marins. La figure 2 représente le profil de cette chaîne, par 30 de latitude Sud et 83° de longitude Est.
- Plus au sud, entre les latitudes 70 et 30-3 50 Sud, le fond de l’océan présente une structure particulièrement irrégulière. L’accumulation des sédiments paraît avoir été très lente, leur épaisseur n’atteignant que quelques centaines de mètres. Des mesures, exécutées par le Vitiaz au moyen bouées sismo-acoustiques, ont révélé une épaisseur de l’écorce terrestre de 7,5 ± 1,5 km.
- Le navire soviétique s’est livré à une exploration très détaillée des reliefs compliqués qui s’amorcent dans la partie NE du golfe du Bengale et se prolongent vers le S -SE, en bordure des îles de la Sonde. L’élément le plus mar-
- Fig. 1. — Carte exprimant schématiquement les reliefs de l’Océan Indien.
- 1, Itinéraire du Vitiaz pendant sa campagne de 1960-61 ; les petits cercles correspondent aux stations du navire, numérotées dans l’ordre.
- 2, Partie du trajet où aucun sondage n’a été effectué. 3, Chaînes montagneuses. 4, Sillons et fosses océaniques. 3,, Plaines abyssales.
- (D’après P. Zamotski, dans Priroda).
- 303
- p.303 - vue 307/551
-
-
-
- 0
- 1 Z 3 ¥
- S
- BHm
- Fig. 2. — Profil de sondage en travers de la chaîne sous-marine située au Sud de Ceylan.
- Le point culminant de cette chaîne est à une profondeur de i 550 m. Les chiffres portés en haut correspondent aux stations du Vitiaz, que l’on peut retrouver sur la figure 1. La distance entre les points numérotés respectivement 4907 et 4912 est de 85 km environ, les profondeurs ayant été exagérées 37 fois par rapport aux distances horizontales.
- ¥307 ¥303 ¥303 ¥S/0 ¥Sff ¥3t2
- quant est constitué par un long sillon, connu sous le nom de sillon de Java. Sa profondeur maximale est de 7 540 m. De configuration irrégulière et délimité par des pentes abruptes, ce sillon est généralement à fond plat. L’épaisseur des dépôts sédimentaires y atteint 2 090 m mais s’atténue brusquement dans les parties latérales. Uue chaîne de montagnes, jalonnée de nombreux volcans, longe le sillon.
- Une autre chaîne a été découverte au voisinage de l’île Christmas.
- L’exploration de la partie centrale de l’Océan Indien a permis de nombreuses observations sur la nature du fond. Jusqu’à 4 500 m de profondeur, les dépôts sont principalement formés de vases et de sables à foraminifères. Au delà de cette profondeur, les dépôts ne contiennent plus de carbonate de calcium : ce sont des argiles rouges, souvent parsemées de concrétions de manganèse et de fer. Par endroits, ces concrétions forment de bizarres « chaussées » qui surmontent le fond. Dans les régions périphériques de l’Océan, les matières organiques se sont déposées en grandes quantités : on relève alors la présence de sulfures de fer et d’hydrogène sulfuré.
- Les océanographes soviétiques ont interprété certaines des données recueillies, en vue de reconstituer l’histoire géologique de l’Océan Indien. Leur compte rendu signale notamment un carottage effectué à grande profondeur (5 590 m) où l’argile rouge surmontait un dépôt calcaire. Se conformant à l’opinion que ce dépôt n’avait pu se former qu’à une profondeur égale ou inférieure à 4 600-4 700 m, ils ont conclu à un enfoncement d’environ 1 000 m, intéressant cette partie de l’océan.
- • C. M.
- Radioactivité et reproduction des Grillons
- Au cours d’expériences de marquage de grillons avec des radioisotopes, deux entomologistes travaillant à la McGill University de Montréal, MM. A. Abdel-Malek et Mc E. Klevan, ont eu l’occasion de faire d’intéressantes remarques concernant l’influence de ces essais sur la reproduction des insectes expérimentés. Le but primitif des expériences était de tenter de résoudre certains problèmes de la spéciation, c’est-à-dire de la différenciation progressive d’espèces nouvelles, dans un groupe de formes étroitement apparentées du genre Gryllus. L’espèce utilisée était un grillon de la Jamaïque, Gryllus assimilis. Le marquage était opéré par le moyen de 1-méthyl-méthionine contenant du radio-carbone 14. Il était injecté dans de l’eau distillée entre les 6e et 7e tergites abdominaux à des larves ayant atteint le dernier âge avant l’état adulte, à la dose de 0,05 à 10 microcuries par grillon. L’injection est bien supportée jusqu’à 5 pc ; elle est mortelle en 24 heures au-dessus de cette dose. La mue imaginale se produit normalement et on constate que l’insecte conserve sa radioactivité.
- Les auteurs n’ont pas encore fait connaître les résultats obtenus par cette méthode en ce qui concerne la spéciation, but principal de leurs recherches, mais ils ont publié dans Nature (Londres) d’intéressantes observations sur la reproduction des grillons irradiés. Chez les mâles, la production des spermatophores et l’appétit sexuel ne sont aucunement diminués, mais ils se montrent stériles. Ce fait ne doit pas surprendre car on savait déjà que le traitement par rayons X ou y provoque la stérilité. La seule différence est que l’isotope employé est un émetteur de rayons (3 (électrons) de faible énergie.
- En ce qui concerne les femelles, on constate que celles qui ont été irradiées sont capables de pondre aussi bien que les femelles normales, cette ponte pouvant se produire sans accouplement préalable ; mais les œufs ne se développent pas parthénogénétiquement. Les œufs des femelles irradiées sont eux-mêmes radioactifs, de même que les larves qui en sortent, s’ils ont été fécondés. En effet, accouplées avec un mâle normal, ces femelles radioactives pondent normalement et leurs œufs éclosent. Au contraire, s’il s’agit de mâles ayant subi une injection, la ponte est inhibée, qu’il s’agisse d’une femelle saine ou d’une femelle ayant elle-même été soumise au traitement radioactif. On peut faire l’hypothèse qu’une réaction qui permet ou favorise la production des œufs d’une femelle qui reçoit un spermatophore normal est inhibée par la présence de substances provenant du spermatophore radioactif.
- Il faut noter que contrairement à ce qui a pu être fait avec la mouche Calliphoride Callitroga americana, dont les larves sont de dangereux parasites de la peau, on ne peut employer le procédé de stérilisation des mâles pour lutter contre certains grillons nuisibles. En effet, alors que la femelle de la mouche ne s’accouple qu’une fois, celle des grillons s’accouple plusieurs fois, et avec des mâles différents. On constate ainsi qu’un grillon femelle, dont la ponte avait été inhibée par un premier accouplement avec un mâle radioactif, peut pondre des œufs fertiles deux semaines plus tard environ, après avoir été à nouveau fécondée par un mâle normal.
- L. C.
- 304
- p.304 - vue 308/551
-
-
-
- Quand et comment le salarié inventeur peut prendre un brevet
- par Jean-Michel Wagret
- L’inventeur moderne n’est pas ce personnage mythique et pittoresque que nous présente l’imagerie populaire, fervent de concours Lépine ou auteur de quelque chimérique mouvement perpétuel. Dans l’immense majorité des cas, l’inventeur est un technicien au service d’une entreprise qui, dans le cadre de sa spécialité et souvent de son travail, a été conduit à réfléchir sur un problème technique et, favorisé par sa fécondité intellectuelle ou par la chance, à élaborer les bases d’une solution.
- Mais la rencontre de ces deux qualités, salarié d’une part, inventeur d’autre part, ne laisse pas de poser des problèmes très délicats ; c’est ainsi que l’inventeur s’apercevra vite, lorsqu’après des mois de tâtonnements et de recherches il a enfin obtenu un résultat industriellement exploitable, que, loin d’être arrivé au port, il ne fait qu’entamer de nouvelles difficultés.
- La première question qui va se poser sera celle de la propriété de l’invention : quels sont les droits respectifs de l’ingénieur salarié d’une part et de l’entreprise d’autre part sur l’invention ?
- En second lieu, dans l’hypothèse où le salarié aura vu confirmer ses droits exclusifs sur l’invention, comment pourra-t-il la protéger ? Comment pourra-t-il en déclencher l’exploitation et en retirer la rémunération de ses efforts ?
- Ce sont ces deux séries de problèmes que nous ambitionnons non pas de résoudre, mais d’exposer en signalant au passage quelques solutions ou quelques recettes.
- La propriété de Vinvention
- Le sujet n’est pas nouveau ; il a fait l’objet de nombreuses études dues tant aux spécialistes du droit de la propriété industrielle que du droit du travail ; le problème tend cependant à prendre chaque jour une plus grande actualité, notamment avec le développement des organismes de recherches et des services d’études gérés par les entreprises.
- Depuis la grande loi du 5 juillet 1844 qui a instauré en France sous leur forme moderne les brevets d’invention, la nécessité de réglementer la propriété de l’invention due à un salarié s’est fait sentir et divers projets de loi ou d’ordonnance ont été élaborés qui n’ont pu cependant encore aboutir.
- Ce sont donc essentiellement les décisions de jurisprudence qui fournissent dans ce domaine les règles de droit à partir desquelles les problèmes concrets peuvent être résolus. Mais de plus en plus, employeurs et salariés, prenant conscience de l’importance de ces problèmes, tendent
- a préciser par avance, dans les contrats de travail, statuts du personnel ou conventions collectives, les positions et droits respectifs du salarié et de l’entreprise.
- Selon une classification commode qui est aujourd’hui classique, on distingue trois catégories d’inventions : l’invention de service ; l’invention occasionnelle ; l’invention libre. Nous les examinerons successivement.
- L’invention de service et le droit moral de l’inventeur
- L’invention issue de recherches ordonnées et organisées par l’employeur est une invention de service. Rentrent dans ce cadre bien évidemment les inventions de l’ingénieur d’étude ou du technicien attaché à un laboratoire ou un service de recherche. On trouve également dans cette catégorie les inventions d’un salarié, quelles que soient ses fonctions habituelles et sa qualification, que l’employeur a chargé d’une mission de recherche, mettant éventuellement à sa disposition les moyens en matériel et en personnel de l’entreprise.
- Il est bien incontestable que dans cette première hypothèse, la propriété de P invention et du brevet susceptible de la protéger appartient à l’employeur. On considère que dans ce cas c’est en réalité l’entreprise qui invente par l’intermédiaire de ses organes ; ayant pris à sa charge les risques de recherches infructueuses, elle doit bénéficier des inventions. Le salarié inventeur est sensé recevoir, dans le salaire qu’il perçoit, la rémunération de l’activité inventive exercée au profit de l’employeur ; sauf stipulation contraire dans son contrat de travail ou la convention collective applicable, il n’a droit à aucune rémunération supplémentaire à titre de redevance, prime ou autre.
- Il se peut que le contrat de travail ou le statut du personnel de l’entreprise ait prévu une rémunération exceptionnelle au profit de l’inventeur, mais le cas est rare. Le statut du C.N.R.S. prévoit que les produits financiers retirés de l’exploitation (vente ou concession de licence de brevets) des inventions faites par les chercheurs attachés au centre sont partagés entre le centre (25 pour 100) et l’inventeur (75 pour 100) après amortissement des frais de brevet. Cette générosité mérite d’être signalée, mais elle est très exceptionnelle ; elle ne se retrouve pas dans les autres organismes de recherche privés ou gérés par des syndicats d’entreprise. Dans la plupart des cas, les conventions se contentent de prévoir au profit de l’inventeur salarié une prime qui reste à la discrétion de l’employeur.
- 305
- p.305 - vue 309/551
-
-
-
- Le droit moral de L inventeur. — La convention internationale pour la protection de la propriété industrielle à laquelle adhèrent la plupart des grands pays industriels occidentaux prévoit (article 4 ter) que «l’inventeur a le droit d’être mentionné comme tel dans le brevet ». Il s’agit là d’un droit moral sans répercussion pécuniaire directe ; mais il sera d’un grand intérêt pour l’ingénieur salarié de voir consacrer sa valeur professionnelle par cette mention ; il pourra ainsi justifier ultérieurement de ses travaux passés, ne serait-ce qu’aux yeux d’un nouvel employeur.
- Il suffit cependant de feuilleter un bulletin portant publication des brevets d’invention pour constater que ce droit est trop souvent méconnu par de nombreuses entreprises qui déposent leurs brevets sans mention de l’inventeur réel. C’est qu’en France le salarié inventeur ne dispose d’aucun moyen pratique qui lui permette de faire consacrer son droit à figurer dans le brevet. Aux Etats-Unis, en Allemagne (sous des formes d’ailleurs diverses), cette mention n’est pas seulement un droit pour le salarié, c’est une obligation pour l’entreprise ; en Grande-Bretagne, le salarié inventeur peut faire valoir son droit directement auprès de l’Administration des Brevets. Une réforme de notre législation s’impose sur ce point, faute de quoi le droit moral de l’inventeur salarié restera en France trop souvent méconnu.
- L’invention occasionnelle
- L’invention dite « occasionnelle » intéresse l’activité de l’entreprise mais s’est trouvée réalisée par un salarié qui n’avait pas normalement dans ses fonctions à effectuer un travail de recherche et n’en avait pas été chargé ; c’est le cas du directeur commercial ou du secrétaire administratif qui invente un nouveau procédé technique.
- Solutions de jurisprudence. — Depuis un arrêt ancien de la Cour de Paris (affaire Aubé contre Société de la Vieille Montagne, 1874), il est reconnu qu’une telle invention revient au salarié qui peut déposer un brevet en son nom.
- Parfois la situation sera plus complexe : avant que l’invention ait pris exactement forme, le salarié s’ouvre de son idée à la direction ; celle-ci l’encourage, lui fournit les moyens de poursuivre ses recherches, le décharge de son travail normal. Dans cette hypothèse où l’invention apparaît le fruit d’un effort commun, les tribunaux, rendant un jugement de Salomon, décident que salarié et entreprise seront co-propriétaires indivis de l’invention et du brevet la couvrant (Cour de Paris, 16-5-1958, Affaires Aciéries du Nord contre Musso).
- Les contrats de travail.-— Pour écarter cette solution favorable aux salariés, certaines grandes entreprises ont inséré parmi les nombreuses clauses de style contenues dans leur contrat de travail type une disposition attribuant à l’entreprise la propriété de toutes les inventions faites par le salarié et susceptibles d’intéresser l’activité de l’entreprise.
- Mais si le salarié n’a pas dans ses fonctions normales à effectuer un travail de recherche, la clause est léonine ; en effet, l’entreprise reçoit l’invention sans contrepartie
- Fig. 1 et 2. — Premiète page et planche de dessins de l’un des plus anciens brevets, celui de Jouflfroy d’Abbans pour un bateau à vapeur (1792).
- (Documents aimablement communiqués par l’Institut national de la Propriété industrielle).
- p.306 - vue 310/551
-
-
-
- >-~rw '^«ar * V 1 » - -' «
- hmêtèrtj
- 'P.
- â» <At4<D
- «c
- W? ,
- 3o,
- A
- \in
- V., *i»
- ! (•;!!*> ?* 1
- ' V
- ? i*. itwCi ff- 4%
- <£ i £.
- <)/r\’(7-i a,,/nvermon,
- de JPezfectiotwemeuf et $ Jmpotiafoop,
- ^00-
- >Â
- ’é
- immp eL.
- jü
- i|i
- JÊ*
- saM^ps
- (*18111
- f) X , /."^N /
- i&\
- * ? '/I i// *ySé X^*.Jj*****
- Æ " ft$r^' ' / gf j
- ^/«xr/s'trsifc /**- ‘ }
- W*’s**'*‘#Jr*+S *** ****"*«*'
- rÈ
- V~- >»-.
- A
- *U"t/t* fi
- ' f-d s
- / iT\/ ^ * - % "
- /Jw &**#£*} &t*rr rfA
- *^"">""^",|"-B". "-11 »- .»~.,V«.~.--M.~~ --y ....................„....* I . V, .r,ii,„i,„ VmJ.,<Sf^Hi^,„.)„)l„„„WM^„,WH.^„,Bj,.,r„„|rnw.,i„ > Jj,|, ~ ; ^
- * fb ÇoummmtML., &u aece*3*w~ utt> l»v 3'immhtm* s<tm #mmm etu mc&m maüfbtt, mû» ptmûfet m & «étiût, *
- 307
- p.307 - vue 311/551
-
-
-
- cirym&HPlKf jr a'fvJftr'HC, ç^rjx» fvfévMf (**>£
- ’ (p0^mnr^^ rnmbnpdtha p$ ngp nb fow/rrndj*r<ÿ jsotf'çpùfi.
- s~nf> tfm&% ftrptç (wnémÿ&Tdrmn^ f*p*>ÿ jmotl prutjfg
- :^ p rr W'f>£ t^jV . :*.
- - g j....... £.
- '4or**f) w pm*{> f?nj*f<*\prnb
- /•«»yw puncrrï&tl7» _ ynof p*nm*ÿÿ p>£ qfctmLpj £*
- : ~**m, .w»» V/f-@Lpn»fof****^/w?ÿ
- (m^^xrurrvoii*sg±wpl{Tjpéj(*nn pnthp pwrvpi /Vf ?**»% ‘ J
- 'pmi çvm/£r** /yrf <***& (*mmoy mt f**J '/vrynoiu
- 'tflp 'pptén^/çmnipypt* ww^ £irpta%f ( ***7 .AJr? $
- î pir\tft> -~>J fvfiçichrz OOÿ * . *Cÿ>*X>lll
- çvwntftcfj c ‘TrtnpPlt 'H&pf 'cT>Ç*c£*}OJ?ri ‘-VJ*
- . : . rçmel H4> £ .^leîtriig
- , fn*>J3%ypi>/ sr>m rrn{> ?*>!#*< ^ ^ ’
- , «(’ JgtPùffïf r^%0ciénp nnù .,.«£ f >P*4
- W î>. %v,£ïj rntgyïtpvtnu ,*/> rn-v^uty >** • ->/w//T ,*nn n>fr*u , ^mtoyxiuî( *n,} y
- ’ ^ 'nw(? 3i,-i ;,*>
- V..
- ÿJ$$L%\d&%é r*p> {-TtTOyj'Cyjj^
- H *pnpyfwâmpfg j&rrbjprn4>/?çy f*?#rrtp ‘0J ~i^
- I - - fWf^ééw ^mffTWti/^uri-^ Aid "
- p.308 - vue 312/551
-
-
-
- Fig. 3. — Fac-similé d’une page de la demande de brevet pour le vélocipède déposée en 1818 par Dineur.
- puisque le salarié est rémunéré non pour inventer mais pour un autre travail ; la clause n’est donc valable que si elle est assortie d’une disposition qui prévoit l’indemnisation effective du salarié.
- Les conventions collectives. — C’est ce que prévoient quelques conventions collectives qui ont tenté d’instaurer ici une solution qui concilie les intérêts de l’entreprise et ceux de l’inventeur salarié ; la formule généralement adoptée, après avoir consacré le droit moral de l’inventeur à figurer en nom dans le brevet, attribue la propriété de l’invention « occasionnelle » à l’entreprise qui, par définition, y est intéressée, et est susceptible de l’exploiter. Il est en outre stipulé que dans le cas où une exploitation effective aurait lieu dans les cinq années suivant le dépôt du brevet, l’inventeur pourra prétendre à une gratification proportionnelle à la valeur du brevet, formule imprécise qui a toutefois le mérite de poser le principe du droit à rémunération au profit du salarié. Ces dispositions se trouvent insérées dans les conventions collectives des industries du bois, du verre, du vitrail, des industries chimiques.
- L’invention libre
- L’invention libre est celle qui est complètement étrangère à l’activité de l’employeur ; tel est le cas de l’ingénieur chimiste au service d’une compagnie pétrolière qui aurait étudié une nouvelle technique de cinéma en relief. Ce cas ne souffre aucune difficulté et il est bien évident que l’invention et le brevet sont la propriété exclusive de l’inventeur sans possibilité de partage possible avec l’employeur. Toute clause contraire contenue dans un contrat de travail serait radicalement nulle.
- Prise d*un brevet et exploitation
- La propriété de l’invention étant réglée conformément aux principes que nous venons de rappeler, voyons maintenant comment le salarié inventeur, dans l’hypothèse favorable où il pourra prétendre à la propriété de son invention, peut encore protéger efficacement et négocier avantageusement le fruit de son travail.
- L’invention n’a pas en elle-même d’effet juridique et la qualité d’inventeur n’a d’intérêt que dans la mesure où elle permet d’obtenir un brevet d’invention. C’est donc le dépôt du brevet qui doit être la préoccupation première de l’inventeur.
- Le dépôt du brevet
- Les conditions et les effets du dépôt d’un brevet ne sont pas particulières à l’inventeur salarié et seront les mêmes pour l’inventeur indépendant et pour une entreprise ; toutefois le salarié n’étant le plus souvent qu’un inventeur occasionnel sera par là peu au fait des démarches à faire, tant pour sauvegarder ses droits que pour les négocier avantageusement. Nous allons donc tenter de les résumer.
- Que peut-on protéger par brevet ? — Le droit français est certainement un des plus libéraux dans l’élaboration
- des critères de « brevetabilité » des inventions ; à la différence des législations étrangères, notre droit n’exige pas, pour qu’une invention soit brevetable, qu’elle participe d’un certain niveau intellectuel ou qu’elle présente un minimum de « hauteur inventive ».
- Une invention n’a donc pas besoin d’être géniale pour faire l’objet d’un brevet ; un petit perfectionnement, une astuce de montage peuvent parfaitement être protégés par brevet dès lors qu’ils sont nouveaux.
- Cependant tout ce qui est nouveau n’est pas nécessairement brevetable ; encore faut-il en effet que l’invention concerne un produit ou un procédé industriel, ce qui exclut d’une part les découvertes et principes scientifiques sans application pratique immédiate et d’autre part la création de formes esthétiques qui relèvent de la propriété artistique et peuvent éventuellement faire l’objet d’un dépôt de modèle.
- La découverte de l’effet Raman par exemple n’aurait pu faire l’objet d’un brevet, non plus une carrosserie de voiture conçue uniquement en fonction de son harmonie esthétique ; par contre un appareil, appliquant l’effet Raman et permettant d’analyser une matière donnée, serait un produit industriel et donc brevetable ; de même une carrosserie de voiture automobile dont la forme aurait pour résultat des qualités de résistance, d’insonorisation serait également brevetable.
- Pour préciser les idées, nous passerons rapidement en revue les quatre catégories d’inventions reconnues par la loi du 5 juillet 1844.
- i° Le produit industriel nouveau. — Le cas le plus simple est la découverte d’un nouveau corps, d’un nouveau composé chimique, mais notre jurisprudence très généreuse accepte souvent de voir un produit industriel nouveau (donc protégeable par brevet) dans un appareil ou un ustensile qui ne se différencie de ses prédécesseurs que par de simples perfectionnements de détails. Le lit-cage, les cartes à coins arrondis, la balle de fusil à culot tronconique, le moulin à légumes ont pu faire l’objet de brevets valables.
- 20 Le moyen nouveau. — Il s’agira le plus souvent d’un nouveau processus ou procédé de fabrication d’un produit connu.
- 30 L’application nouvelle de moyen connu, dont on distingue l’emploi banal de moyen connu ; seule l’application nouvelle est brevetable car, dans ce cas, le résultat obtenu est différent de celui produit dans les utilisations antérieures. Ainsi, les roulettes pour le déplacement des meubles étant connues, créer un fourneau à roulettes n’est pas une application nouvelle brevetable mais un simple emploi banal, car dans le cas du fourneau, les roulettes ne produisent pas d’effet différent de ceux obtenus avec les autres meubles.
- 4° La combinaison nouvelle de moyens connus dont on distingue encore la simple juxtaposition ; cette dernière n’étant pas brevetable ; mettre une gomme au bout d’un crayon est une simple juxtaposition et il n’y a pas là matière à brevet.
- Comment déposer un brevet ? — Les formalités de dépôt d’un brevet sont à la vérité assez légères et l’inventeur obtiendra à ce sujet tous renseignements utiles des Services de la Propriété industrielle (26 bis, rue de Léningrad, Paris) auprès de qui est enregistré le dépôt.
- Dans tous les cas cependant l’inventeur aura le plus
- 309
- p.309 - vue 313/551
-
-
-
- Fig. 4. — La salle de consultation des brevets étrangers à l’Institut national de la Propriété industrielle à Paris.
- grand intérêt à recourir aux services d’un ingénieur-conseil en propriété industrielle qui, pour une somme de l’ordre de 600 NF, assurera, outre la préparation des dessins et le dépôt administratif du dossier, la rédaction de la demande, rédaction délicate et qui, pour assurer à l’inventeur une protection efficace, demande une longue expérience des questions de brevet.
- Quand déposer le brevet ? —;Dans le cas favorable où l’invention est conçue d’emblée complète et achevée, la question de la date du dépôt du brevet ne se pose pas. Mais plus souvent, l’invention prendra forme après un long cheminement et des essais qui permettront d’approcher peu à peu la solution cherchée. Dans ce cas, déposer trop tôt un brevet c’est risquer de faire porter ce dernier sur des points secondaires et exposer une solution bâtarde rendue caduque par des mises au point ultérieures. Par contre, attendre une solution parfaite et définitive, c’est risquer de voir un concurrent, qui explore la même voie, déposer un brevet le premier. C’est surtout courir le risque d’une divulgation de l’invention qui rendra nulle la prise d’un brevet.
- Entre deux maux, il convient, selon le proverbe, de choisir le moindre et il sera donc préférable pour l’inventeur de prendre un brevet dès qu’il aura obtenu un résultat susceptible d’être exploité industriellement, sauf à protéger
- ultérieurement les mises au point et perfectionnements apportés à l’idée initiale par le dépôt de certificats d’addition au premier brevet ou de brevet de perfectionnements.
- Où déposer le brevet? — Le brevet français pour lequel l’inventeur aura déposé une demande en France n’assure de droits que sur les territoires français (et provisoirement dans les états africains membres de la communauté).
- Les projets de «brevet international» sont encore très loin d’aboutir à quelque réalisation ; un « brevet européen » à l’échelle du marché commun est en cours d’étude et verra certainement le jour, mais tous les spécialistes s’accordent à penser que ce ne sera pas avant une dizaine d’années. Actuellement, si l’inventeur veut être protégé à l’étranger, il est donc contraint de déposer une demande de brevet national dans chaque pays : le Luxembourg, le Nyassaland, Flong-Kong, Monaco, ont chacun leur brevet national...
- Les pays où il est intéressant de déposer un brevet sont :
- i° Les pays consommateurs ; ce seront en général les pays occidentaux à haut niveau de vie, mais chaque cas fournira des indications particulières : les Américains sont de grands pêcheurs, on devra donc déposer aux U.S.A. un brevet protégeant un nouveau mécanisme de moulinet de pêche ; un procédé permettant d’obtenir de l’eau douce à partir de l’eau de mer devra être breveté dans les territoires et îles du golfe Persique dont les puits s’obstinent à fournir du pétrole quand on leur demanderait de l’eau potable.
- 310
- p.310 - vue 314/551
-
-
-
- 2° Les pays producteurs ; un mécanisme d’horlogerie devra être breveté en Suisse.
- 3° Les pays pratiquant un examen administratif difficile et dont le brevet constitue un test de la nouveauté de l’invention, par exemple l’Allemagne, les Pays-Bas, les Etats-Unis.
- A compter de la date du dépôt du brevet en France, l’inventeur dispose d’un délai d’une année (dit délai de priorité) pour déposer des demandes de brevet correspondantes à l’étranger.
- Mais il est bien évident que l’inventeur salarié ne pourra, avec ses seules ressources, faire face aux frais que représentent le dépôt et la défense de ses brevets à l’étranger ; ces frais représentent, pour les seuls six pays du marché commun, près d’un million d’anciens francs. C’est pourquoi, dès le dépôt du brevet en France, le salarié inventeur devra tenter de négocier son brevet.
- La négociation du brevet
- De nombreuses entreprises s’abonnent aux publications officielles des brevets, tout au moins dans les classes qui les intéressent, et, lorsqu’un brevet retient leur attention, elles entrent en rapport avec son titulaire en vue d’une cession ou d’une licence.
- Mais l’inventeur ne devra pas compter sur cette hypothèse favorable et attendre la fortune en dormant ; rien ne remplacera un travail personnel et opiniâtre du titulaire du brevet qui devra forcer toutes les portes, ne pas se décourager devant l’incompréhension et démarcher systématiquement, voire harceler, toutes les entreprises susceptibles d’être intéressées par l’invention.
- La formule juridique la plus avantageuse pour l’inven-
- teur consistera à proposer la cession pure et simple du brevet contre versement d’une somme comptant et des redevances proportionnelles au chiffre d’affaires réalisé par l’acquéreur dans l’exploitation du brevet.
- La cession entraîne l’exonération totale d’impôts pour toutes les sommes perçues par l’inventeur à la suite de la vente du brevet ; le versement de redevances proportionnelles permettra à l’inventeur de participer aux développements ultérieurs de l’invention.
- L’inventeur peut encore donner licence de son brevet, mais dans ce cas, les redevances ne sont plus exonérées d’impôts, ou rapporter à une société, en recevant en contrepartie des parts sociales ou actions.
- Dans tous les cas, l’assistance d’un spécialiste (ingénieur-conseil en propriété industrielle) est indispensable. Il renseignera notamment l’inventeur sur la portée et la validité juridique du brevet eu égard aux antériorités qu’une recherche spéciale permettra de déceler. Il pourra donner des indications sur le prix que l’inventeur peut demander pour la cession de son brevet.
- *
- * *
- En toute circonstance, l’inventeur s’efforcera de conserver son calme et se gardera de la « fièvre des inventions » qui en cas d’échec le conduirait au délire du génie méconnu et persécuté. Il fera bien de se rappeler que s’il est facile d’obtenir des brevets avec de l’argent, il est beaucoup plus difficile d’obtenir de l’argent avec des brevets !
- Jean-Michel Wagret,
- Docteur en Science Politique Diplômé E.N.F.O.M.
- L’expansion démographique de la France
- L’Institut national de la Statistique et des Etudes économiques a publié, dans un de ses derniers bulletins mensuels, les chiffres qui caractérisent l’évolution de la population française de i960 à 1961.
- La première constatation est qu’en décembre dernier la France comptait environ 46 200 000 habitants, à la suite d’un accroissement de 289 859 en i960 et 338 500 en 1961. Comparant ces deux derniers chiffres, on doit souligner que la situation démographique est en nette amélioration, puisque, d’une année sur l’autre, l’excédent des naissances sur les décès s’est relevé de près de 50 000 unités.
- Un autre fait remarquable est que presque tous les départements ont participé à cette expansion. Seuls font exception l’Ariège et la Creuse, en perte, respectivement, de 89 et de 541 habitants. En i960, cinq départements étaient en déficit.
- Le progrès démographique appelle un certain nombre de commentaires :
- On pouvait d’abord s’attendre à une diminution très sensible du nombre des mariages, car la nuptialité s’étend progressivement aux jeunes générations nées après 1933, c’est-à-dire à une époque où la natalité était en nette dépression. Or le tassement attendu ne s’est pas produit : tout au contraire, les chiffres de 1959 et de i960 se situent autour de 320 000, contre un minimum de 293 450 en 1956. Une diminution s’est à vrai dire produite en 1961, avec un chiffre de 315 000, mais elle n’a pu évidemment avoir aucune influence sur la situation dans le cours de l’année.
- Du côté des naissances, l’année 1961 est en progrès sur l’année i960 :
- 835 000 contre 816000. Là aussi cet excédent de 2,3 pour 100 est inattendu, comme le fut d’ailleurs la progression presque constante depuis 1956. On estime que l’immigration a pu jouer un rôle mais il est incontestable que la fécondité (selon la terminologie des démographes) est d’une manière générale en voie d’amélioration.
- Dans l’autre plateau de la balance, les décès ont été exceptionnellement peu nombreux en 1961. Le chiffre d’environ 497 000 est à vrai dire presque équivalent à celui de 1958, mais il s’applique à une population plus nombreuse, si bien que le taux de mortalité (10,8 pour 1 000 habitants) est le plus bas qui ait été constaté jusqu’ici. Les progrès sont particulièrement marqués en ce qui concerne la mortalité infantile, qui s’amenuise d’ailleurs d’année en année, sans que la France pourtant ait atteint un taux aussi bas que certains autres pays.
- Comme nous l’avons déjà relevé à plusieurs reprises, la statistique des décès a été influencée, favorablement cette fois, par celle des affections grippales : le virus n’a fait que 2 339 victimes contre 11 722 en i960. Du même coup, les importantes rubriques des lésions vasculaires cérébrales, des maladies du cœur et des affections respiratoires sont en recul. La situation par contre s’est aggravée en ce qui concerne les tumeurs malignes, la cirrhose du foie, la syphilis et surtout les accidents (près de 2 000 décédés de plus qu’en i960).
- En regard d’un état sanitaire amélioré, la mort violente, sous ses différentes formes, figure pour 7,4 pour cent dans le chiffre global des décès. G. C.
- 311
- p.311 - vue 315/551
-
-
-
- L’ACTUALITE
- INSTRUMENTALE
- Nouveaux
- polarographes
- On connaît la place prépondérante occupée par la polaro-graphie en analyse chimique. Cette méthode, qui a valu récemment à son auteur, le professeur tchécoslovaque Heyrovsky, l’attribution du prix Nobel de Chimie, permet en effet de très nombreux dosages avec une précision qui peut atteindre x à 2 pour xoo pour des concentrations de io~3 à 10“1 molécule-gramme/litre. Dans les cas favorables, plusieurs éléments peuvent être déterminés simultanément. La rapidité des mesures est également un facteur important. Enfin, le seuil de sélectivité est de l’ordre de io~3 à IO-® molécule-gramme/litre. En micropolarographie, où l’on opère sur des volumes très petits avec un dispositif approprié (par exemple sur 0,01 ml), on peut descendre jusqu’à des quantités très faibles, par exemple 0,01 microgramme de zinc.
- Deux nouveaux polarographes viennent de faire leur apparition sur le marché français : le polarographe à inscription manuelle système Du Bellay, construit par A.O.I.P., appareil dont le principe est classique mais qui vient d’être rendu enregistreur; le polarographe manuel A 1650 de la Southern Analytical Limited, représenté en France par Promesur.
- Le polarographe A.O.I.P. comprend, rappelons-le, un dispositif de tension étalonnée variable, établi à partir d’une batterie d’accumulateurs. Cette tension est appliquée à la cellule d’électrolyse. Un galvanomètre, G, très sensible,
- Fig. 1. — Le polarographe A.O.I.P. avec son enregistreur au récent Salon de la Chimie.
- p.312 - vue 316/551
-
-
-
- mesure constamment le courant qui traverse la solution étudiée (fig. 2). Un chariot portant une glace de verre sur laquelle est fixée une feuille de papier calque se déplace sur deux rails et entraîne dans son mouvement le curseur du potentiomètre qui fixe la tension aux bornes de la
- SPOT LUMINEUX APPARAISSANT
- PAR UNE FENTE
- D'ENBESISTREMENT
- 6 V _10 A H
- Fig. 2. — Schéma de principe du polarographe A.O.I.P.
- cellule. Le spot lumineux du galvanomètre se déplace perpendiculairement à la translation du chariot. Sur le graphique, le spot a donc comme abscisse la tension et comme ordonnée l’intensité du courant qui traverse la solution. Il suffit de pointer au crayon les positions successives du spot pour tracer le polarogramme.
- Ce pointage manuel présente un grand intérêt pour les études de solutions en laboratoire car il permet de passer rapidement les parties horizontales ou non intéressantes du polarogramme. De plus il est possible de changer rapidement l’échelle des intensités en cours de tracé, ou de contrôler s’il est possible de tracer le polarogramme avec les échelles choisies. Toutefois, dans les laboratoires industriels, où le nombre d’analyses de routine est important, il est souhaitable de libérer le technicien de la servitude du tracé du polarogramme, sans perdre cependant la possibilité d’effectuer un test rapide sur une solution. C’est pourquoi l’A.O.I.P. a jugé intéressant de combiner les possibilités d’un appareil manuel avec celles d’un enregistreur.
- L’ensemble polarographe-enregistreur comporte trois parties : d’une part, le polarographe manuel que nous venons de décrire mais légèrement modifié par l’adjonction d’une prise et un câble de renvoi vers l’enregistreur, d’autre part un enregistreur galvanométrique comportant le même équipage galvanométrique que celui du polarographe manuel, ce qui permet d’utiliser les mêmes sensibilités dans l’utilisation manuelle et automatique. Enfin, un potentiomètre hélicoïdal multitours est entraîné par un moteur synchrone avec le déroulement du papier, ce qui permet de balayer l’échelle des tensions. Sur l’arbre du moteur sont fixées deux cames, l’une qui entraîne un dispositif marqueur permettant le repérage des tensions, l’autre qui actionne un moteur qui ramène le potentiomètre à zéro lorsque le balayage est terminé et qui arrête l’enregistrement.
- Il s’agit donc là d’un appareil très complet, utilisable soit pour des études fondamentales, soit pour des contrôles de routine. Signalons aussi que, sur les appareils déjà en service, une modification peut être faite de façon à pouvoir les utiliser avec l’enregistreur.
- Fig. 3- — Le polarographe Southern modèle A 1650.
- On distingue, de gauche à droite, le galvanomètre, la source de tensions calibrées et la cellule d’électrolyse.
- {Photo Ron Francis).
- Le polarographe Southern modèle A 1650 (fig. 3) est, lui, un appareil exclusivement manuel mais d’un fonctionnement sûr et d’un prix d’achat relativement peu élevé, de sorte que cet appareil devrait connaître un certain succès en France, par exemple dans les laboratoires d’enseignement.
- La tension est appliquée aux bornes de la cellule par valeurs discrètes de xo en 10 ou de 100 en 100 MV. L’Opérateur doit donc reporter sur un diagramme les valeurs de la tension appliquée, mais cette opération peut être très rapide avec un minimum d’entraînement. Par ailleurs, en contrôle, on peut aussi mesurer le courant pour deux tensions choisies à l’avance. L’étalonnage de la source de tension peut être effectué périodiquement par une méthode d’opposition en utilisant le galvanomètre comme indicateur. Le galvanomètre a une échelle de 140 mm et une sensibilité maximale de 100 mm pour 1 pA, ce qui permet des déterminations précises d’éléments à très faibles concentrations.
- R. R.
- 313
- p.313 - vue 317/551
-
-
-
- RAPY
- 0
- MULTIMJESUREUR E.R.I.C
- appareil universel à hautes performances pour laboratoires
- Galvanomètre de 165, classe 0,5. - Robustesse à toute épreuve des surcharges.
- MESURE :
- directement ou par adjonction d'organes de référence : e : 0,5 mV â 35 kV r : 20 £1 à 1012 fl
- i : 10-5 à 10-n a c : 10 pF à 10.000 pF
- q : 10 pico coulombs à 10 mC Fluctuations de tension : AV = 1 V/1.000 V Champs : depuis 1 œrsted
- Tensions : piézoélectriques; électro-statiques ; d'hystérésis, de corrosion, pH, rH.
- Intègre au sens mathématique du terme depuis 1 seconde à 60 minutes.
- Documentation et démonstrations sur demande
- Fournisseur de 1.900 laboratoires
- 9 français et étrangers
- [EMOUZr.
- FONDE EN 1915
- 63 RUE DE CHARENTON, PARIS 12‘ DID. 07-74
- ABSORPTIOMÈTRE
- (PHOTO-COLORIMÈTRE)
- “ SPEKKER-HILGER ”
- — Pour les dosages colorimétriques rapides et précis.
- — S'emploie également pour les mesures opacimé-
- triques et néphélométriques et, par l'adjonction d'un dispositif auxiliaire, pour la fluorimétrie.
- Éts F. C. DANNATT
- 198, Rue Saint-Jacques, PARIS 5e
- Monographies de Radiochimie
- Depuis quelques années, le sous-comité de Radiochimie de l’Académie des Sciences des Etats-Unis a entrepris la publication de monographies sur la radiochimie où tous les éléments de la classification qui possèdent des isotopes radioactifs sont systématiquement passés en revue. Destinés au premier chef aux radiochimistes, ces ouvrages sont en réalité beaucoup plus généraux et s’adressent à tous les chimistes. On y trouve en effet, outre des renseignements spécialisés comme les tables des isotopes radioactifs et la description détaillée des méthodes de séparation et de comptage, l’essentiel de nos connaissances sur la chimie en solution des différents éléments. C’est ainsi que chaque ouvrage comprend des renseignements très complets sur les composés peu solubles, les complexes, l’extraction par solvant, le comportement sur les résines échangeurs d’ions, les valeurs des Rf en chromatographie de partage sur papier, etc. La bibliographie est bien à jour, tout au moins en ce qui concerne les travaux anglo-saxons, car parfois des études françaises intéressantes ont été omises, mais c’est là un défaut assez général des publications américaines. Excellents ouvrages donc, qui permettent, à l’occasion de chaque élément, de trouver rapidement ses principales propriétés en solution.
- Nous donnons ci-dessous la liste des ouvrages de cette collection reçus à ce jour :
- The radiochemistry of barium, calcium and strontium, par D. N. Sunder-man et C. W. Townley (1,25 $); Zirconium and hafnium, par Ellis P. Steinberg (0,50 $); Indium, par D. N. Sunderman et C. W. Townley (0,50 $); Béryllium, par A. W. Fairhall (0,75 $); Zinc, par Elarry G. Hichs (0,75 $); Protactinium, par H. W. Kirby (i S); Iran, par J. M. Nielsen (0,50 $); Manganèse, par G. W. Leddicotte (0,50 S); Rare earths, scandium, yttrium and actinium, par P. C. Stevenson et W. E. Nervik (3 S); Technetium, par Edward Anders (0,50 $); Tin, par W. E. Nervik (0,75 S) ; Rare ga se s, par Floyd F. Momyer (0,75 S); Magnésium, par A. W. Fairhall (0,50 $); Copper, par F. F. Dyer
- et G. W. Leddicotte (0,75 $); Rhénium, par G. W. Leddicotte (0,50 S) ; Mercury, par J. Roesmer et P. Kruger (0,50 $); Vanadium, par J, L. Brownlee Jr (0,75 $); Ruthénium, par E. I. Wyatt et R. R. Richard (i $); Aluminium and gallium, par John E. Lewis (0,50 $); Antimony, par William J. Maech (0,50 $); Titanium, par Chong Kuk Kim (0,50 S); Césium, par H. L. Finston et M. T. Kinsley (0,75 $); Sélénium, par G. W. Leddicotte (0,50 $); Transcurium éléments, par G. H. Higgins (0,50 $); Gold, par J. F. Emery et G. W. Leddicotte (0,50 $); Polonium, par P. E. Figgins (0,75 S); Tellurium, par G. W. Leddicotte (0,50 $); Niobium, par Ellis P. Steinberg (0,75 $); Lead, par W. M. Gibson (1,75 $); Cobalt, par L. C. Bâte et G. W. Leddicotte (i $); Germanium, par Jacob A. Marinsky (0,50 S); Platinium, par G. W. Leddicotte (0,50 $); Tungsten, par W. T. Mul-lins et G. W. Leddicotte (0,50 $); Iridium, par G. W. Leddicotte (0,50 $); Cadmium, par James R. De Voe (0,75 $); Arsenic, par Harold C. Beard (0,50 $) ; Francium, par Earl K. Hyde (0,50 S) ; Thorium, par E. K. Hyde (0,75 $); Chromium, par J. Pijck (0,50 $); Fluorine, chlorine, bromine and iodine, par Jacob Kleinberg et G. A. Cowan (0,50 $); Molybdenium, par E. M. Scadden et N. E. Ballou (0,50 $); Rhodium, par G. R. Choppin (0,50 $); Américium and curium, par R. A. Penneman et T. K. Keenan (0,75 $); Osmium, par G. W. Leddicotte (0,50 $) ; Silver, par D. N. Sunderman et C. W. Lownley (0,75 $); Potassium, par W. T. Mullins et G. W. Leddicotte (0,50 $); Silicon, par W. T. Mullins et G. W. Leddicotte (0,50 $) ; Nickel, par L. J. Kirby (0,50 S); Rubidium, par G. W. Leddicotte (0,50 $) ; Sttlfur, par G. W. Leddicotte (0,50 $) ; Sodium, par W. T. Mullins et G. W. Leddicotte (0,50 $) ; Phosphorus, par W. T. Mullins et G. W. Leddicotte (0.50 $).
- Le format de tous ces ouvrages est de 17,5 x 24,5 cm. On peut se les procurer en s’adressant à : Office of Technical Services, Department of Commerce, Washington 25, D.C., U.S.A.
- p.314 - vue 318/551
-
-
-
- Les filtres de laboratoire « Millipore »
- Depuis quelques mois, on trouve sur le marché français des filtres d’un type nouveau, mis au point il y a quelques années aux Etats-Unis et qui sont véritablement susceptibles de révolutionner les techniques de filtration au laboratoire ou même dans l’industrie.
- Ils sont constitués d’une membrane de faible épaisseur (150 microns environ), traversée par des millions de petits canaux d’une surface à l’autre (fig. 4). Un procédé de fabrication spéciale permet d’avoir des pores de diamètres
- Volume des pores: 80%
- Partie solide ’ 20 %
- Fig. 4- — Vue schématique d’un filtre « Millipore ».
- Tableau I. — Caractéristiques des filtres Millipore.
- Type Porosité Précision Perméabilité (L) Applications
- Eau Air
- VF ( ! 10 mp ± 2 mp 1,1 100
- VM j 1 5° mp ± 3 mP 2,7 200 Virus
- VC 1 100 mp ± 8 mp 3,6 600
- PH 1 , o,3°p ± 0,02 p 40 4 200
- HA 1 0,45 p ± 0,02 p 72 9 600 Bactéries
- DA ! 0,65 P ± 0,03 p 280 28 000
- AA i 0,80 p ± 0,05 p 330 33 000 Gaz
- RA | 1,2 p ± °,3p 375 38 000 Radioactivité
- SS | 3,0 p ± °,9 p 450 45 000 Calibrage
- SM 1 5,° P ± 1,2 p 560 70 000 de particules
- i. En ml/mn/cm2 à z 50 C et 70 cm Hg.
- extrêmement voisins. Par exemple, pour une porosité de 0,45 micron, l’imprécision n’est que de ± 0,02 micron, soit 4 pour 100 au plus (fig. 5). Il existe 10 porosités différentes allant de 10 millimicrons (dimensions approximatives du virus de la poliomyélite) à 5 microns (dimensions de la plupart des corps en suspension dans les liquides).
- Fig. /. — Courbe de distribution des pores.
- Les pores étant d’une grande précision, la courbe de répartition de leurs dimensions est une courbe de Gauss particulièrement étroite.
- 0.35 0.40 0,45 0.50
- Diamètres des pores en p.
- Une des caractéristiques essentielles des membranes Millipore est la rétention à leur surface de toutes les particules qui ne peuvent traverser les pores : particules microscopiques et semi-microscopiques sont nettement séparées des fluides qui traversent la membrane. Les particules retenues à la surface sont alors facilement récupérables pour être examinées ultérieurement.
- Les pores représentent 80 à 85 pour 100 du volume des membranes. On obtient, de ce fait, une perméabilité très poussée aux gaz et aux liquides qui ne se trouvent pratiquement pas freinés. Par exemple, pour le filtre de porosité 0,45 micron, cette perméabilité est de 72 ml/mn/cm2 à 250 C et sous 70 cm de mercure pour l’eau pure.
- Les cendres résiduelles sont très faibles. A 8oo° C on obtient, pour une membrane de 47 mm de diamètre, moins de 0,0001 g de cendres. Cette propriété est évidemment
- très intéressante pour la détermination de substances minérales non combustibles.
- Ces filtres deviennent complètement transparents si l’on dépose quelques gouttes d’huile à immersion d’indice de réfraction 1,515. De ce fait on peut très facilement observer au microscope les résidus retenus.
- La résistance chimique est bonne, les membranes Millipore ayant les mêmes propriétés que les esters de cellulose. Elles ne sont donc pas attaquées par les acides et les hases diluées, les hydrocarbures, etc. Par contre, les cétones, les esters, les nitroparaffines dissolvent les membranes.
- Les applications de ces filtres sont extrêmement nombreuses. Par exemple, en cytologie, on peut, après filtration des liquides d’origine biologique, colorer les résidus directement sur la membrane. L’examen au microscope est alors très facile. Ces filtres sont aussi très utilisés en chimie, soit pour l’analyse gravimétrique, soit pour la rétention totale des particules colloïdales et des précipités et l’analyse ultérieure au microscope ou par diffraction des rayons X, soit encore en radiochimie en raison de l’absorption négligeable des faibles énergies alpha et bêta et aussi à cause de la finesse du filtre et de sa surface parfaitement plane qui produit des géométries uniformes.
- Enfin les filtres Millipore ouvrent de nouveaux débouchés à la filtration industrielle des liquides pour lesquels les exigences de pureté sont particulièrement grandes ou des liquides de rinçage d’ensembles mécaniques qui demandent un degré de propreté poussé.
- R. R.
- Ultramicrotome
- Selon une information de l’agence de presse soviétique Novoski, des chercheurs de l’Institut de Chimie organique de Moscou viennent de mettre au point un ultramicrotome permettant de réaliser des coupes dont l’épaisseur minimale atteint 50 angstrœms soit cinq millionièmes de millimètre. L’appareil, baptisé UMD-5, permet de pratiquer des coupes dans des matériaux divers : plantes, tissus, matières plastiques, catalyseurs et même minerais. Peu sensible aux vibrations, il aurait un fonctionnement très stable et serait entièrement automatisé. (Service F information soviétique).
- 315
- p.315 - vue 319/551
-
-
-
- La plus petite unité biologique autonome
- Jusqu’où peut descendre, dans l’échelle des dimensions, une cellule apte à une vie autonome ? C’est ce problème que se sont efforcés de résoudre H. J. Morowitz et M. E. Tourtelotte, dans une étude publiée en mars 1962 par la revue Scientific American.
- L’idée de cette étude a été inspirée aux deux biologistes par un microbe dont Pasteur avait pressenti l’existence et qui détermine, surtout chez le bétail (volailles, porcs, moutons), une affection de l’appareil respiratoire désignée sous le nom de pleuropneumonie. Cet agent infectieux était, comme les virus, indécelable au temps du microscope optique et ne pouvait pas davantage être retenu par les filtres de porcelaine. Par la suite, différents bactériologistes ont cependant réussi à cultiver ce minuscule organisme sur des bouillons de matières nutritives. Ceci démontrait que, tout en étant plus petit que certains virus, il pouvait se développer et se reproduire de manière autonome, sans la présence d’une matière vivante dont il eût été le parasite.
- Finalement, plusieurs souches ont pu être identifiées et l’on a même reconnu que l’une d’elles détermine chez l’homme un type assez courant de pneumonie. Elles sont désormais classées sous le nom de Mycoplasmatales qui constituent un ordre distinct. On les désigne également, aux Etats-Unis, par le sigle PPLO qui évoque leur apparentement avec les microbes autrefois indéterminés de la pleuropneumonie.
- Les dimensions des PPLO sont très variables. Il en existe même qui excèdent la taille de certaines autres bactéries. Mais les plus petites, observées au microscope électronique, ne dépassent pas un diamètre de 0,1 micron. A titre de comparaison, une bactérie moyenne mesure un micron de diamètre. La PPLO est donc le dixième d’une bactérie et, pour préciser l’échelle, elle est le centième d’une cellule de mammifère et le millième d’un protozoaire tel que l’amibe. Si l’on se réfère à la masse au lieu du diamètre, on s’aperçoit que la PPLO est le milliardième de l’amibe ! Envisageant, sous un autre aspect, le problème de la dimension, Morowitz et Tourtelotte remarquent que la cellule PPLO se rapproche de l’ordre de grandeur de l’atome, le diamètre de l’atome d’hydrogène (1 angs-trœm) étant seulement mille fois plus petit que celui de cette cellule.
- Est-il possible, sur de telles données dimensionnelles, que cette cellule possède un matériel moléculaire apte à assurer les processus biochimiques qui ont cours dans des unités plus « étoffées » ? L’analyse chimique opérée sur un de ces minuscules microorganismes, Mjcoplasma gallisepticum, a révélé, dans la matière sèche, une teneur de 4 pour 100 en acide désoxyribonucléique et de 8 pour 100 en acide ribonucléique. Par ailleurs, une enveloppe membraneuse existe dont l’épaisseur a été évaluée à 0,01 micron. Enfin les études dont M. gallisepticum a été l’objet ont mis en évidence une quarantaine de fonctions enzymatiques, parmi lesquelles le système qui permet de métaboliser le glucose en acide pyruvique.
- Bref, cette petite cellule est un organisme complexe, normalement équipé pour une vie autonome. Elle est actuellement la plus petite unité connue qui remplisse ces
- conditions, mais il n’est pas prouvé qu’il n’en existe pas d’encore plus infimes. Et les deux biologistes ont eu l’idée de supputer les chances de telles cellules et de fixer la limite au delà de laquelle elles ne pourraient descendre. Tenant compte de la nécessité d’une membrane protectrice et du matériel indispensable à l’entretien des réactions catalysées par des enzymes, ils accorderaient à la cellule une dimension minimale de 0,04 micron. Mais un autre facteur intervient qui est l’agitation moléculaire, créatrice de chaleur, qui, à pareille échelle, risquerait de disloquer le structure cellulaire : cette considération oblige à ramener la limite inférieure à 0,05 micron.
- Voici quelles seraient, statistiquement imaginées, les caractéristiques de la cellule minimale théorique : sa substance sèche serait formée de 1,5 millions d’atomes qui se combineraient par groupes de 20 pour former des acides aminés et des nucléotides, au nombre de 75 000. Ces matériaux se trouveraient incorporés, à raison de 500, dans les grandes molécules qui constituent l’appareil du métabolisme et de la reproduction. Le nombre de ces grandes molécules se trouverait finalement réduit à 150.
- Ce matériel serait le huitième de celui que possède la plus petite cellule PPLO, où, rappelons-le, les deux biologistes n’ont détecté qu’une quarantaine de réactions enzymatiques. En admettant que certaines leur aient échappé ils doutent que le chiffre puisse atteindre la centaine. Or tel est le minimum généralement admis pour l’activité biochimique d’une unité vivante autonome.
- La conclusion, prudemment esquissée, est que les cellules les plus petites théoriquement possibles seraient peut-être simplifiées à l’extrême et capables, en conséquence, d’entretenir la vie selon des normes différentes de celles qui constituent les fondements actuels de la biologie.
- G. C.
- La «thermie» reste légale
- Dans notre article « Essor et changements profonds de l’industrie du gaz en France» (mars 1962) notre rédacteur écrivait (p. 219, ire colonne) : « ... Ces statistiques ne s’expriment plus en mètres cubes mais en thermies, unité qui est égale à 1 000 grandes calories. Notons que cette unité n’aura qu’une vie brève, devant être remplacée (en vertu du décret du 9 mai 1961) par le watt». A ce sujet, M. Sens, ingénieur E.C.P., chef du service Exploitation de la Société nationale des Gaz du Sud-Ouest, nous envoie les précisions suivantes, dont nous le remercions :
- « Cette affirmation inexacte à plusieurs titres risque d’apporter le trouble dans l’esprit des lecteurs peu au courant des questions d’unités, et de faire mal juger le décret n° 61-501 du 3 (et non du 9) mai 1961 rendant obligatoire le système métrique international S.I.
- « Une quantité de chaleur est une énergie, dont l’unité dans le système S.I. est le joule. Le watt, qui vaut 1 joule par seconde, est l’unité de puissance.
- « Le décret autorise l’emploi d’unités hors système : pour la quantité de chaleur, la calorie qui équivaut expérimentalement à 4,1855 joules, et la thermie ou mégacalorie qui vaut 4,1855 X 10“ joules; le watt-heure (3 600 joules) est également autorisé.
- « La thermie est donc une unité dont l’emploi est légal en France ».
- 316
- p.316 - vue 320/551
-
-
-
- Le Ciel en août 1962
- SOLEIL : du Ier août au ier septembre (à oh) sa déclinaison décroît de + i8°i2' à -j- 8°32' et la durée du jour de ^hjm à i3h27m; diamètre app. le Ier (à oh) = 3i'34",o, le 31 (à 24h) == 3 i'44",8. — LUNE : Phases : P. Q. le 8 à I5h55m, P. L. le 15 à 2ohiom, D. Q. le 22 à ioh27m, N. L. le 30 à jhci™; apogée le 5 à 6h, diamètre app. zc)'zc)"; périgée le 17 à 8h, diamètre app. 3 3'9Principales conjonctions : avec Uranus le 2 à 6h, à ion' N; avec Vénus le 4 à 8h, à 3°45'N; avec Neptune le 8 à 4b, à 3°42' N; avec Saturne le 14 à xgh, à o°54' N; avec Jupiter le 16 à 23^ à i°24' S; avec Mars le 24 à 22b, à 3°22/ S; avec Uranus le 29 à 16A, à i°i9' N. Principales occultations : le 9, de 49 Balance (mag. 5,5), immersion à 2ih22m,9; le 22, de 5 Taureau (mag. 4,3), émersion à 0*15™,1; le 23 de 75 Taureau (mag. 5,3), émersion à ihnm,6 et de 264 j3 Taureau (mag. 4,8), émersion à ih4om,i. — PLANÈTES : Mercure, noyée dans les brumes crépusculaires, n’est pas visible; Vénus, belle étoile du soir, se couche le 17 à 2oh25m, soit ih23m après le Soleil; Mars, dans le Taureau, puis les Gémeaux, est observable toute la seconde partie de la nuit; Jupiter, dans le Verseau, astre magnifique apparaissant dès la tombée de la nuit, le 16, diamètre pol. app. 45"7 et mag. — 2,4; Saturne, dans le Capricorne, est encore visible la majeure partie de la nuit, le 16, diamètre pol. app. i6"6, axes de l’anneau : 41",8 et + 13",6, mag. 0,4; Uranus est inobservable; Neptune, à l’ouest de jx Balance, peut encore se rechercher après le crépuscule. —ÉTOILES VARIABLES :
- minima observables Algol (zm,z-^m,^) le 3 à 3b,8, le 6 à oh57, le 8 à 2ih,5 ; minima de (3 Lyre (3m,4-4m,3) le 3 à 3b,6, le 16 à 2h,o, le 29 à oh,3; maxima de rt Aigle (3m,7-4m,4) le 2 à 3b,j, le 9 à 7A3, le 16 à 1 ih,6, le 23 à 15b,8, le 30 à 2oh,i, maxima de 6 Céphée (3m,7-4m,6) le 2 à ih,7, le 7 à ioh,5, le 12 à 19^3, le 18 à 4b,!, le 23 à 12^9, le 28 à 2ih7. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.), le Ier : 2oh45™5os, le 11 : 2ih25mi5s, le 21 : 22h4II14is, le 31 : 22h44m7s.
- Phénomènes intéressants : Surveiller la surface tachée du Soleil. — Du 24 au 28, lumière cendrée de la Lune, le matin. — Le 15, éclipse de Lune par la pénombre, en partie visible en France, commencement à i8hi8m,o, milieu à i9Ù57mjO, fin à zi^6m,o, grandeur : 0,596; à Paris, lever de la Lune à i9hiom. — Les deux grosses planètes Jupiter et Saturne sont bien placées pour l’observation à l’œil nu et dans une petite lunette, on remarquera que les anneaux de la seconde se referment peu à peu. — Du Ier au 17, étoiles filantes : Perséides (radiant : r) Persée), maximum le 12, très bel essaim, le plus riche de l’année. — Par les soirées sans lune, observer la Voie lactée dans la région où elle est la plus intense: Scorpion, Ophiuchus, Sagittaire, Ecu, Flèche, Renard, Cygne, Cassiopée.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- LES LIVRES N O U V
- AUX
- Répertoire des laboratoires scientifiques. 1 vol. 15,5 X 23,5, 578 p. Services d’édition et de vente des publications de l’Education nationale (13, rue du Four, Paris, 6e), 1961.
- Deuxième édition mise à jour et complétée. L’ouvrage mentionne tous les laboratoires français ainsi que les laboratoires internationaux (C.E.R.N., Euratom) auxquels la France participe. Pour chaque laboratoire, indication des disciplines, personnel scientifique, travaux récents, matériel, nombre de chercheurs admis. Trois index alphabétiques : abrégé des cadres scientifiques (on le souhaiterait plus complet), résumé des matières, résumé des équipements.
- Dictionnaire des racines scientifiques, par
- A. Cailleux et J. Komorn. i vol. 15 X 21, 246 p. Société d’Edition d’Enseignement Supérieur, Paris, 1961. Prix: 24 NF.
- Le but de ce dictionnaire est d’éclairer le lecteur de textes scientifiques auquel il arrive souvent de ne pas comprendre la signification d’un mot, lorsque celui-ci est composé d’éléments empruntés à des langues étrangères (anciennes ou modernes). Cela est d’un intérêt évident, mais il eût été souhaitable, en plusieurs cas, que les différents sens d’un mot soient détaillés, comme il est d’usage dans les dictionnaires philologiques.
- Annuaire astronomique et météorologique Camille Flammarion, publié par l’Observatoire de Juvisy. 1 vol. 12,5 X 18,5, 412 p., nombr. fig. Flammarion, Paris, 1962. Prix: 18 NF.
- 98e année du célèbre annuaire, principalement destiné à guider les observations des amateurs. U comprend cette année : les calendriers, le Soleil, les planètes, la Terre, la Lune, comètes et météores, étoiles et nébuleuses, radioastronomie, le ciel étoilé, et quelques sujets de physique du globe et météorologie.
- Atlas of the Universe, par B. R. Ernst et T. J. de Vries. Traduit par D. R. Welsh et édité par H. E. Butler, i vol. 19 X 27, 227 p., nombr. illustr. Thomas Nelson and Sons Ltd, Edimbourg, 1961. Prix, relié: 42 sh.
- Avec la multiplication des observatoires, les perfectionnements des télescopes optiques et la puissance accrue des radiotélescopes, l’apparition des fusées, des satellites artificiels, des sondes interplanétaires, l’astronomie réalise et se promet encore des progrès rapides, qui provoquent un renouveau des théories. Les auteurs présentent au profane les nouvelles connaissances dans leur contexte. Dans une ire partie, des photographies et des diagrammes très bien conçus passent en revue les principaux aspects de l’univers ; les légendes sont fort bien faites. Dans la 2e partie on trouvera, sous forme d’encyclopédie, des détails complémentaires et la définition de nombreux termes utilisés en astronomie. Un livre utile et agréable.
- Science in Space, par Lloyd V. Berkner et Hugh Odxshaw. i vol. 15,5 X 23,5, x-458 p., illustr. McGraw-Hill Book Company, New York, Toronto et Londres, 1961. Prix, relié : 54 sh 6 d.
- Les deux rédacteurs de cet ouvrage dirigent la
- ------ A NOS LECTEURS --------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- est à la disposition des lecteurs de LA NATURE - SCIENCE PROGRÈS pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- Commission des sciences spatiales de 1 Académie des Sciences américaine et les divers collaborateurs ont tous pris une part active aux travaux qu’ils décrivent quand ils ne les ont pas dirigés. On découvre la richesse et la diversité des recherches rendues possibles par les satellites artificiels, les sondes spatiales et les fusées. Tout d’abord, les observations astronomiques, à partir d’un satellite, sont libérées des contingences qu’impose normalement la présence de l’atmosphère terrestre, qui ne laisse que deux étroites « fenêtres » dans le spectre des radiations. Les observations effectuées au-dessus de l’atmosphère dans des régions du spectre jusqu’alors interdites ont apporté une multitude d’informations sur la structure de l’univers et des astres. D’un autre côté, en observant la Terre de loin on peut, aussi paradoxal que cela puisse paraître, obtenir des renseignements sur sa structure. On commence ainsi à mieux connaître les interactions Terre-Soleil et en particulier le rôle joué par les éruptions solaires. L’analyse détaillée des orbites donne des renseignements sur la forme du géoïde et par là sur sa structure interne. L’ouvrage résume tout ce qui a été fait jusqu’à la fin de i960; on y trouvera une analyse générale des résultats obtenus et des études particulières sur la nature de la gravitation, la météorologie, la haute atmosphère, les radiations, les champs dans l’espace entre la Terre et le Soleil, etc. Tout ceci est très accessible quoique très détaillé. Un passionnant ouvrage de haute vulgarisation.
- Théorie des asservissements par plus-ou-moins, par Ja. Z. Cyprin. Traduit du russe par J. Guil-leminet et M. Odinetz. i vol. 16 X 25, 408 p., 246 fig., Dunod, Paris, 1961. Prix, relié : 78 NF.
- En raison de leur simplicité et, souvent, de leurs excellentes caractéristiques dynamiques, les systèmes d’asservissements par plus-ou-moins (ou encore par tout-ou-rien) sont largement employés dans de nombreux domaines. L’auteur est un maître en la matière et on doit se féliciter de cette traduction qui permettra au lecteur français de mieux connaître les méthodes et les manières de penser des savants soviétiques. Après deux chapitres d’introduction permettant de définir les asservissements par tout-ou-rien, d’en donner une classification et d’établir leurs équations de base, l’au-
- 317
- p.317 - vue 321/551
-
-
-
- teur étudie le calcul des régimes transitoires. Il développe ensuite la stabilité de l’état d’équilibre et en vient à la partie maîtresse de son œuvre, consacrée à un examen approfondi des auto-oscillations et oscillations forcées. Les deux derniers chapitres traitent de la linéarisation et de l’optimisation des systèmes. Nombreux éxemplés. Abondante bibliographie.
- Physical Gas Dynamics, par A. S. Predvodi-telev. Traduit du russe par R. C. Murray et D. R. H. Philips, i vol. 16 x 25, 183 p., fig. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1961. Prix, relié : 50 sh.
- Compte rendu d’une très intéressante conférence de l’Académie des Sciences de l’U.R.S.S. sur les propriétés des gaz à très haute température. On y trouvera entre autres les méthodes de calcul des ondes de choc planes compte tenu de la dissociation et de l’ionisation. Les décharges électriques dans l’eau sont aussi étudiées du point de vue de leurs effets hydrodynamiques.
- Applications thermiques de l’énergie solaire dans le domaine de la recherche et de l’industrie. 1 vol. 16 X 24,5, 738 p., nombr. fig. Editions du C.N.R.S., Paris, 1961. Prix, relié toile : 6 5 NF.
- Cinquante communications au Colloque international sur les applications de l’énergie solaire, tenu à Montlouis en juin 1958. Elles se groupent dans les rubriques suivantes : description des fours solaires existants et examen de certaines de leurs particularités; mesures des hautes températures obtenues par ces fours; expériences faites au four solaire et comportant notamment le traitement de produits réfractaires, l’attaque de minerais; étude des réfrigérateurs solaires, du chauffage domestique et de la climatisation; production d’énergie électrique; moteurs solaires, etc.
- Microwave antennas, par A. Z. Fradin. Traduit du russe par Morton Nadler. Traduction éditée par R. C. Glass. i vol. 14 X 22,5, xii-668 p., fig. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1961. Prix, relié toile: 125 sh.
- Ouvrage très complet et très à jour. On y trouvera une discussion générale du problème, un traitement poussé des problèmes de diffraction et une étude détaillée de divers types d’antennes. La bibliographie fait naturellement une très large place aux travaux soviétiques.
- Theory of Microwave valves, par S. D. Gwoz-dover, Traduit du russe par Walter P. A. Hass, édité par R. C. Glass. i vol. 16 X 24,5, 499 p., 113 fig. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1961. Prix, relié; 80 sh.
- On trouvera dans cet ouvrage une théorie assez complète des tubes hyperfréquence : diode, klystron, magnétron et tubes à ondes progressives. Les chapitres consacrés aux différents types de tubes sont précédés d’un exposé solide de la théorie
- électromagnétique des cavités résonnantes. Ouvrage de niveau élevé.
- Nouveau traité de Chimie minérale, publié sous la direction de Paul Pascal, membre de l’Institut, professeur honoraire à la Sorbonne. Tome XV : Uranium et transuraniens, avec la collaboration des ingénieurs du Commissariat à l’Energie atomique. Deuxième fascicule : Combinaisons de l’uranium, sous la direction de R. Caillat et J. Elston, avec la collaboration de Mme Oxley, MM. R. Delmas, J. Dubuisson, F. Duhamel, Mme Gardenne, MM. J. Huré, C. Moranville, P. Perio, J. Petit, A. Rag-genbass. 1 vol. 17,5 X 25,5, 640 p., 153 fig., 174 tableaux. Masson, Paris, 1961. Prix, broehé : 110 NF; cartonné toile: 122 NF.
- Consacré tout entier à l’étude de l’uranium et des transuraniens, le tome XV du Nouveau Traité a dû être scindé en trois fascicules. Le premier, paru en i960, étudiait l’uranium en tant qu’élément avec ses isotopes, et en tant que métal avec ses alliages; il développait aussi l’étude ionique de l’uranium (états de valence, oxydoréduction, hydrolyse, photolyse, complexes, dosage). Le deuxième fascicule est presque tout entier consacré à la systématique des combinaisons salines ou non salines ainsi qu’aux complexes et dérivés organiques. Il rassemble beaucoup de données thermodynamiques intéressant la séparation des isotopes. La totalité des constantes physiques intéressant la physicochimie des dérivés de l’uranium ont été classées. Un chapitre enfin traite de l’utilisation des composés de l’uranium comme combustibles nucléaires. Vaste bibliographie par chapitre. Le troisième fascicule traitera des réactions nucléaires et de la fission et décrira en détail les modes de séparation et les propriétés physiques et chimiques de tous les transuraniens obtenus à ce jour.
- Congress of analytical Chemistry, Budapest. 3 vol. 17,3 X 25, 1 308 p., nombr. fig. Kultura, Budapest, 1961.
- On trouvera ici 148 des 250 conférences du Congrès de Chimie analytique tenu à Budapest en 1961, sur : problèmes théoriques fondamentaux, emploi analytique des isotopes, chimie des complexes, analyse organique, méthodes électro-chimiques, polarographie, chromatographie, méthodes optiques, spectroscopie d’émission, photométrie de flamme, analyse appliquée. Exposés en allemand, anglais et français, un en russe.
- Dosages colorimétriques des éléments minéraux. Principes et méthodes, par G. Charlot. 2e édition entièrement refondue. 1 vol. 16,5 X 24,5, 380 p., 72 fig. Masson, Paris, 1961. Prix, broché : 45 NF.
- Utilisées autrefois presque uniquement pour le dosage des traces, car leur précision était médiocre, les méthodes de dosage colorimétrique connaissent actuellement un développement considérable, les perfectionnements apportés aux appareils permettant d’atteindre souvent une excellente précision.
- La ire partie de l’ouvrage traite des principes de la colorimétrie. D’importants chapitres sont consacrés aux appareils, aux méthodes analogues comme la fluorimétrie, la turbidimétrie, l’hétérométrie, etc. Les méthodes de séparation sont ensuite étudiées en détail : extraction, échangeurs d’ions, électro-lyse. Dans la 2e partie sont décrits les dosages des divers éléments. Un grand nombre de ces méthodes ont été choisies au laboratoire de l’auteur. Bibliographie sélectionnée pour chaque élément. •— R.R.
- Tantalium and Niobium, par G.L. Miller, i vol. 14,5 x 22, xxn-767 p., nombr. illustr. Butterworths Scientific Publications, Londres, 1959. Prix, relié : 120 sh.
- Il s’agit de deux éléments qui existent à faible teneur dans les mêmes minerais et qui, présentant des propriétés très voisines, sont très difficiles à séparer. Cette séparation est exposée dans cette excellente mise au point, ainsi que la préparation des deux métaux, l’examen de leurs propriétés physiques et chimiques, les divers alliages auxquels ils donnent naissance, avec leurs nombreuses applications qui en font des matériaux indispensables dans certains secteurs industriels. Ces métaux entrent dans la préparation d’aciers spéciaux, résistants aux hautes températures, et dans celle de carbures durs, pour les outils de coupe rapide; le tantale pur trouve des débouchés comme matériau de l’industrie chimique, comme métal d’alliages non ferreux, en chirurgie, dans l’art dentaire, en électronique, etc., tandis que les emplois du niobium doivent se développer avec l’extension de l’énergie nucléaire.
- Initiation à la Chimie physique, par H. R. Kruyt et J. Th. Overbeek. Traduit du hollandais par Mme Van Oss-Ambard. i vol. 14 X 22, 236 p., 80 fig. Masson et Cie, Paris, 1961. Prix, cartonné : 25 NF.
- Ce livre étant surtout destiné au biologiste, près de la moitié en est consacrée aux phénomènes colloïdaux dont on connaît l’importance en biologie. Toutefois, les auteurs ont voulu traiter aussi les notions de vitesse de réaction, d’équilibre, de catalyse, l’électrochimie, etc. L’intérêt de ces questions en ce qui concerne la chimie colloïdale étant contestable, il en résulte un ouvrage assez inégal.
- Actions chimiques et biologiques des radiations ( The Chemical and biological action of radiations), sous la direction et avec une préface de M. Haissinsky. 5e série. 1 vol. 16,5 X 24,5, 282 p., 68 fig., tableaux. Masson, Paris (Academie Press, Londres), 1961. Prix, cart. toile: 42 NF.
- Cette 5e série de mémoires comprend : Mecha-nism of the radiolysis of water by gamma rays or électrons (A.O. Allen); Action des rayons alpha sur les solutions aqueuses (J. Pucheault); Diffusion kinetics in radiation chemistry (A. Kuppermann); Mass spectrometry and radiation chemistry (D.P. Stevenson and D.O. Schissler). On a donc ici une description et une analyse critiques de
- LE NUAGE NOIR
- ROMAN SCIENTIFIQUE
- PAR F. HOYLE
- TRADUIT DE L’AMÉRICAIN PAR J. QUÉVAL
- Le premier ouvrage d’imagination écrit par un astronome célèbre. L’histoire angoissante d’un nuage que sa trajectoire risque d’interposer entre la terre et le soleil, provoquant ainsi des dommages incalculables. Imagination ! certes, mais qui peut savoir si demain... •
- 236 pages 15x22, avec 7 figures. 1962. Broché sous couverture illustrée.... 14 NF
- En vente dans toutes les bonnes librairies et chez
- IÏXT1NJC313 Éditeur, 92, rue Bonaparte, PARIS-6e — DAN. 99-15 — C.C.P. Paris 75-45
- p.318 - vue 322/551
-
-
-
- plusieurs problèmes fondamentaux intéressant, tant les mécanismes intimes de la radiolyse des solutions aqueuses, que les phénomènes primaires de production des ions, des radicaux libres, de leur diffusion, recombinaisons et réactions avec les molécules présentes, soit en solution, soit à l’état gazeux. Les processus de production d’ions par les électrons dans un spectromètre de masse sont aussi discutés.
- On growth and form, par Sir d’Arcy Thompson. Edition abrégée présentée par J.T. Bonner. i vol. 14,5 X 22, xiv-346 p., 181 fig., 2 planches hors texte. Cambridge University Press, Londres, 1961. Prix, relié : 32 sh 6 d.
- C’est en 1917 que d’Arcy Thompson fit paraître son étude sur la croissance et les formes. Elle réunissait d’innombrables observations de la géométrie physique et biologique qui apparaît aussi bien dans les bulles de savon que dans les toiles d’araignées, les coquillages, et une foule d’autres formes de la nature. Cette patiente investigation, non dépourvue d’une sorte d’inspiration poétique et esthétique, a eu à l’époque un grand retentissement. Les biologistes pourront lire avec profit le résumé qu’en présente J.T. Bonner, après une remise à jour qui tient compte des plus récentes découvertes scientifiques.
- Manipulations de Botanique, par L. Genevès, maître de conférences à la Sorbonne. Préface de L. Plantefol, de l’Institut. 1 vol. 15 X 24, 442 p., 128 fig., 4 microphotos hors-texte. Dunod, Paris, 1961. Prix: 28 NF.
- Ce livre, destiné aux étudiants de la licence et aux assistants chargés de diriger les travaux pratiques, répond à un besoin incontestable. Pour les premiers il pourra remplacer la conférence de travaux pratiques qu’on est amené à supprimer devant l’afflux des élèves; ils y trouveront des indications complètes sur le matériel et sur son utilisation, et un exposé très clair des manipulations qu’ils auront à effectuer et de leurs résultats. Pour les seconds, que la multiplication des certificats aura empêchés de se spécialiser déjà à un niveau suffisant, il sera un guide indispensable. On trouvera ici réunies des manipulations données en Sorbonne pour le classique certificat de Botanique et pour celui, récemment créé, de Botanique approfondie; on les distinguera d’ailleurs facilement. Rompant avec une tradition qui tendait à présenter des figures assez théoriques, représentant des cas « moyens », l’auteur s’est attaché dans ses dessins à suivre de près des réalités concrètes. Il semble que ce livre puisse être utile à beaucoup de botanistes.
- Les quatre flores de la France, par P. Fournier, docteur ès lettres et docteur ès sciences. Nouveau tirage avec compléments, corrections et tables (des familles et biographique). 1 vol. 12 X 20, 1106 p., 8075 fig. Paul Lechevalier, Paris, 1961. Prix, cartonné toile: 50 NF.
- La réédition de cet ouvrage, universellement connu des botanistes, était impatiemment attendue.
- Les « quatre flores de la France », cela veut dire : la flore générale, la flore alpine, la flore méditerranéenne et la flore littorale. L’ouvrage décrit 4 300 plantes environ, c’est-à-dire à bien peu de chose près la totalité des phanérogames que l’on peut rencontrer dans notre pays. Il ne remplace certes pas la grande flore qui nous manque et qui présenterait une étude approfondie de toutes les espèces avec leurs sous-espèces et variétés, comme c’est le cas pour la Flore de l’Europe centrale de Haegi, que les Allemands sont en train de refaire. Mais tel quel, le livre de l’abbé Fournier est le meilleur guide dont nous disposions actuellement. Il doit être entre les mains de tous ceux qui étudient les plantes à fleurs et les cryptogames vasculaires de notre pays.
- Anatomie des végétaux vasculaires, par P. Gayral, professeur aux facultés des Sciences de Bordeaux et Rabat, et J. Vindt, maître de conférences à la faculté des Sciences de Bordeaux. Préface de L. Plantefol, de l’Institut, professeur à la Sorbonne. 2 vol. 21,5 X 27. Fascicule I : 148 p., 22 fig. Fascicule II :
- 142 p., 252 microphotographies. G. Doin, Paris, 1961. Prix, les 2 fasc. : 82 NF.
- Le fascicule I expose les éléments essentiels de l’histologie végétale et développe surtout quelques notions en général trop négligées : structures stéliques, répartition et types de ponctuation, passage de la structure de la tige à celle de la racine, mise en place des éléments conducteurs, organisation des plans ligneux. On dégage ensuite les traits généraux des grandes divisions systématiques. Le fascicule II réunit des microphotographies originales où, à côté des exemples classiques, on trouve des types de structure et des détails anatomiques généralement moins connus. En regard de chaque photo, un commentaire qui complète les données exposées dans le texte général. Pour les Dicotylédones (p. 87 du fasc. II) une clé dichotomique permet de trouver une plante dont la structure es" proche de celle qu’on étudie. M. Plantefol souligne combien cette recherche peut être utile aux assistants et chefs de travaux pour la préparation de leurs exposés. Il sera aussi un guide précieux pour le systématicien qui ne peut se préoccuper uniquement des caractères extérieurs et macroscopiques. Index alphabétique des termes techniques et des noms des plantes.
- Inventaire des plantes vasculaires de la République du Congo, par B. Descoings, chargé de recherches de l’O.R.S.T.O.M. 1 vol. 20,5 X 26,5, 64 p. Laboratoire de Botanique de l’Institut d’études centre-africaines, Brazzaville, 1961. En l’absence d’une Flore régionale qui serait bien utile, l’auteur a établi cet inventaire à partir de l’herbier de l’Institut de Brazzaville, établi par MM. Trochain et Koechlin, qui rassemble près de 90 p. 100 des récoltes faites au Congo.
- Arboriculture et production fruitière, pat-Henry Boulay, ingénieur des Services agricoles. 1 vol. 11,5 X 17,5, 128 p. Collection Que sais-je ? Presses Universitaires de France, Paris, 1961. Prix: 2,50 NF.
- L’auteur examine d’abord la place des fruits dans l’alimentation, puis résume l’histoire et la géographie de leur production. Un chapitre plus copieux sur la biologie de l’arbre fruitier introduit aux techniques générales des cultures, de la multiplication à la taille et à la récolte, sans oublier la lutte antiparasitaire. Enfin, un bref chapitre sur l’économie de la production.
- Histoire des fleurs, par Lucien Guyot, professeur à l’Ecole nationale d’agriculture de Grignon, et Pierre Gibassier, licencié ès lettres. 1 vol. 11 X 17,5, 128 p. Collection Qne sais-je ? Presses Universitaires de France, Paris, 1961. Prix: 2,50 NF.
- Le botaniste et le linguiste qui, dans la même collection, nous avaient expliqué les noms des plantes, des arbres et des fleurs, évoquent ici les fleurs chez les peuples anciens, les fleurs dans les arts et la littérature, et content l’histoire plus détaillée de quelques-unes : tulipe, rose, orchidées, cactées et plantes grasses, arbres d’ornement aussi.
- Précis de Microbiologie, par Mlle S. Lambin et M. A. Germain, professeurs à la Faculté de Pharmacie de Paris, Tome I : Technique microbiologique-, Microbiologie générale. 1 vol. 16,5X21,5, 458 p., 82 fig. Masson, Paris, 1961. Prix, cartonné toile : 39 NF.
- Ce précis, destiné d’abord aux étudiants en pharmacie, s’adresse aussi à tous ceux qu’intéresse la microbiologie sous ses différents aspects : médecins, pharmaciens, vétérinaires, hygiénistes, agronomes, techniciens de l’industrie. Le tome I présente dans sa première partie une vue d’ensemble du monde des bactéries et des méthodes d’étude : stérilisation, milieux et techniques de culture, isolement et cultures pures, incubation, conservation; étude macroscopique et activité biochimique, pouvoir pathogène expérimental. La deuxième partie envisage les caractères généraux des bactéries (morphologie, structure, constitution chimique), la classification, la physiologie (multiplication, formes atypiques et cycle vital, conditions de vie, variabilité, nutrition, croissance, métabolisme), enfin l’utilisation dans l’industrie et l’activité bactérienne dans la nature.
- Beobachtungen zur Tierpsychologie im Zoo und im Zirkus, par H. Hediger. i vol. 14,5 X 21, 430 p., 13 fig., 114 planches hors-texte. Friedrich Reinhardt, Bâle, 1961. Prix, cartonné : 20 F suisses; relié : 26,50 F suisses.
- Les travaux de H. Hediger, fondés sur de très nombreuses observations soit dans les zoos, soit parmi les animaux en liberté, sont universellement connus. Dans ce livre se trouvent rassemblées et illustrées par toute une gamme d’exemples, les notions que Hediger a largement contribué à faire accepter par les zoopsychologues. Nous citerons en particulier : le territoire, la distance de fuite, le besoin de communication par jeu ou dressage. A travers les douze chapitres, les animaux apparaissent avec les divers comportements qui se créent
- Ecole supérieure
- DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e — ODE 54-83
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d'Etat. Brevets de Techniciens d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour Cours du soir
- Section d'enseignement " à domicile ''— -— -
- (Joindre timbre pour notice). :
- Transformez votre Microscope en un
- MICROSCOPE IIMTERFËRENTIEL
- pour la mesure et le contrôle des Etats de Surface
- à l'aide de
- l'OBJECTIFINTERFÊRENTIEL DE WATSON
- Applications ; Métaux, Semiconducteurs,
- Peintures, etc.
- LES PROCÉDÉS MARCEL LOCQUIN
- 20, Avenue Rapp - PARIS 7* - INV. 96-53
- 3I9
- p.319 - vue 323/551
-
-
-
- à la faveur de l’ambiance du zoo, du cirque, du milieu social, familial, etc.
- Féerie animale, par F.A. Roedelberger et Eric de Montmollin. x vol. 22 X 24,5, 231 p., nombr. photos noir et coul.. Hachette, Paris, 1961. Prix, relié toile: 25 NF.
- On ne saurait assez dire quelle réussite constitue cette « Faune d’Europe en 280 images», version française d’un ouvrage suisse. Le texte, auquel on a d’ailleurs assigné un rôle secondaire, ne s’adresse pas aux spécialistes, à peine au public cultivé, mais l’illustration, due à cent chasseurs d’images européens, est hors de pair, tant par ses qualités techniques que par les attitudes, souvent rares, voire exceptionnelles, des animaux qu’a surpris l’objectif. Chaque page apporte sa merveille et nous pensons que le naturaliste le plus blasé ne pourra pas ne pas admirer tel pic-épeiche, telle « caravane familiale de musaraignes » ou telle photo pleine page en couleurs de grand tétras « lançant son hymne au soleil ». Un ouvrage qui apprend à apprécier et respecter la nature, et qu’on souhaiterait trouver sur les rayons de nombreuses bibliothèques publiques ou familiales. Peut-on au moins exprimer le vœu de le voir remettre, en fin d’année scolaire, aux meilleurs élèves de nos lycées et collèges ? — L.T.
- Néoplasies et cancers à virus, par M. Guérin et Ch. Oberling. i vol. 18,5 X 25, 324 p., 80 illustr. hors texte. Amédée Legrand et Cie, Paris, 1961. Prix, relié: 80 NF.
- On sait que Ch. Oberling, à présent décédé, a été un des plus ardents défenseurs de la théorie virale du cancer, qui visait à fournir une explication unique de tous les processus néoplasiques. Le deuxième auteur du livre, M. Guérin, est loin d’être un « adepte intégral » de cette théorie, mais il a publié une série de travaux, en collaboration avec Ch. Oberling, sur des cas où l’origine virale du cancer ne peut être contestée. Les observations et les conclusions qui surgissent dans chacun de ces cas apportent certainement une large contribution au problème, encore sans solution, de l’étiologie générale du cancer.
- Les isotopes radioactifs en médecine, par
- Michel de Visscher et Christian Beckers. Collection Applications des Sciences nucléaires. 1 vol. 12 X 16, 166 p., 31 fig. Gauthier-Villars, Paris, 1961. Prix: 13 NF.
- Sous une forme condensée, l’ouvrage fournit l’essentiel de ce que doit connaître un public cultivé au sujet des utilisations médicales des radioisotopes. Deux chapitres sont consacrés à la présentation de ces éléments, à leur détection et leur dosage. Viennent ensuite les différentes applications à l’étude de la circulation sanguine, des fonctions digestives, thyroïdiennes, ainsi qu’au diagnostic et à la thérapeutique des tumeurs.
- Dangers des radiations atomiques, par Raymond Devoret. Collection Applications des sciences nucléaires. 1 vol. 12 X 16, 148 p., 10 fig., 24 tableaux. Gauthier-Villars, Paris, 1961. Prix: ix NF.
- Après avoir brièvement rappelé les propriétés physiques des rayonnements, l’auteur décrit les lésions qu’ils peuvent provoquer sur les organismes. Il évoque ensuite l’irradiation naturelle, l’irradiation médicale et l’irradiation professionnelle. Conclusions modérées en ce qui concerne cette dernière, tenant compte du nombre assez réduit d’accidents jusqu’ici survenus.
- Journées d’information médico-sociales sahariennes. 1 vol. 21 X 27, 248 p., 45 graphiques et croquis, 46 photos, 3 cartes. Larose, Paris, i960. Prix: 35 NF (frais d’envoi: 2,10 NF).
- Compte rendu intégral des journées tenues en avril 1959 à l’Unesco. On y trouve des exposés
- sur les sujets suivants : Géologie et géographie économique. Les ressources en eau. Le climat. Flore et palynologie. L’homme et la végétation spontanée. Les populations. La place de la sérologie dans l’étude des populations. L’élevage au sud du Sahara. Les physiciens de l’atmosphère parviendront-ils à inverser le processus de désertification du Sahara ? Epuration et conservation des eaux. Habitat et urbanisme. Climatisation en milieu désertique. Etudes physiologiques des travailleurs. Rôle de l’hyperthermie cutanée. Fatigue et adaptation de l’homme à la chaleur. Le cerveau et la chaleur. Adaptation psychologique au milieu industriel saharien. Pathologie humaine. Assistance médico-sociale. Assistance ophtalmologique. Bilan de cinq ans d’exercice de la médecine du travail. Recherches sur l’alimentation de la main-d’œuvre.
- Les limites de la vie humaine, par Alfred Sauvy.
- 1 vol. 13 X 20, 152 p. Collection Les grands problèmes. Hachette, Paris, 1961. Prix : 6 NF.
- Le fait de l’allongement de la vie humaine, qui comporte tant d’espoirs pour les individus, a de nombreuses implications démographiques qui sont analysées dans ce livre avec toute la pénétration qui caractérise l’œuvre d’Alfred Sauvy. Pour parvenir à ses conclusions ou plutôt aux perspectives ouvertes par l’évolution en cours, cet auteur ne passe sous silence aucun des éléments historiques, statistiques, médicaux, écologiques et sociologiques qui peuvent éclairer ce grand problème. Sans doute l’homme cultivé ou l’économiste ne trouveront pas, définitivement exprimée, la solution qu’ils pourraient espérer voir surgir. C’est pourtant par de telles analyses qu’elle a les meilleures chances de se construire.
- Des animaux à l’homme, par Paul Chauchard. Collection Le Psychologue. 1 vol. 12 X 18,5, 200 p. Presses Universitaires de France, Paris, 1961. Prix : 8 NF.
- Passant en revue les facteurs biologiques et l’évolution du cerveau, les automatismes et l’intelligence, l’auteur procède à de nombreuses comparaisons entre le psychisme animal et humain. Tout en constatant, sous divers paramètres, la supériorité de l’homme, il montre que la séparation classique entre l’homme, seul être pensant, et l’animal, conduit uniformément par l’automatisme, est une notion à réformer définitivement. Les conceptions modernes, communes d’ailleurs à la grande majorité des zoopsychologues, ne peuvent que favoriser et compléter l’étude de la psychologie humaine.
- Introduction à la géologie, par Charles Comba-LUZIER. I vol. 12 x 18, 192 p., 99 photos et schémas. Coll. Le Layon de la Science. Editions du Seuil, Paris, 1961. Prix: 4,90 NF.
- Les éléments de la géologie sont ici présentés sous la forme la plus « assimilable », à l’intention d’un large public. Formule dont on ne peut méconnaître l’utilité, sachant à quel point cette science est souvent traitée en parente pauvre, alors que son intérêt est primordial et que ses incidences pratiques se révèlent de jour en jour plus nombreuses.
- Histoire de la géologie, par André Cailleux.
- I vol. 11 X 17,5, 128 p. Collection Que sais-je ? Presses universitaires de France, Paris, 1961. Prix: 2,50 NF.
- II est curieux de constater que la géologie, avant de pénétrer (par emprunts successifs à la physique, la chimie, la mécanique et la thermique) dans le domaine des sciences exactes, a fait partie dès l’origine du patrimoine des connaissances humaines. Ces connaissances sont évoquées ici à compter du paléolithique.
- Les marées, par J. Rouch, directeur honoraire
- du Musée océanographique de Monaco, membre de l’Académie de Marine. 1 vol. 14 X 23, 230 p., 27 fig. Payot, Paris, 1961. Prix : 16 NF.
- Nous avons signalé en leur temps les publications successives des trois volumes du Traité d’Océanographie physique du commandant J. Rouch dans la Bibliothèque scientifique Payot. Le 3e volume traitait des mouvements de la mer et une large place y était faite aux marées. Le sujet est de nouveau d’actualité puisque les projets d’exploitation de la force des marées sont entrés dans une phase de réalisation. Aussi un plus large public doit-il être intéressé par la question. Il en trouvera ici un historique et un exposé complet à un niveau accessible. On y verra que la configuration des bassins et des côtes joue un grand rôle dans le phénomène, de sorte que les barrages qui seront construits pour l’utiliser peuvent, dans une mesure difficile à prévoir, en modifier les caractéristiques locales.
- Les volcans de la chaîne des Puys, par Aimé Rudel. 1 brochure 16 X 24, 20 p., 7 dessins et cartes, 5 photos. Le touriste en Auvergne, n° 36.
- Court exposé qui permet au voyageur intelligent et curieux de comprendre, dans ses traits essentiels, le volcanisme auvergnat.
- Le Dobermann, par André Wilhelm, i vol. 13,5 X 18,5, 160 p., dessins et photos. Crépin-Leblond, Paris, 1961. Prix : 12 NF.
- Nouveau venu dans la chronologie des races canines, le Dobermann peut être chien de garde, de police, de guerre, de chasse, mais aussi bon chien de compagnie et même d’aveugle. On apprendra ici à développer toutes ses qualités.
- Conférences du Palais de la Découverte.
- Signalons, aux Editions du Palais de la Découverte, les conférences suivantes (brochures 13,5 X 18 d’un prix modique) : La pollution at/nosphé-rique, par le Dr. A. Roussel, directeur adjoint de l’Institut national d’Hygiène; La biologie inventrice, par Jean Rostand, de l’Académie française; Les problèmes d’hydrodynamique posés par la résistance des carènes, par E. Ravilly, professeur à la Faculté des Sciences de Rennes; Les polémiques concernant le principe de moindre action au XVIIIe siècle, par Suzanne Bachelard, professeur à la Faculté des Lettrés de .Lille; R. J. Boskovic et la théorie de la figure de la Terre, par Zeljko Marcovic, professeur à l’Université de Zagreb; Johannes Kepler et les origines philosophiques de la Physique moderne, par Gérald Holton, professeur à l’Université Harvard; L’œuvre mathématique de C.F. Gauss, par J. Dieudonné, professeur à l’Institut des Hautes Etudes scientifiques.
- La Corse, par Jean-Dominique Guelfi. Collection Visages du Monde. Horizons de France, Paris.
- Dans le compte rendu publié dans notre numéro de mai (p. 231), une erreur s’est glissée que nous devons rectifier : le prix de cet ouvrage est de 19,50 NF (et non 13,50 NF). Nous prions les éditeurs et nos lecteurs de nous excuser.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- RECHERCHE ouvrages anciens avec planches en couleurs sur l’entomologie et la botanique ainsi que de beaux échantillons de cristaux et minéraux. R.E.P., 38 av. Pierre-Ier-de-Serbie, Paris (8e).
- 320
- Le Gérant : F. Dunod. — DUNOD, Éditeur, Paris. — Dépôt légal : 3e trimestre 1962, N° 3957. — Imprimé en France. Imprimerie Bayeusaine, 6-8, rue Royale, Bayeux (Calvados), N° 3307. — 7-1962.
- p.320 - vue 324/551
-
-
-
- La verse du blé conséquence du déséquilibre carbone-azote
- par Jules Caries
- Qui n’a longuement regardé sur un champ de blé mûrissant le spectacle toujours recommencé de la brise progressant en vagues rapides dans un bruit d’herbes froissées ? A plus d’un mètre au-dessus du sol, les lourds épis soutenus par de frêles tiges creuses s’inclinent pour se relever tout de suite après la rafale du vent.
- Il leur arrive pourtant de ne pas se relever et des champs de blé sont parfois dévastés par la verse : le magnifique édifice a croulé. Des plages plus ou moins étendues de tiges effondrées témoignent d’une fragilité dont il convient de rechercher les causes, car il s’ensuit parfois de véritables catastrophes qui font perdre à la France et au monde des milhers de tonnes de récolte.
- Quand la tige de blé abandonne définitivement sa posi-
- tion verticale pour une position plus ou moins horizontale, on parle de « verse ». Cet accident n’affecte jamais dans un champ un pied unique car, soutenu par les chaumes voisins, le pied courbé ne tarderait pas à reprendre sa position verticale, mais la verse ne peut se réaliser qu’en se généralisant et, dans la surface atteinte, toute la population subit le même sort. L’affaissement général est plus ou moins grand, mais dans les endroits les plus touchés, les tiges sont allongées sur le sol.
- Fig. x. — Dans un champ d’expériences, verse caulinaire de certaines parcelles de blé qui ont reçu un excès d’azote.
- Noter que les bordures ne sont pas affectées par la verse.
- {Photo O.N.I.A.).
- p.321 - vue 325/551
-
-
-
- Fig. 2. — Détail de la figure i et de la bordure intacte.
- La verse mécanique peut être bien diverse, et si l’on regarde attentivement des blés versés, on observe de multiples modalités dans la manière dont ils sont atteints. Trois types de verse peuvent être définis suivant la partie où. elle se produit : la verse racinaire, la verse caulinaire, et la verse nodale.
- Verse racinaire. — Ce type de verse s’observe lorsque la montaison est déjà avancée et que le bas de la tige commence à se renforcer. Il peut alors arriver, surtout dans les sols tourbeux plus ou moins fluidifiés par l’humidité, que le vent et la pluie, exerçant leur poussée sur la tige du blé, aucune courbure ne se produise dans le chaume, mais l’ancrage des racines cède et le blé se couche tout de son long. Si la croissance n’est pas terminée, la partie haute du chaume se redressera par un coude au niveau d’un nœud, mais le bas de la tige ne se redressera pas.
- Verse caulinaire. — Vers le début de la montaison, alors que les jeunes chaumes herbacés sont encore sans vigueur, un orage couche parfois ces jeunes tiges dont ni la rigidité ni l’envergure ne sont assez grandes pour ébranler les racines : c’est le type le plus précoce de verse, la verse en herbe, toujours caulinaire.
- Le point névralgique se situe dans le bas de l’entre-nœud qui, à cette phase du développement, est encore peu solide, bien que soutenu par la gaine de la feuille qui l’entoure. Même lorsqu’est atteint leur plein développement, les faisceaux libéro-ligneux (fig. 4) pris isolément seraient bien peu rigides, mais ils acquièrent, grâce à leur disposition circulaire, une certaine résistance. Cependant, si une inclinaison brutale, comme il peut en survenir au cours d’une rafale de vent, parvient à déformer ce cylindre et à couder la tige, la résistance est annihilée et la verse s’installe. Cela ne se produit toutefois que lorsque cette flexion s’est généralisée, car si un assez grand nombre de
- Il n’arrive pourtant jamais qu’un champ de blé soit totalement versé. Commençant toujours à la suite d’un orage ou d’une forte pluie, dans une partie plus ou moins centrale du champ, le cercle d’épis affaissés s’étend plus ou moins, sans jamais atteindre les bordures qui sembleraient pourtant moins protégées, plus exposées aux rafales du vent (fig. 1 et 2).
- Si quelque arbre est planté dans le champ, comme il s’en trouve encore dans certaines campagnes, c’est ordinairement autour de cet arbre que commence la verse. Et nous arrivons à cette constatation riche d’enseignements que les céréales sont d’autant plus sujettes à la verse qu’elles sont mieux protégées ! Mais avant de réfléchir sur ce point considérons les divers types de verse.
- Différents types de verse
- Verse parasitaire ou verse mécanique. — Il arrive que la verse soit l’effet d’une attaque parasitaire : un champignon, le Cercosporella par exemple, attaque parfois la base des chaumes. Il se propage sur toutes les tiges de blé dans un rayon plus ou moins grand et, comme il construit ses tissus aux dépens de ceux du chaume qui perd ainsi de sa résistance, l’ensemble de ces pieds malades s’écroule à la première pluie. Une telle verse, ne pose pas d’autre problème que celui de la lutte anticryptogamique et nous la négligerons pour celle qui courbe les pieds sains et qu’on appelle la verse mécanique.
- Fig. 3. — Une tige de blé.
- t, tige ou chaume; n, nœud, l, limbe de la feuille; g, gaine de la feuille entourant la partie inférieure d’un entre-nœud; Ig, ligule.
- (Imité de Bonnier et Leclerc du Sablon).
- p.322 - vue 326/551
-
-
-
- Fig. 4. — Schéma de la coupe transversale d’une tige de Graminée.
- ep, épiderme; sel, sclérenchyme; cl, tissu chlorophyllien; flb, faisceaux libéro-ligneux externes; flbi, faisceaux libéro-ligneux internes; /, liber; b, bois; f, fibres ; lac, lacune centrale.
- (Imité de Bonnier et Leclerc du Sablon).
- brins résistent et demeurent debout, les autres seront soutenus et leur inclinaison ne deviendra pas, du premier coup, irrémédiable.
- Il arrive aussi que de petites pluies fines et persistantes chargent le feuillage d’un poids d’eau constamment renouvelé. Les tiges alourdies s’inclinent, s’appuient les unes sur les autres, augmentant encore par ces contacts leur surcharge en eau, tant et si bien que la courbure s’accentue jusqu’à la verse plus ou moins totale.
- Verse nodale. — Ce type de verse, assez rare, affecte spécialement les nœuds. Toutes les courbures qui s’opèrent sur des tiges de graminées se font dans les nœuds pendant leur croissance. Si une tige a subi une verse racinaire précoce, alors que sa partie inférieure seule est déjà développée, un redressement peut s’opérer dans un nœud supérieur encore en voie de développement, par le phénomène bien connu du « géotropisme négatif ». Mais un nœud qui a terminé sa croissance ne peut plus ni opérer un redressement, ni être le siège de la verse.
- Sur des pieds de blé normalement dressés jusque-là, le géotropisme cesse parfois d’agir et les nœuds, au lieu de consolider la tige dans une position verticale, laissent les derniers entre-nœuds former un angle plus ou moins net avec les entre-nœuds précédents : c’est la verse nodale classique (fig. 8).
- Les causes de la verse
- La verse atteint très rarement la totalité d’un champ de blé, mais seulement des plages plus ou moins grandes, alors que les alentours sont encore debout. Il faut évidemment tenir compte de ces circonstances pour trouver une explication valable : on ne peut dire par exemple que la verse dépend seulement de la variété du blé puisque tout le champ n’est pas également atteint. Cependant un champ de telle variété aura des plages versées alors que dans les mêmes conditions telle autre variété restera totalement debout.
- Les trois types de verse que nous avons décrits peuvent d’ailleurs avoir des causes tout à fait différentes.
- Certains savants russes, Turkova par exemple, pensent que la verse nodale provient d’un empoisonnement : ils parviennent à la provoquer en plaçant le blé dans une atmosphère d’hydrogène sulfuré. Les réactions d’oxydo-
- réduction seraient alors inhibées et la plante plus ou moins asphyxiée ne disposerait plus d’une énergie suffisante pour construire des entre-nœuds solides. Nous reviendrons sur ce type de verse que nous avons pu provoquer en plein champ.
- Quant aux deux autres types, la cause la plus fréquemment invoquée est l’étiolement de la tige et plus spécialement des entre-nœuds du bas. Et l’on croit devoir attribuer cet étiolement à la trop grande densité des brins résultant d’un semis trop dense ou d’un tallage trop abondant.
- Beaucoup d’études ont été faites sur les diamètres des entre-nœuds, leur poids au millimètre, l’épaisseur de leur paroi, etc., et l’on est arrivé à cette constatation assez peu surprenante que les races les plus résistantes à la verse ont les entre-nœuds du bas de la tige plus courts et plus épais, munis d’un plus grand nombre de faisceaux libéro-ligneux, avec des parois de sclérenchyme plus épaisses.
- Toutes ces études ne manquent pas d’intérêt, mais plus encore que génétiques ou morphologiques, les causes de la verse nous paraissent être physiologiques et résulter d’un déséquilibre nutritif.
- L’équilibre glucides/azote
- Le carbone et l’azote représentent, avec les éléments de l’eau, hydrogène et oxygène, plus de 98 pour xoo de la masse d’à peu près n’importe quel végétal. Il est dès lors évident que l’alimentation en carbone et en azote revêt une particulière importance et qu’un déséquilibre entre ces deux corps peut entraîner des conséquences plus ou moins graves.
- L’azote est fourni à la plante par le sol, ordinairement sous forme de nitrates, tandis que le carbone prélevé dans l’atmosphère sous forme de gaz carbonique est fixé en majeure partie par les feuilles grâce à la photosynthèse.
- L’azote constitue dans la plante les acides aminés et les protides; le carbone intervient dans tous les composés organiques, mais surtout dans les glucides. Cet équilibre carbone/azote ou, plus exactement, glucides/protides, varie lorsque le carbone est plus rapidement assimilé que l’azote ou inversement, mais il est toujours très précis malgré les facteurs qui tendent à le rompre. Il varie cependant beaucoup, non seulement suivant les parties de la plante, mais encore au cours de sa vie. Pendant la période de croissance, l’azote pénètre rapidement, alors que les capacités de photosynthèse sont encore limitées; quand la croissance s’achève, le plus grand étalement des feuilles et de la tige active la fonction chlorophyllienne et le rapport glucides/protides augmente alors considérablement. Il existe ainsi un équilibre de croissance où dominent les protides, et un équilibre de fructification dominé par les glucides.
- Dans une bâtisse en ciment armé, l’ossature métallique est > d’abord mise en place et le ciment vient ensuite la consolider. Dans la plante en voie de croissance, l’azote constitue ainsi l’ossature, mais la construction ne progresse guère si les glucides manquent : les glucides sont en définitive le matériel de base, mais qui reste inutilisé si les protides manquent pour en préparer l’ossature ou du moins les pierres d’attente.
- Entrons dans le détail de la construction. Les glucides, dont la production dépend de la surface des feuilles et de
- 323
- p.323 - vue 327/551
-
-
-
- l’éclairement, apparaissent selon une séquence déterminée : après les cétoses qui se forment unis à des molécules d’acide phosphorique, vient le saccharose, débarrassé de cet acide et qu’accompagnent, en règle générale, le glucose et le fructose qui sont ses produits d’hydrolyse. Dans le blé, à la suite de transformations et polymérisations successives, se forment des glucides complexes, les monoglucofructo-sanes, qui migrent rapidement (surtout pendant la nuit) vers les gaines et les entre-nœuds. Ils s’y accumulent en attendant d’être mobilisés pour les besoins de la croissance ou pour la formation des grains.
- C’est ici qu’on saisit sur le vif l’action réciproque de l’azote et des glucides. Si l’azote est fourni en abondance, la croissance est stimulée et les glucides sont rapidement mobilisés. Si l’azote manque, les glucides s’accumulent, inutilisés. Cette accumulation n’est pas sans inconvénients : à un certain degré, elle devient toxique et la plante jaunit. La photosynthèse en outre est ralentie, comme toute réaction dont les produits ne s’évacuent pas. Nous verrons, par contre, que la richesse même excessive en glucides favorise l’ancrage des plantes et s’oppose ainsi à la verse racinaire.
- L’étude expérimentale
- Avant de montrer comment de cet équilibre glucides/ azote dépendent la verse et la santé du blé, il convient de souligner qu’une telle explication n’est pas uniquement théorique, mais s’appuie sur des dizaines de milliers de dosages et sur une expérimentation précise.
- Le problème concret que pose l’expérimentation est de modifier artificiellement l’équilibre glucides/azote, de faire varier d’une part l’entrée d’azote, d’autre part celle du carbone, en graduant les engrais et la photosynthèse.
- Le premier procédé est très facile, le second l’est beaucoup moins. On ne peut songer à modifier la teneur en gaz carbonique de l’air, ni à augmenter l’intensité de la lumière ou le temps d’éclairement, si l’on tient à réaliser une expérience en plein champ.
- On sera donc conduit à jouer principalement sur l’ombrage. Cependant, l’ombre ne doit pas être trop abondante, car le blé est incapable de-vivre sans lumière. Pour qu’il en recueille le « minimum vital », il a suffi d’installer une toile de tente tendue au-dessus d’une partie d’un champ
- 324
- p.324 - vue 328/551
-
-
-
- Fig. 6.
- Le dispositif de la figure 5 dans la situation où il était placé tous les soirs.
- (Photos O.N.I.A.).
- de blé. L’ombre n’était évidemment pas totale, mais, en plein soleil, il ne passait que 5 000 à 8 000 lux, ce qui correspond à un jour très couvert. Cette toile toujours repliée pendant la nuit, n’était étendue que les jours où le soleil brillait et depuis le moment où il commence à monter au-dessus de l’horizon jusqu’aux approches de son coucher (fig. 5 et 6).
- Une partie du champ fut ainsi couverte pendant huit jours avant la floraison, mais rien ne fut couvert pendant la floraison. Une autre partie fut couverte après la floraison et une partie fut couverte avant et après.
- De multiples expériences, plus faciles à réaliser, ont été faites soit avec des doses variées d’azote, soit avec des semis plus ou moins espacés pour permettre à la lumière de pénétrer plus profondément parmi les tiges de blé.
- Comment se produit la verse
- Verse racinaîre. — Elle provient d’un trop faible développement radiculaire. L’ancrage racinaire dépend de multiples conditions parmi lesquelles une des plus impor-
- tantes est le patrimoine héréditaire et beaucoup de recherches sont faites pour remédier à la verse du blé par la préférence donnée à des variétés qui développent un plus grand nombre de racines supplémentaires ou bien des racines supplémentaires plus solides.
- Mais pour une part plus grande encore, le développement radiculaire dépend du rapport glucides/azote. Lorsque manque l’azote, les glucides, nous l’avons vu, s’accumulent dans la gaine ou le chaume, jusqu’à devenir parfois toxiques et faire jaunir la plante. Ces réserves sont utilisées en partie sur place, mais elles sont aussi dirigées vers les racines qui prennent un développement beaucoup plus grand. Ne dit-on pas que si le blé manque d’azote, il étend ses racines pour aller le chercher beaucoup plus loin. L’excès de glucides ne peut donc être incriminé, bien au contraire, dans la verse racinaire.
- Mais on devine à quel point l’abondance initiale d’azote dans le sol peut favoriser la verse; le pied de blé s’enracinera fort mal et la verse racinaire risque de faire des ravages par temps pluvieux. L’effet sera le même si le soleil manque : les glucides trop rares n’arriveront pas à satisfaire tous les besoins créés par l’azote, car le chaume à partir duquel
- 325
- p.325 - vue 329/551
-
-
-
- sont approvisionnées les racines sera très pauvre en glucides.
- Verse caulinaire. — Les conditions qui favorisent la verse caulinaire sont nombreuses, mais il semble bien qu’elles se ramènent toutes au même déséquilibre, au trop faible rapport glucides/azote. En effet, la tige sera solide si les entre-nœuds du bas ne s’allongent pas trop et se renforcent assez vite, si la partie supérieure de la tige n’est pas trop développée, les limbes surtout qui, chargés d’eau, deviennent vite un danger. Or, le manque de soleil ou l’abondance d’azote contribuent à faire allonger les entrenœuds du bas et à prolonger leur jeunesse, mais surtout à les priver des glucides qui leur permettraient de se renforcer. Parallèlement les gaines protectrices voient leur importance diminuer au profit des limbes, devenus dangereux, en raison de leur poids.
- Ce que nous avons déj à dit permet de comprendre que la plus ou moins grande richesse en azote se traduit par des rythmes différents du développement : les pieds mal pourvus en azote démarrent plus rapidement et paraissent plus prometteurs, mais leur développement s’arrête assez vite; ceux qui disposent d’azote en abondance continuent leur développement et les dépassent plus ou moins largement. Cette prolongation de la jeunesse apparaît très nettement dans la proportion du poids sec par rapport au poids frais : elle est nettement plus forte dans la plante carencée en azote que dans la plante bien pourvue d’azote ou ombragée (tableau I). On devine combien tout ceci importe à la solidité de la tige.
- Tableau I. — Poids sec des entre-nœuds en pour cent
- PAR RAPPORT AU POIDS FRAIS
- Sans azote Avec azote
- Découvert Couvert Couvert
- Début d'épiai son
- Haut du chaume ..... 22 15 18,5
- Bas du chaume 28 20 20
- Fin de floraison
- Haut du chaume 29,5 21 23,7
- Bas du chaume 29,5 23 24
- 15 jours apres la floraison
- Haut du chaume 38 33
- Bas du chaume 37 3M
- La solidité des chaumes est encore diminuée par leur allongement. Or une mesure effectuée sur un assez grand nombre de pieds a démontré que tous ceux des séries « azote » et « couverts » avaient des entre-nœuds plus longs d’environ 12 pour 100 que ceux de la série « sans azote découverts ». Partant du bas, on a relevé les différences suivantes: 70 mm contre 60; 110 mm contre 95; 170 mm contre 140; 255 mm contre 210. Seul l’entre-nœud du haut fait exception, ne mesurant que 370 mm contre 400 mm pour 1rs blés ensoleillés, ce qui paraît indiquer que les auxines ne sont pas en cause.
- Plus importante pour la solidité de la tige que la longueur, est la puissance du chaume que l’on peut apprécier avec assez d’exactitude d’après son poids. Quand l’entre-nœud a fini de s’allonger, il s’épaissit et se renforce grâce à la
- cellulose en particulier qu’il synthétise à partir des glucides dont il dispose. Le poids du bas du chaume atteint assez vite un maximum, se stabilise, puis décroît progressivement jusqu’à la maturité. Or le poids sec des plus bas entrenœuds développés avec le soleil dépasse largement chez le témoin ceux qui se sont développés sans soleil, même avec plus d’azote. De plus, leur solidification est plus rapide, et ces deux conditions influent considérablement sur leur solidité.
- Un dernier élément à signaler est le développement des limbes. Avec l’azote ou à l’ombre, leur importance augmente par rapport aux gaines ; l’importance des feuilles elles-mêmes augmente par rapport au chaume et l’importance de la partie aérienne par rapport aux racines.
- Le tableau II, où l’on retrouve les mêmes séries que dans le tableau I, montre le rapport limbes/gaines nettement plus élevé dans les séries « avec azote » et « couverts ». Le rapport de la feuille, ensemble limbe + gaine, par rapport au chaume augmente dans les mêmes proportions; alors que pour les pieds sans azote le rapport du poids de l’ensemble des feuilles au poids du chaume est de 0,68, il est de 0,73 pour les pieds avec azote et de 0,88 pour les pieds sans azote et couverts. Il est bien évident que l’alourdissement des feuilles, tandis que s’amenuise le chaume, n’améliore pas la résistance à la verse caulinaire.
- Fig. 7. — Verse nodale affectant une des parcelles ombragées
- (Photos O.N.I.A.).
- 326
- p.326 - vue 330/551
-
-
-
- Tableau II. — Rapport limbes/gaines en poids sec après floraison
- Sans azote
- Avec azote
- Découvert Couvert Couvert
- Feuille 1 o,59 0,98 0,83
- Feuille 2 0,84 1,05 1,07
- Feuille 3 0,86 o,97 o,94
- Feuille 4 o,74 0,80 0,76
- Feuille 5 0,83 0,86 o,77
- Ensemble o,75 0,92 0,91
- Verse nodale. — La saison avait ét.é relativement sèche et nulle verse n’avait été constatée dans toute la région. Que'ques orages se produisirent au cours d’une petite période pluvieuse, alors que le blé achevait de mûrir. Le blé qui avait été couvert après la floraison, jusqu’au début de cette période pluvieuse, inclina son plus haut entre-nœud, plus rarement les deux plus hauts. Cette courbure s’accentua pour devenir un angle droit à la suite de deux orages de 25,7 et de 10,5 mm d’eau (fig. 7 et 8).
- Il ne saurait être question, comme certains le disent, d’un poison respiratoire qui ne peut affecter un carré de champ bien précis et totalement découvert depuis plus d’une semaine et la cause doit en être cherchée dans un déséquilibre glucides/azote résultant de l’ombrage.
- L’énergie solaire étant moindre à l’origine, elle est fixée
- Photosynthèse
- pentoses 5 5
- cycle citrique (respiration acides aminésJ
- acide quimque 1
- (synthèse des 7 composés . aromatiquesj 1
- \,glucides (réserves)
- Fig. ç. — La place du cycle des cétoses dans la physiologie de la plante.
- Les chiffres indiquent le nombre des atomes de carbone des glucides intéressés.
- en quantité insuffisante par la fonction chlorophyllienne, et les réactions ultérieures qui utilisent cette énergie sont partiellement bloquées. Considérant en particulier le cycle des cétoses (fig. 9), on assiste à un appauvrissement en fructose, saccharose, acide quinique et corps aromatiques. Approvisionnement également plus faible du cycle citrique auquel on doit la formation (par combinaison avec l’azote que fournissent les racines) des acides aminés. Or, comme la matière première utilisée dans la formation des acides
- p.327 - vue 331/551
-
-
-
- aminés est identiquement celle qu’utilise la respiration, il est évident que la surabondance d’azote qui tend à l’augmentation des acides aminés peut arriver à provoquer une certaine asphyxie.
- Perspectives
- On considère parfois les êtres vivants comme des usines, aptes à fabriquer tels ou tels éléments que nos industries sont encore incapables de synthétiser. Le porc, par exemple, transforme tant de kilos d’aliment complet en tant de kilos de viande et de graisse. La mise au point des engrais chimiques a fait la fortune de cette idée simpliste et donne l’impression qu’il suffit de fournir davantage d’engrais aux plantes pour augmenter d’autant la production. Ceci est exact dans tous les cas, et ils sont nombreux, où la plante manque d’engrais. Il ne faudrait cependant pas généraliser en oubliant que la plante est un vivant et que s’appliquent toujours les lois de la vie : doubler la dose d’un médicament parce qu’il a fait du bien n’est pas un procédé recommandé. De même, tout excès dans la consommation d’un aliment a des effets nuisibles, surtout lorsqu’il crée un déséquilibre. La verse du blé en est un exemple typique.
- Le déséquilibre peut d’ailleurs se manifester de deux manières différentes. Lorsque, après un hiver pluvieux, les blés en herbe croissent sur les sols lessivés, il arrive souvent que des champs entiers jaunissent parce qu’ils manquent d’azote, ou plus exactement parce qu’ils ont trop de soleil relativement à l’azote dont ils disposent : les glucides inutilisés les intoxiquent. Comme on ne possède pas le moyen, pour les faire reverdir, de diminuer la quantité des photons fournis par le soleil, le seul recours et le plus avantageux est d’apporter un complément d’azote.
- Mais on ne saurait parler du blé comme d’une substance chimique homogène douée de propriétés précises, car les diverses variétés de blé sont loin d’avoir les mêmes besoins relatifs d’azote ou de soleil, ni les mêmes aptitudes à utiliser ces deux facteurs de nutrition. Le patrimoine héréditaire fixe à chaque variété les limites de son équilibre. Tel blé est susceptible d’utiliser telle quantité de lumière et l’utilisera en fait si on lui fournit assez d’azote pour cela, tandis que tel autre atteindra son plein développement avec une quantité moindre de soleil : il sera adapté à des régions plus septentrionales ou plus nuageuses. C’est en fonction
- de la luminosité moyenne de chaque région qu’on doit pouvoir trouver la variété susceptible d’arriver, avec tout l’azote désiré, au meilleur rendement. En principe, cette variété ne sera parfaitement adaptée qu’à cette région, ou à des régions qui présentent les mêmes conditions climatiques et pédologiques. Cependant si, pour une année déterminée, la luminosité n’est pas celle qu’on était en droit d’attendre d’après les statistiques climatologiques, il se peut fort bien que le risque de verse soit grand, surtout si l’azote est fourni en fonction de l’ensoleillement habituel.
- A la recherche des plus grands rendements, le sélectionneur ne peut donc éliminer le risque de verse que pour l’année moyenne. Procédant par tâtonnements, il devrait réussir à désigner la variété qui, médiocre dans une région, se révélera peut-être remarquable dans une autre. Ne sait-on pas, par exemple, que tel cépage de nos vignobles, auquel un grand cru doit son arôme exceptionnel, devient banal et terne une fois transplanté en d’autres lieux ?
- Pour le blé et tenant compte de la latitude que l’on possède de fournir l’azote « à la demande », les généticiens peuvent se fixer pour tâche de rechercher les races capables d’utiliser au maximum le soleil et d’emmagasiner dans les grains, sous forme d’énergie chimique, le plus possible d’énergie lumineuse. Dans ces conditions, la quantité de glucides augmentera considérablement et la plante aura besoin, pour équilibrer cette augmentation, d’une quantité toujours plus grande d’azote : elle aura faim d’azote.
- Il nous est facile de satisfaire cette faim en fournissant des engrais, tandis qu’il nous est pratiquement impossible d’intervenir quand l’équilibre penche de l’autre côté et que la plante manque de glucides. C’est pourquoi la verse est un accident qu’il faut essayer au mieux de prévenir en fournissant une quantité d’azote proportionnelle à l’insolation que sont susceptibles de recevoir nos champs de blé, sans atteindre un taux tel qu’il déclencherait une faim que nous ne sommes pas capables de satisfaire : la faim de soleil.
- Jules Carles.
- Les photos que nous publions ont été obligeamment communiquées par l’Office National Industriel de l’Azote.
- Les expériences sur lesquelles repose l’essentiel de cet article ont été réalisées à Toulouse, dans les champs d’expériences de FO.N.I.A., et ont fait l’objet de plusieurs publications parmi lesquelles nous signalons, pour ceux de nos lecteurs qui désireraient plus de détails : Etude physiologique de la verse du blé, par J. Carles, L. Soubiès et R. Gaoet, Annales de Physiologie végétale, i960, p. 143-170.
- Un sérum de fécondité
- La fécondité de différents animaux d’élevage serait fortement améliorée par l’injection d’un sérum extrait du sang de juments fécondées. C’est ce que révèlent des essais effectués récemment dans une ferme collective du Kazakhstan du Sud, sur plus de 25 000 brebis. L’indice de fécondité atteignit 144 agneaux pour 100 brebis traitées, en moyenne, avec une valeur maximale de 175 agneaux. Baptisé SGK, ce sérum, découvert en 1941 par M. Michel Zavadovsk, intervient aussi contre la stérilité. L’élevage possédait 29 000 brebis stériles. Traité au sérum, ce troupeau, « mort » pour les éleveurs, donna 33 000 agneaux avec plus de 400 portées de trois.
- Le SGK stimule également les fonctions physiologiques et conduit
- à une meilleure assimilation des aliments, d’où une croissance plus rapide. Quinze bouvillons furent divisés en trois groupes. Le premier reçut tous les dix jours 10 cm3 de SGK, le deuxième reçut 4 cm3, le troisième servit de groupe de contrôle. Au bout d’un mois, on observa, pour des conditions de vie et d’alimentation identiques, que les animaux du premier groupe prenaient en moyenne 1 070 g par jour, ceux du deuxième 780 g, ceux du troisième 420 g seulement.
- Dans une autre ferme, on injecta du sérum à des vaches laitières peu productrices. La production quotidienne du lait augmenta, toutes choses égales par ailleurs, de 1,5 à 3 litres. {Bulletin du Bureau soviétique d’information).
- 328
- p.328 - vue 332/551
-
-
-
- Nouveaux progrès
- dans la plongée sous-marine
- par Jean Rivoire
- Avec les beaux jours sont revenues les excursions sous-marines. Que ce soit aux bords de la Méditerranée ou sur les côtes de Floride, vieux riverains ou jeunes « vacanciers » ont chaussé des palmes de caoutchouc, sanglé des bouteilles d’air comprimé, coiffé un masque de verre pour se faufiler dans un monde plus lourd et s’y sentir plus légers. Pour beaucoup, la plongée individuelle est devenue une habitude, presque une routine. Mais voilà que des progrès décisifs lui redonnent une nouvelle actualité.
- Comme nous l’avons montré il y a déjà longtemps (voir La Nature, juillet 195 5, p. 286), la plongée à l’air comprimé, où le plongeur reste soumis à la pression ambiante, se heurte à deux limitations inexorables : ivresse des profondeurs, accidents de décompression.
- Communément imputée aux effets narcotiques de l’azote sous pression, l’ivresse des profondeurs a fait, et fait encore, l’objet de recherches et de théories souvent discordantes. Mais le fait est qu’à partir d’une certaine profondeur, variant de 30 à 50 m suivant les individus, cette ivresse se traduit par une espèce de torpeur susceptible de provoquer des gestes inconsidérés. Rares sont les sujets qui ont survécu à des plongées de plus de 90 m de profondeur. L’exploit de l’Italien Novelli, qui a atteint 131m en i960 dans la baie de Naples, est tout à fait exceptionnel.
- Supprimer l’azote et plonger à l’oxygène pur n’est pas une solution, bien loin de là. Car les troubles d’hyperoxie, se traduisant par des vertiges et des crises convulsives, apparaissent dès que la pression partielle de l’oxygène respiré dépasse 2,2 à 2,3 kg/cm2, ce qui, pour une plongée à l’oxygène pur, correspond à une profondeur de 12 à 13 m.
- La seule solution, pour dépasser sans trop de danger la limite des 90 m, est d’employer un mélange gazeux spécial, de l’oxygène dilué dans un ou plusieurs gaz légers, car on a constaté que les gaz plus légers que l’azote avaient des effets narcotiques moindres. Ainsi, des profondeurs d’environ 160 m ont pu être atteintes, en 1945 avec un mélange hydrogène-oxygène, en 1948 avec un mélange hélium-oxygène. Plus récemment, un scaphandrier britannique est descendu à 184 m.
- On conçoit aisément la complexité des appareils nécessaires. Car la pression partielle de l’oxygène, si elle ne doit jamais dépasser 2,5 kg/cm2 au cours d’une plongée sous peine d’hyperoxie, ne doit pas non plus descendre au-dessous de 0,2 kg/cm2 sous peine d’asphyxie. La teneur du mélange doit donc être variable en fonction de la profondeur; et s’il s’agit d’un mélange hydrogène-oxygène, on doit prendre la précaution de s’écarter à tout instant des teneurs explosives.
- Mais le principal inconvénient de ces procédés consiste en la durée de décompression nécessaire. Nous retrouvons ici la deuxième limitation de la plongée à l’air comprimé : pour éviter la formation de bulles d’azote dans le sang, lors du retour vers la surface, il est nécessaire de remonter progressivement en ménageant des temps d’arrêt à certains niveaux. Les tables de décompression, établies d’après les périodes d’absorption et d’élimination de l’azote dans les différents tissus, indiquent les profondeurs et les durées de ces paliers, en fonction de la profondeur précédemment atteinte et de la durée du séjour au fond. Or, avec les gaz légers, la décompression doit se faire encore plus lentement qu’avec l’azote; compte tenu des profondeurs atteintes, cela demande plusieurs heures.
- Pratiquement, le problème à résoudre pour effectuer des plongées très profondes est le suivant : étant donné la profondeur à atteindre et le temps de séjour imposé sur le fond, choisir le mélange gazeux qui, tout en évitant la narcose, permettra d’opérer une décompression aussi rapide que possible.
- Il est donc nécessaire de connaître les tables de décompression correspondant à plusieurs gaz et à tous leurs mélanges possibles. Vers 1946, les commandants Tailliez et Cousteau, au Groupe d’Etudes et de Recherches sous-marines de Toulon, envisagèrent d’effectuer les calculs; mais ils durent bientôt y renoncer, en raison de leur longueur.
- Les choses devaient en rester là jusqu’aux toutes dernières années. Alors, un jeune mathématicien suisse, M. Hannes Keller, travaillant en liaison avec la Compagnie I.B.M. de Zurich, établit un mode de programmation permettant de faire effectuer les calculs par un ordinateur électronique. Pour des raisons bien compréhensibles, M. Keller s’oppose encore à la publication des formules. Mais les premiers résultats sont bien connus, et dûment vérifiés.
- Ayant le courage d’expérimenter lui-même sa méthode, M. Keller est descendu dans le Lac Majeur à 155 m en août i960, puis à 222 m en juin 1961. Avant de poursuivre plus avant ses expériences, il a décidé, sur le conseil du commandant Cousteau, d’effectuer des plongées fictives dans un caisson à atmosphère comprimée sous contrôle médical. La Marine française ayant accepté de prêter son concours, M. Keller put utiliser le caisson du Groupe d’Etudes et Recherches sous-marines, à l’arsenal de Toulon. Le 25 avril 1961, il supporta une pression de 30 kg/cm2 (correspondant à une profondeur fictive de 300 m), pression extrême pour laquelle est taré le caisson, et il en sortit en bonne condition après une décompression de 40 minutes seulement (fig. 1 et 2).
- 329
- p.329 - vue 333/551
-
-
-
- Fig. i. — Le caisson à ait comprimé du Groupe d’Etudes et de Recherches sous-marines,
- à l’Arsenal de Toulon, pendant les essais de M. Hannes Keller.
- Sous le caisson, une cuve remplie d’eau communique avec lui et se trouve donc à la même pression. A l’intérieur de la cuve, l’expérimentateur respire le mélange gazeux qui lui parvient par un tuyau souple.
- (Photo H. Keller).
- M. Keller a fait construire à Winterthur un nouveau caisson, qui doit lui permettre d’atteindre la profondeur fictive de 400 m. Par ailleurs, il compte procéder cette année à des plongées réelles en Méditerranée, avec l’aide des Marines française et américaine.
- D’après lui, sa méthode serait applicable jusqu’à 1 000 m de profondeur. Une telle performance, si elle est jamais réalisée, exclura sans doute tout travail effectif. Mais il semble d’ores et déjà acquis que la profondeur de 300 m est aisément accessible à un plongeur entraîné. Ce résultat est d’autant plus intéressant que le dispositif Keller est entièrement autonome, n’exigeant pas de liaison permanente avec la surface, et laisse donc une totale liberté de mouvement.
- Le « plateau continental » est donc désormais à la portée des plongeurs. A peine expérimenté, l’appareil rigide conçu par le commandant Cousteau sous le nom
- 330
- p.330 - vue 334/551
-
-
-
- Fig. 2. — Avant l’expérience,
- M. Keller, muni de son appareil, passe du caisson dans la cuve.
- {Photo H. Keller).
- de « soucoupe plongeante » (voir La Nature-Science Progrès, juillet 1962, p. 294) se verrait rejoint dans son champ d’action par la nouvelle technique de plongée individuelle.
- Nouveaux esquifs sous-marins
- Pour de plus grandes profondeurs, il reste nécessaire de recourir à des appareils rigides, mettant les passagers à l’abri de la pression ambiante.
- Ainsi, le commandant Cousteau fait actuellement construire un nouvel engin en forme de « cigare », destiné à prendre le relais de la « soucoupe ». Un système de basculement lui permettra de piquer verticalement vers le fond, puis de se déplacer horizontalement et enfin de remonter vers la surface.
- De son côté, le professeur Auguste Piccard commença en 1961 les essais sur maquettes du « mésoscaphe », cette espèce d’hélicoptère sous-marin dont il avait exposé le principe dès 1954 (fig. 3). La mort subite du grand physicien, le 25 mars dernier, ne devrait pas compromettre la réalisation de l’engin, poursuivie désormais par son fils, M. Jacques Piccard.
- Le « cigare » de Cousteau comme le « mésoscaphe » de Piccard doivent permettre d’explorer, avec le maximum de sécurité et de maniabilité, les profondeurs de l’ordre de 1 000 m.
- Pour les fonds de 1 000 à 4 000 m, plusieurs autres projets d’esquifs sous-marins sont en voie de réalisation dans divers pays, en particulier aux Etats-Unis, tels 1’ « Alu-minaut » en alliage léger de la Reynolds Metals (voir La Nature-Science Progrès, octobre 1961, p. 439) et le « Sea Pup » de la General Mills.
- Au delà de 4 000 m, il n’est pas possible, en l’état actuel de la technique, de concilier dans un même appareil la légèreté et la résistance à la pression. La seule solution
- Fig. 3. — Lors de son dernier cours à l’Université Libre de Bruxelles, en 1954, le professeur Piccard expose le principe du « mésoscaphe ».
- Sorte d’hélicoptère sous-marin, cet appareil, dont les parois pourront être en plexiglas, aura constamment une flottabilité positive ; seule la rotation de la grande hélice lui permettra de descendre vers le fond. {Photo United Press).
- p.331 - vue 335/551
-
-
-
- reste celle du bathyscaphe, appareil essentiellement composé d’une cabine sphérique et d’un flotteur, la flottabilité positive de celui-ci compensant la flottabilité négative de celle-là (voir Ta Nature, juillet 1956, p. 266).
- On sait que le premier bathyscaphe de Piccard, devenu propriété de la Marine française sous le nom de F.N.R.S. 3, a atteint 4 050 m de profondeur en 1954.
- Le Trieste, deuxième bathyscaphe de Piccard, avait atteint 3 150 m dès 1953 avec le professeur lui-même pour pilote. Doté en 1959 d’une nouvelle cabine, il a pu explorer en i960 le « Challenger Deep », dans la fosse des Mariannes, à 10916 m de profondeur, avec M. Jacques Piccard pour pilote. Acheté entre temps par la Marine américaine, il est maintenant exploité systématiquement par cette dernière près de la base de San Diego, en Californie.
- La Marine française a construit récemment une réplique perfectionnée du bathyscaphe. Ce nouvel engin, dénommé
- A.rchimède, devait explorer en 1962 la fosse des Kouriles, presque aussi profonde que celle des Mariannes.
- *
- * *
- Ainsi, la mer tout entière est désormais à la portée de l’homme. Dans cette conquête capitale du 20e siècle, la France a pris, à bien des titres, une part privilégiée. Mais à l’heure actuelle, grâce au regretté professeur Piccard, à MM. Jacques Piccard et Hannes Keller, la Suisse, pays terrien par excellence, apparaît décidément comme le haut lieu de la découverte sous-marine. Ce paradoxe est réconfortant : il montre que les prétendus impératifs naturels s’effacent parfois devant l’intelligence et le courage de quelques hommes.
- Jean Ri voire.
- Programmes de recherches océanographiques
- La dernière session à Paris de la Commission océanographique de l’Unesco, groupant 40 nations, a permis de définir les tendances actuelles de la recherche dans ce domaine.
- Tout d’abord, les délégués ont réclamé avec force l’institution d’une sorte de « fibre échange intellectuel », autorisant la collaboration internationale à propos des découvertes et recherches effectuées en dehors des eaux territoriales propres de chaque état : variations des niveaux marins, données concernant les courants, la température et la salinité, influence de l’océan sur le climat, recherches touchant les processus biologiques dont dépend l’industrie de la pêche, etc.
- Des campagnes de recherches seront entreprises afin de mieux connaître les problèmes de l’Atlantique Nord, du Pacifique oriental et de l’Océan Indien. Pour l’Atlantique Nord, des navires travaillant simultanément en divers points pourraient fournir des renseignements nombreux et précis (plus intéressants que les moyennes portant sur une longue période dont on dispose à l’heure actuelle) sur les migrations des espèces animales, les saisons de frai et les fieux de ponte.
- Pour le Pacifique oriental, notamment sa zone tropicale qui fournit à l’Amérique de grosses quantités de thons, la question la plus intéressante actuellement est celle posée par le courant de Humboldt : ce courant charrie des eaux froides qui expliquent sans doute la productivité exceptionnelle de ces régions, alors que généralement les zones intertropicales océaniques sont pauvres en matières organiques.
- Fig. 1. — L’« Almirante Saldanha ».
- Ce grand voilier brésilien est en voie de modification afin de pouvoir servir de navire océanographique. Il possédera finalement deux radars, deux « loran », deux écho-bathymètres ayant respectivement 6 ooo brasses et i ooo mètres de portée. Un groupe propulseur de 2 200 ch lui conférera une vitesse de 12 nœuds. Les mâts seront supprimés pour laisser place à une superstructure composée de différents laboratoires (chimie, plancton, ichthyologie, géologie, radioactivité, radiosondage).
- (Photo aimablement communiquée par l’Ambassade du Brésil).
- 332
- p.332 - vue 336/551
-
-
-
- Quant à l’Océan Indien, un vaste programme concerté a été mis sur pied, groupant 40 navires de diverses nationalités, et portant sur les années 1962 et 1963. Ce programme international, analogue à celui de l’Année géophysique de 1957-58, doit permettre de mieux connaître l’océan le plus mal étudié du globe : depuis cent ans, une vingtaine de navires de recherches seulement l’ont parcouru. Notamment on tentera de poser les bases d’un système de radionavigation à longue portée, indispensable dans cette région où la mousson perturbe la navigation normale une bonne partie de l’année.
- Il est étrange de constater que les océans, qui couvrent à peu près les trois quarts de la surface du globe, demeurent aussi mal connus : les grands fonds étaient encore inaccessibles il y a peu d’années, avant l’invention des bathyscaphes ; les cartes des fonds marins (cartes bathymétriques) sont fréquemment inexactes, sauf en ce qui concerne le voisinage des côtes (voir cependant, dans notre numéro de février, p. 66, la curieuse « migration » du plateau de Rochebonne). Un savant américain a pu déclarer : « Nos cartes des fonds marins sont aussi exactes que l’étaient les cartes géographiques vers 1720. C’est une lacune scandaleuse dans notre connaissance de la Terre... » (R. Revelle).
- On ne sait pas grand chose non plus de réellement systématique sur les variations de température et de salinité, ni sur les courants ascendants; on n’a pu rendre compte encore de l’invasion des eaux marines profondes sur la plate-forme continentale brésilienne, invasion qui
- modifie les espèces végétales océaniques; on ignore le pourquoi du mouvement vers le Nord des eaux de l’Amazone en saison sèche, comme les causes des variations de courants dans l’Atlantique tropical, entraînant des répercussions sur la reproduction des thons, abondants dans cette région...
- Or les océans jouent un rôle de premier ordre, de diverses manières : ils constituent d’abord une réserve considérable de protéines ; leurs richesses minérales, surtout à proximité des côtes, sont susceptibles d’être exploitées (d’après le professeur Zenkevitch, les réserves de molybdène dans les sédiments marins sont 4 000 fois plus élevées que dans les terres émergées); emmagasinant les radiations solaires, ils exercent une influence sur les climats du globe; en particulier des échanges chimiques ont lieu entre l’eau et l’air, mais on connaît très mal la fonction de la mer producteur d’oxygène. Enfin, à partir du fond des mers, il est dorénavant possible d’opérer des forages qui nous renseigneront sur l’histoire géologique de la Terre (voir La 'Nature-Science Progrès, décembre 1961, p. 518-526).
- Signalons l’offre faite par le Brésil d’apporter sa collaboration au travail commun en accueillant à bord de son navire Almirante Saldanha des chercheurs latino-américains ou africains qui lui seront indiqués par l’Unesco. Cet ancien navire-école, un des plus grands voiliers du monde (fig. 1), a été équipé en vue de la recherche océanographique. Son champ d’action actuel s’étend à toute une partie de l’Atlantique central. p.
- Caméra sous-marine stéréoscopique
- D’après une information du Centre culturel américain, une caméra stéréoscopique vient d’être mise au point par des chercheurs américains pour prendre des photographies en trois dimensions et en couleur du fond de l’océan. Cette caméra comporte une source de lumière, deux objectifs et utilise un film de 35 mm. Cinq cents prises de vue peuvent être effectuées au cours d’une seule plongée. Grâce à un dispositif « sonar », la caméra est maintenue automatiquement à 3 m au-dessus du fond, même lorsqu’elle est remorquée en terrain accidenté. L’appareil émet des ondes ultra-sonores, mesure l’intervalle
- de temps qui sépare l’émission de l’onde de la réception de l’écho, le convertit en distance et procède au réglage nécessaire pour maintenir la caméra à la bonne distance du fond. La caméra est prévue pour pouvoir fonctionner sous 10 000 mètres d’eau. Grâce aux photographies prises par le nouvel appareil (chacune couvrant environ 6 m2) il est possible d’établir des cartes en miniature de la configuration et des ondulations du fond sous-marin, dont les reliefs peuvent être établis à 0,5 cm près. La caméra fournit en outre des données précieuses sur la vie sous-marine jusqu’à 600 m de profondeur.
- L’Antarctique a été découvert un jour plus tôt !
- Les navires de la première expédition antarctique russe, le Vostok et le Mirny, se sont approchés pour la première fois des côtes de l’Antarctique non pas le 28 janvier 1820, comme on le croyait jusqu’à présent, mais un jour plus tôt. Cette précision vient d’être donnée par le docteur Mikhaïl Belov qui, en étudiant les cartes de l’expédition et les journaux de bord des navires, a découvert que sur le Vostok et le Mirny, de même que sur tous les navires russes de l’époque, le
- temps n’était pas déterminé de la manière qui nous est habituelle. Sur les navires, et cela depuis le règne de Pierre le Grand, on avait adopté des « jours marins » qui commençaient à midi et duraient jusqu’à midi le jour suivant. De plus on datait le jour dans sa deuxième moitié. De ce fait la différence entre les jours marins de la flotte russe et le temps astronomique moyen était de 24 heures. Le continent antarctique a donc été découvert le 27 janvier 1820 et non le 28.
- Diamants au fond de la mer
- Dans l’espoir de découvrir sur le plateau continental un vaste champ diamantifère, des travaux de prospection vont être entrepris dans quelques mois au large des côtes du Sud-Ouest Africain, sur une étendue de 800 km au nord de l’embouchure de la rivière Orange.
- Un remorqueur a déjà retiré 45 pierres, représentant un poids total de 9 carats, qui étaient dispersées au milieu de 4,5 tonnes de vase et de sable. Le fait qu’il y ait là des diamants étant ainsi démontré, il reste à faire la preuve que l’exploitation à grande échelle sera rentable.
- 333
- p.333 - vue 337/551
-
-
-
- En attendant la propulsion nucléaire ou électrique
- Les propergols pour fusées spatiales
- par Jacques Spincouvt
- La réalisation de fusées porteuses de plus en plus grosses, donc nécessitant une poussée de plus en plus élevée, pour les satellites et autres véhicules spatiaux, soulève l’un des problèmes techniques fondamentaux de l’astronautique : l’obtention de propergols de rendement élevé. A titre d’exemple, le véhicule américain « Saturne » qui doit être utilisé pour le lancement du satellite « Apollo » à trois passagers, destiné à l’exploration de la Lune, aura un premier étage d’une poussée de 588 t (fig. 1).
- Rappelons d’abord que l’on désigne par propergols les deux éléments d’un mélange propulsif, le comburant et le combustible. On sait qu’actuellement, malgré de nombreuses études menées dans des voies très diverses, toutes les applications pratiques sont limitées aux fusées chimiques, et c’est donc à celles-ci que nous nous limiterons dans le présent article. Elles peuvent prendre deux formes, celles qui utilisent des propergols liquides et celles qui utilisent des propergols solides.
- Pendant de nombreuses années, les propergols solides ont été réservés à des fusées de poids et de poussée faibles, telles que les fusées d’accélération au décollage pour avions, ou celles propulsant de petites roquettes lancées d’avions. Mais les études menées, principalement aux Etats-Unis, sur des propulseurs de grandes dimensions ont démontré que les progrès réalisés plaçaient les propergols solides sur un pied d’égalité avec les propergols liquides.
- Propergols chimiques classiques
- Si nous excluons l’eau oxygénée qui n’est pratiquement plus utilisée que pour produire de l’énergie de servitude (par exemple, production de jets gazeux pour les contrôles de position des satellites), les deux comburants pratiquement employés actuellement sont l’oxygènè liquide et l’acide nitrique. Le premier donne peut-être des impulsions spécifiques légèrement supérieures, mais il nécessite d’être conservé à des températures très basses, de l’ordre de -— 1900 C, et lorsqu’on cherche une simplicité de mise en œuvre, on s’adresse à l’acide nitrique qui donne de bons résultats en lui adjoignant comme combustible le kérosène, l’essence de térébenthine ou certains alcools. Toutefois, pour les lancements de fusées porteuses américaines utilisant des moteurs à liquides, l’oxygène liquide a été systématiquement employé. Il devient d’ailleurs indispensable
- pour les moteurs que l’on pourrait appeler « évolués », c’est-à-dire ceux qui utilisent comme carburant l’hydrogène liquide.
- La combinaison hydrogène liquide - oxygène liquide est une des plus exothermiques que l’on connaisse en chimie. La température de combustion est de 3 2500 C, et la vitesse des gaz atteint 3 570 m/s. Par suite, l’impulsion spécifique est de 364 secondes. (Rappelons que l’impulsion spécifique, grandeur qui caractérise l’efficacité d’un pro-pergol, est le rapport de la poussée exprimée en kilogrammes à la consommation spécifique exprimée en kilogramme par seconde; elle s’exprime donc en secondes.)
- Les problèmes posés par la conservation de l’hydrogène liquide sont évidemment encore plus grands qu’avec l’oxygène liquide, puisque sa température d’ébullition est de — 25 30 C, et d’autre part sa faible densité, qui n’est que de 0,07, nécessite des réservoirs très volumineux, donc lourds. Aussi les moteurs qui utilisent ces propergols sont-ils pour le moment limités aux étages supérieurs des fusées porteuses qui n’ont besoin que d’une poussée réduite par rapport à la poussée nécessaire au décollage. Pour le « Saturne » par exemple, l’hydrogène liquide intervient à partir du second étage, alors que le premier étage fonctionne avec de l’oxygène liquide et du kérosène.
- L’intervention du fluor
- Avec l’hydrogène et /oxygène liquides, on est en présence d’une des combinaisons les plus énergétiques de la chimie. On peut toutefois trouver encore mieux en s’adressant au fluor en lieu et place de l’oxygène. Il faut alors réviser toute la notion de comburant, que l’on associait jusqu’à présent à l’idée d’oxydant, et admettre qu’il peut s’agir là de corps contenant des éléments fortement électronégatifs, au premier rang desquels vient le fluor. C’est ainsi, à titre d’exemple, que la réaction fluor liquide - hydrogène liquide donnerait une impulsion spécifique de 373 secondes. Mais le fluor présente des difficultés très grandes de mise en œuvre : il est fortement corrosif, toxique et l’on préfère s’adresser à ses composés, comme la fluorine F20, ou certains halogénures de fluor : F3C1, F5 Br.
- On touche ici aux limites des propergols liquides, et ces réactions ne sont encore pour le moment étudiées qu’au stade du laboratoire.
- 334
- p.334 - vue 338/551
-
-
-
- Dans le même temps où l’on cherche à remplacer les comburants classiques à base d’oxygène, des combustibles nouveaux ont également été envisagés. Il s’agit des dérivés du bore et de ceux du lithium. Parmi les premiers, il faut mentionner les boranes, dérivés hydrogénés analogues aux hydrocarbures et dont les plus courants sont le diborane B2H6, le pentaborane B5H9, le décaborane B10H14. Après avoir donné beaucoup d’espoirs, ils semblent maintenant quelque peu tombés dans l’oubli, du fait d’une part de leur prix élevé, et d autre part des difficultés qu’on éprouve à en obtenir une bonne combustion. Les dernières perspectives d’amélioration restent donc liées au lithium qui, pour sa part, n’a pas encore fait l’objet de recherches très poussées.
- Les propergols solides
- Du point de vue de leur composition, les propergols solides appartiennent à deux catégories possibles, selon qu’ils sont constitués par un mélange homogène, ne formant qu’une seule phase, ou au contraire par un mélange hétérogène dans lequel le carburant et le comburant sont nettement séparés. Les premiers constituent les propergols colloïdaux et les seconds les propergols composites.
- Les propergols colloïdaux comprennent essentiellement un composé nitré à base de nitrocellulose et de nitroglycérine, cette dernière ne représentant jamais plus de 40 à 45 pour 100 du mélange. On y ajoute en faible proportion d’autres corps qui jouent le rôle de plastifiant et de stabilisant; ce sont le plus souvent des esters à poids moléculaire élevé.
- Les propergols composites, que l’on dés gne également couramment sous le nom de propergols à double base, se présentent sous la forme d’un mélange intime d’un carburant et d’un comburant solides. Leur ancêtre est la poudre noire bien connue, composée de soufre, de nitrate de potassium et de charbon de bois. Ces propergols composites sont actuellement les plus utilisés. Les comburants sont tous des sels de métaux alcalins, principalement des perchlorates qui sont pondéralement plus riches en oxygène; mais ces derniers donnent des produits de combustion contenant de l’acide chlorhydrique, donc assez corrosifs. La gamme des combustibles possibles est très étendue; ils doivent répondre à un certain nombre d’exigences de fabrication, telles que s’agglomérer au combu-
- Fig. 1. — L’un des huit moteurs à kérosène et oxygène liquide qui constituent le premier étage de la fusée Saturne.
- (Photos obligeamment communiquées par le Centre culturel américain).
- p.335 - vue 339/551
-
-
-
- p.336 - vue 340/551
-
-
-
- Fig. 2. — Le moteur de la photo précédente monté sur un banc de réglage de la poussée.
- On voit distinctement tout le faisceau de tuyauteries et d’accessoires.
- rant sans qu’il soit besoin de faire appel à des températures de cuisson élevées, et donner un bloc résistant bien aux chocs thermiques, c’est-à-dire aux brusques variations de température. Les plus courants sont les résines poly-vinyliques, le polybutadiène et les polysulfures.
- Qu’ils appartiennent à l’un ou l’autre type, les proper-gols solides se fabriquent soit par moulage, soit par filage à la presse, soit par coulage direct dans le corps du propulseur.
- Les impulsions spécifiques maximales que l’on peut atteindre sont de 200 secondes pour les propergols colloïdaux et de 230 secondes pour les propergols composites. En ajoutant à ces derniers de la poudre d’aluminium, les valeurs maximales se trouvent portées à 270 secondes, valeurs que l’on ne peut guère espérer dépasser. On pourra tout au plus espérer atteindre 300 secondes.
- Ce que nous venons de dire nous montre que le premier désavantage des propergols solides par rapport aux propergols liquides est le niveau plus faible de leur impulsion spécifique. Jusqu’à ces derniers temps, on devait mentionner également l’impossibilité de contrôler l’orientation du vecteur poussée qui, sur les moteurs à propergols liquides, était obtenu par rotation de la tuyère, alors que celle-ci est plus délicate à obtenir avec les propergols solides. Mais récemment, de nouvelles méthodes applicables à ces derniers ont été imaginées, notamment l’injection latérale dans la tuyère d’un liquide sous faible débit, ce qui crée une onde de choc asymétrique qui dévie les gaz d’échappement.
- En contrepartie, les propergols solides autorisent un moteur beaucoup plus simple puisqu’il n’y a plus besoin de pompes, d’iniecteurs et de toutes les tuyauteries inhérentes au fonctionnement d’un moteur à liquides, telles qu’on peut les voir sur la figure 2. Cette simplicité se traduit également par un rapport de masse bien meilleur (on désigne ainsi le rapport entre les masses de l’engin avant et après la combustion) et l’on sait que ce facteur régit directement les performances d’un engin spatial, notamment la vitesse de l’engin en fin de combustion, qui, toutes choses égales par ailleurs, est d’autant plus grande que le rapport de masse est plus élevé.
- D’autre part, la possibilité de réaliser maintenant des blocs de propergols solides segmentés n’impose plus aucune limite à la dimension des moteurs, donc à leur poussée. Les segments sont fabriqués et transportés séparément et ils sont assemblés sur le lieu même du lancement. Actuellement, on réalise des blocs de près de 3 m de diamètre, constitués de trois à quatre segments, mais des
- projets beaucoup plus ambitieux sont à l’étude, allant jusqu’à des diamètres de 10 m.
- Les propergols hybrides
- Devant les inconvénients et avantages respectifs des deux types de propergols, solides et liquides, on s’oriente maintenant vers une troisième classe, celle dite des propergols « hybrides », ou encore lithergols, dans lesquels l’un des constituants serait solide (c’est généralement le carburant) et l’autre liquide. De telles combinaisons souffrent évidemment, par rapport aux meilleurs propergols liquides, d’une impulsion spécifique plus faible, mais qui est déjà supérieure à celle des propergols solides. En contrepartie, ils présentent de nombreux autres avantages :
- — Simplification des circuits de pompage et d’injection puisqu’il n’y a plus qu’un seul liquide;
- — Possibilité de refroidir le col de la tuyère en faisant circuler le combustible dans une double paroi, ce qui n’est pas le cas des fusées à propergols solides pour lesquelles se posent de dé'icats problèmes de tenue des matériaux à la température;
- — Possibilité d’interrompre et de faire redémarrer à volonté la combustion, simplement en fermant et en ouvrant la vanne qui commande l’arrivée du comburant liquide au milieu du bloc de combustible solide.
- Cette nouvelle classe de propergols réalise en quelque sorte un bon compromis entre les deux précédentes, et elle est particulièrement à l’ordre du jour en ce moment.
- Parmi les comburants liquides sur lesquels portent les recherches, citons : le trifluorure de chlore F3C1 qui bout à 11,3° C et fond à — 83° C, l’eau oxygénée, et le peroxyde d’azote N204 qui bout à 210 C et fond à — 9,3° C.
- Parmi les carburants solides qui peuvent leur être associés, on trouve : le polyéthylène (CH2)«, du caoutchouc renforcé par de l’aluminium, les hvdrures de titane TiH2, de zirconium ZrH2 et de béryllium BeEl2. Par exemple, la combinaison N204 — BeH2 conduit à une impulsion spécifique de 450 secondes, et la combinaison C1F3 — caoutchouc aluminisé à une impulsion spécifique de 272 secondes.
- La plus grande partie de ces recherches sont encore couvertes par un secret rigoureux. En France, l’O.N.E.R.A. a mené, en collaboration avec la S.E.P.R., des études qui ont abouti à la réalisation d’une fusée de 1 800 kg de poussée.
- Tel est le point de l’évolution des fusées à propergols chimiques. Pour obtenir des impulsions spécifiques beaucoup plus grandes, il faut s’adresser d’abord à la propulsion nucléaire, puis à la propulsion électrique, sur lesquelles nous aurons l’occasion de revenir.
- Jacques Spincourt.
- Une balise de radio-navigation aérienne à transistors
- Une firme australienne vient de mettre au point et d’installer la première balise de radio-navigation aérienne transistorisée. Sa consommation est suffisamment faible pour permettre l’utilisation de batteries, rechargées par un générateur éolien. D’autres pays, comme le Canada,
- l’Espagne et l’Argentine, s’intéressent à cette innovation qui paraît devoir trouver un champ d’application sur les terrains dont le trafic est trop peu important pour justifier les frais d’une installation traditionnelle. (Information de VAmbassade d'Australie).
- 337
- p.337 - vue 341/551
-
-
-
- Un chapitre
- des « merveilles du froid »
- La lyophilisation des produits organiques
- par C.-G. Nordau
- L’exposition du Palais de la Découverte, « Le Froid et ses Merveilles », qui restera ouverte jusqu’à la fin de ce mois d’août, nous montre toute l’étendue des applications du froid. Nous le voyons à l’œuvre dans les sciences fondamentales et dans l’industrie : en physique et en chimie, en électronique, dans les fusées spatiales... Nous le retrouvons, plus familier, dans la conservation des denrées périssables et dans la climatisation. Puis s’ouvre, après les stands pittoresques consacrés aux expéditions polaires, la section de biologie, où le froid est considéré dans son action sur les végétaux et les animaux. Dans cette dernière partie, au delà de la salle d’opération et des panneaux explicatifs qui illustrent les problèmes de l’hypothermie, après l’expérience étonnante qui montre comment il est possible de conserver un cœur d’embryon de poulet vivant aux très basses températures, arrêtons-nous devant les appareils de lyophilisation.
- Parmi les nombreuses applications du froid en biologie, il en est une en effet qui prend de plus en plus d’importance, à la fois par les domaines auxquels elle s’étend, par les problèmes fondamentaux qu’elle soulève et par les perspectives qu’elle offre : c’est la lyophilisation. Ce procédé de conservation des produits d’origine biologique permet de les garder intacts, dans des conditions très simples, pendant un temps en principe indéfini. La lyophilisation, dont le principe a été découvert dès 1906 par les physiciens français Bordas et d’Arsonval, puis retrouvé indépendamment, trois ans plus tard, par le biologiste américain Shac-kell, n’a pris son véritable essor qu’à la fin de la deuxième guerre mondiale. Des horizons nouveaux se sont ouverts en médecine, en pharmacologie, jusque dans l’industrie alimentaire : on s’efforce, aujourd’hui, de mettre au point la lyophilisation des légumes et de la viande comme, hier, celle des os et des fragments de peau destinés aux greffes, du plasma sanguin, des extraits de glandes, des antibiotiques, des vaccins... On pourrait presque demander : que ne lyophilise-t-on pas ? Des souches de bactéries peuvent maintenant être conservées de cette manière; on parvient à préserver non seulement leurs caractères physiques et chimiques, mais même leur vie à l’état latent, de façon à les faire « ressusciter » au moment voulu.
- Seuls des microorganismes et des virus survivent à présent à la lyophilisation. Est-il possible de franchir le
- fossé qui sépare ces êtres primitifs des animaux supérieurs ? Aux yeux de certains biologistes, le moment n’est pas loin où on aura trouvé le moyen de lyophiliser des tissus animaux de façon qu’ils restent vivants. Une lyophilisation habilement perfectionnée permettra-t-elle ensuite de conserver vivants, fonctionnels, des organes entiers, et enfin des organismes complexes ? Pourra-t-on un jour suspendre complètement la vie d’un mammifère et, en particulier, de l’homme, pour le ressusciter au moment voulu ? La réponse, aujourd’hui, est négative; mais la question est posée et le « non » qu’on rétorque est nuancé de quelque espoir lointain.
- La lyophilisation, telle que l’a définie le biologiste et biophysicien Louis Rey, secrétaire général de l’Exposition, « consiste en une dessiccation effectuée à basse température à partir de spécimens congelés et obtenue en sublimant la glace sous pression réduite». Ce procédé est appelé aussi cryodessiccation. Elle a pour but d’extraire d’un produit l’eau qu’il contient et qui a d’abord été solidifiée par la congélation. La glace doit être sublimée, c’est-à-dire transformée directement en vapeur; à aucun moment au cours de la lyophilisation l’eau ne doit apparaître à l’état liquide.
- L’eau liquide, en effet, est en grande partie responsable des altérations qui surviennent dans les substances biologiques conservées. L’eau liquide est le milieu dans lequel ont lieu les réactions biochimiques à l’intérieur des organismes. L’eau est partie intégrante de leur structure : eau de constitution des colloïdes qui composent les cellules, eau libre des solutions aqueuses diluées qui les baignent; c’est grâce à sa présence que les échanges, les transferts et les interactions physicochimiques nécessaires à la vie sont possibles.
- Les substances biologiques vieillissent et se dégradent, même en l’absence de toute attaque par des microorganismes. Si on veut les conserver, il faut arrêter leurs transformations chimiques. Le froid ralentit les réactions chimiques; en général, leur vitesse diminue d’environ une fois et demie chaque fois qu’on abaisse la température de 10 degrés (c’est ce qu’exprime la loi de Van t’Hoff). Cependant, même à des températures très basses par rapport à celles où s’accomplissent le mieux les réactions biochimiques, une activité, bien que réduite, persistera. Elle ne cessera qu’à partir du moment où les réactifs seront séparés du milieu où ils peuvent réagir, c’est-à-dire lorsqu’on aura supprimé l’eau liquide que contient la substance organique à conserver.
- 338
- p.338 - vue 342/551
-
-
-
- Fig. i. — Le stand de la lyophilisation à l’Exposition « Le Froid et ses Merveilles », au Palais de la Découverte, à Paris.
- Différents appareils à lyophiliser sont présentés.
- {Photo C.I.F.).
- A première vue, il y a pour cela deux moyens. L’un, c’est la dessiccation simple. On peut laisser l’eau du produit s’évaporer à la température ambiante; mais, même en activant cette évaporation par divers artifices, elle prend assez de temps pour que la plupart des substances aient perdu les propriétés qu’on désire leur conserver. Les chauffer pour vaporiser l’eau provoque presque toujours leur dénaturation.
- Un second moyen d’extraire l’eau est la congélation : elle emprisonne l’eau sous forme de cristaux de glace pure qui se séparent à partir des solutions. Si l’on pousse la température suffisamment bas, toute la matière biologique se retrouve finalement solidifiée par le froid, immobilisée. Le froid a donc une double action : ralentir les réactions biochimiques ; placer les réactifs dans des conditions physiques où ils ne peuvent plus réagir entre eux. Ces deux effets s’entremêlent au cours de la congélation des substances d’origine biologique.
- A des températures très basses, à — 196° C par exemple, température de l’azote liquide couramment utilisé pour les recherches sur la congélation, une substance biologique solidifiée par le froid, disons un tissu animal, conserve indéfiniment une structure immuable. On sait l’amener à cette température sans qu’elle subisse de dommages. Mais, à la moindre défaillance dans le maintien du froid, les transformations physiques et chimiques recommencent et la substance s’altère. Le problème se pose particulièrement dans le cas des greffons : on n’est jamais à l’abri d’une irrégularité dans la température de stockage et le transport jusqu’à l’utilisateur soulève des difficultés sérieuses.
- La lyophilisation a permis de conserver les avantages de la congélation sans en subir les servitudes. Une fois l’eau isolée sous forme de cristaux de glace, on la fait passer directement à l’état de vapeur, à basse température, pour la retirer définitivement. Le matériel déshydraté, main-
- tenu dans un récipient étanche, peut alors en principe se conserver indéfiniment, insensible aux conditions extérieures. Dans la pratique, les durées de conservation se chiffrent par dizaines d’années, pour des environnements variables dans de très larges limites.
- Au moment où on veut s’en servir, on rend au produit l’eau qu’on lui avait enlevée. Elle est absorbée presque instantanément. La substance desséchée est en effet lyophile, c’est-à-dire « amie des solvants ». Le mot semble avoir été inventé aux Etats-Unis, vers 1939.
- La congélation préalable
- La possibilité de conserver un produit intact dépend d’abord de la façon dont il a été congelé. L’analyse précise des phénomènes de congélation et leur interprétation sont dues à un ensemble de recherches faites depuis 1954 par le professeur Rey. Elles ont dégagé une théorie de l’action du froid sur les substances biologiques et permis la mise au point de techniques rationnelles de lyophilisation. Toute une école est née de ces travaux. C’est à eux que nous nous référerons pour expliquer les transformations qui se produisent au cours de la congélation, en particulier telles que M. Rey les a exposées dans son Traité de lyophilisation (1).
- Il faut de préférence congeler le spécimen à basse température, bien au-dessous du point de congélation des solutions qu’il contient. Un exemple peut nous aider à en comprendre la raison. Que se passe-t-il quand on refroidit lentement une solution aqueuse de chlorure de sodium à
- 1. Traité de lyophilisation, par Louis Rey et collaborateurs. Préface de P. Hau-duroy. 1 vol. 18 X 25, 416 p., 207 £ig. Hermann, Paris, 1960. Prix: 90 NF. Voir aussi : Conservation de la vie par le froid, par Louis Rey, i vol. 17,5 X 24, 180 p., 84 fig. Hermann, Paris, 1960. Prix: 15 NF.
- 339
- p.339 - vue 343/551
-
-
-
- dix pour mille (les concentrations des solutions salines dans le matériel biologique sont en général du même ordre) ?
- Cette solution ne commence pas à cristalliser à o° C, mais à — o°,5, puisque la présence de sels dissous abaisse le point de congélation. Puis des cristaux de glace pure se séparent dé la solution tandis que la cencentration du sel dans le liquide ne cesse d’augmenter; vers — 6°, il y a 90 pour 100 de glace et 10 pour 100 de solution saline dont la concentration est dix fois plus forte qu’au départ. Puis, à — 2i°,3, la solution résiduelle cristallise brusquement sous forme d’un mélange de cristaux de glace et d’hydrate de chlorure de sodium (NaCl, 2H2O) où l’eau de cristallisation se trouve incorporée au sel anhydre; c’est ce qu’on appelle un mélange eutectique (fig. 2).
- CINa p. 1000
- ,100 p 100
- Glace
- Formation de l'eutcctiquc
- Solution
- Fig. 2. — Diagramme de cristallisation d’une solution à dix pour mille de chlorure de sodium dans l’eau distillée.
- • ^
- (D’après L. Rey, Traité de lyopbiluaiimtfYit.rcoa.w2, Paris).
- Dans un fragment de tissu animal, les choses se passent moins simplement. Il y a d’abord retard à la cristallisation; les interstices entre les cellules, la structure interne de celles-ci, avec ses vacuoles et ses systèmes colloïdaux, offrent autant de pièges où les liquides sont maintenus prisonniers. La liberté de mouvement de leurs molécules est entravée, elles ne peuvent se regrouper pour former des cristaux. Il y a surfusion. On peut descendre loin au-dessous de la température normale de congélation des liquides organiques sans qu’ils cristallisent. La surfusion, état éminemment instable, se termine, sous l’effet d’un choc ou de l’introduction d’un germe cristallin, par une cristallisation très brutale. Ces cristaux de glace seront d’autant plus nombreux et plus petits que la température où ils se forment sera plus basse.
- Au cours d’un refroidissement lent, tandis que la glace pure se forme dans les espaces intercellulaires et à l’intérieur des cellules, celles-ci sont soumises d’une part à la pression mécanique des cristaux, d’autre part à la pression osmotique due à la concentration des solutions résiduelles. Les sels minéraux et les colloïdes organiques s’y trouvent très fortement concentrés. Les édifices colloïdaux se désagrègent, les macromolécules organiques précipitent; le choc osmotique entraîne la dénaturation des constituants cellulaires et des altérations irréversibles.
- Des phénomènes de surfusion abaissent également la température eutectique. La complexité des solutions que contient la matière vivante fait que cette température n’est plus définie par un « point d’eutexie » mais par une « zone d’eutexie ». Ce ne sont d’ailleurs pas de véritables eutec-tiques qui se forment dans les tissus ou dans les extraits organiques congelés, mais un mélange de cristaux et de composés colloïdaux devenus rigides à partir d’une certaine température.
- Si on tente de lyophiliser un produit à une température insuffisamment basse, avant que l’eutectique ne se soit formé, les résidus liquides vont entrer en ébullition brusque sous l’effet du vide (le point d’ébullition est d’autant plus bas que la pression est plus faible). De la mousse se forme, la substance est partiellement décomposée, dénaturée. La première condition d’une bonne lyophilisation, c’est donc de porter le produit à une température telle qu’il soit entièrement solidifié. Dans de nombreux cas, la zone d’eutexie est située entre — 200 et —450 C. En tenant compte de la surfusion, il faudra congeler à une température très inférieure. Mais on pourra ensuite, pour un grand nombre de produits même fragiles, remonter jusque dans la zone d’eutexie. En effet, une fois l’eutectique formé, il ne fondra qu’à la température normale d’eutexie; au cours du réchauffement, les changements d’état ne subissent pas de retard.
- La zone de températures la plus dangereuse pour le produit à congeler est celle qui précède la formation des eutectiques. Il faut la traverser le plus vite possible, donc abaisser la température rapidement. Cette congélation rapide a un second avantage. Elle favorise la formation de multiples germes cristallins et de nombreux cristaux de glace très petits, texture qui ne risque pas de disloquer la structure cellulaire et qui est la mieux indiquée pour la reconstitution du produit au moment de son utilisation.
- Vitrification ou liquide protecteur
- Cette première étape, la congélation, est déterminante non seulement pour la conservation de la structure d’un produit et de ses qualités, mais aussi pour la survie cellulaire.
- La congélation simple, même rapide, est fatale aux cellules. N’échappent dans une certaine mesure à cette règle que des cas très particuliers, parmi lesquels on peut citer des souches de cellules cancéreuses, quelques bactéries, ou bien des animaux très primitifs comme les Tardigrades qui, dans la nature, survivent. à une dessiccation complète, et peuvent aussi supporter sans dommage dans cet état la température de l’azote liquide. A la limite du règne vivant, certains virus peuvent résister, eux aussi, à une congélation conduite sans précautions spéciales. Ces types mis à part, l’expérience a montré qu’il y avait une seule alternative pour conserver aux cellules la possibilité de survivre.
- On peut, et ce fut, historiquement, la première méthode employée, congeler le tissu vivant si rapidement que sa température s’abaisse de plusieurs centaines de degrés en une fraction de seconde, pour atteindre la température de l’azote liquide (— 196° C). Dans ce cas, aucun cristal ne se forme : le tissu se vitrifie entièrement; il se fige en quelque sorte. Il faut ensuite le maintenir dans cet état vitrifié, qui dépend très étroitement de la moindre varia-
- 340
- p.340 - vue 344/551
-
-
-
- Fig. 3- — Images successives de la congélation d’une cellule vivante isolée et du dégel lent de la même cellule.
- Grâce au dispositif spécial mis au point par M. Louis Rey, cette cellule, cultivée directement sur la lame de verre du porte-objet, a pu être congelée et dégelée sous le microscope. Contraste de phase, X 560. En A, la cellule vivante à la température normale (+ 20 °C). En B, refroidie à — 180 C; on voit que de nombreux petits cristaux se sont formés, très régulièrement répartis, aussi bien dans la cellule que dans le liquide environnant. Au-dessous de — 20° la croissance des cristaux continue faiblement pour s’arrêter entre — 30° et — 450 (zone d’eutexie); en C, à — 15 30 C, on ne constate pas de changements notables. Au cours du réchauffement de la cellule, dès la température de — 50°, de grands cristaux commencent à se former aux dépens des petits. En D, à — 20°, le phénomène est devenu très visible. Des solutions hypertoniques ont envahi les espaces intercristallins. En E, à -f 50, tous les cristaux ont fondu, le cytoplasme est disloqué, la cellule est morte.
- (.Photos extraites de Louis Rey, Traité de lyophilisation,
- Hermann, Paris, avec T amiable autorisation de l’éditeur).
- 341
- p.341 - vue 345/551
-
-
-
- tion de température; puis, pour ramener le tissu à la vie, il faut le dégeler aussi rapidement qu’on l’a congelé. Cette méthode, due au biologiste américain Basile Luyet, n’est applicable qu’à des fragments, de tissu de l’ordre du millimètre et ceci, joint à la sévérité des conditions thermiques qu’elle impose, l’a empêchée, jusqu’à présent, d’avoir des applications pratiques étendues.
- La seconde méthode pour conserver la vie aux très basses températures consiste en l’adjonction d’un liquide protecteur. Après différentes tentatives, guidées par l’idée de déshydrater partiellement les cellules pour éviter les méfaits de la formation de la glace, un liquide efficace fut découvert : c’est le glycérol (ou glycérine). Dès 1946, Jean Rostand, le premier, mit en évidence l’effet protecteur d’une imprégnation par une solution de glycérol avant la congélation. Cette propriété fut redécouverte indépendamment trois ans plus tard par des chercheurs anglais, Parkes et ses collaborateurs, qui ignoraient l’existence des recherches françaises. Quelques années après, par une très belle série d’expériences, Louis Rey élucida en détail le rôle du glycérol et détermina les concentrations optimales, variables selon le tissu. Finalement, il congela à — 196° C un cœur d’embryon de poulet imprégné d’une solution de glycérol à 30 pour 100. Décongelé rapidement et mis en culture, le cœur se remit, au bout de quelques heures, à battre normalement. Cette expérience, qui date de 1958, a été répétée à l’exposition du Palais de la Découverte. Grâce à toutes ces recherches, il était devenu possible de faire survivre aux très basses températures non seulement des cellules isolées ou des tissus, mais un organe entier. Là encore, un dégel rapide est nécessaire pour conserver aux cellules leur intégrité et les voir reprendre vie. Un dégel trop lent s’accompagne d’un remaniement des cristaux de glace et d’une hyperconcentration momentanée des solutions (fîg. 3).
- Malheureusement, le glycérol est inutilisable en lyophilisation. On ne parvient pas à le sublimer. Les recherches se sont orientées vers d’autres produits, comme le mé-thanol, bon protecteur qui cependant devient toxique, par hyperconcentration, au-dessous de — 400 C. La protection des microorganismes pose un problème à part. La lyophilisation, nous le verrons plus loin, impose encore d’autres conditions à la conservation de la vie. Aujourd’hui, la congélation préalable ne peut encore viser qu’à maintenir intactes la structure et les propriétés chimiques du produit.
- Une dernière remarque à propos de la congélation : il ne suffit pas qu’un spécimen soit entièrement solidifié pour qu’aucun changement de structure ne s’y produise plus. Alors qu’extérieurement il paraît immuable, il s’y produit intérieurement, jusqu’aux abords de la température de l’azote liquide, des regroupements moléculaires décelables seulement par des méthodes d’analyse très précises. Ainsi 1 ’ analyse thermique différentielle aux basses températures, mise au point par Louis Rey (fig. 4 et 5), a permis d’apprécier les transformations des zones du spécimen qui ont pu être vitrifiées au cours d’une congélation rapide dans l’azote liquide. Si la température remonte aux alentours de — 1300 C, le verre-solide se change en verre-liquide surfondu, qui ensuite cristallise brutalement. A la faveur d’un léger réchauffement progressif, les minuscules cristaux de glace se réunissent en cristaux plus grands. Comme l’a montré le biophysicien américain Meryman par ses observations au microscope électronique, cela s’accomplit très lentement à —• ioo° C, mais déjà beaucoup plus vite vers —- 700, puis de plus en plus rapidement, et la structure fine du spécimen risque d’être altérée. Dans la pratique courante, on n’a pas besoin de tenir compte de cette « recristallisation migrante », mais un histologiste qui désire conserver intacts tous les détails d’un tissu devra le lyophiliser à — ioo° ou même plus bas.
- Galvanomètre à haute sensibilité
- Lampe-spot fC—^
- Sonde 4 (solution étudiée)
- Sonde 6 (solution de référence)
- Echelle de lecture
- Alternostat commandant le chauffage
- Enceinte isotherme contenant les soudures de jonction entre les fils des thermosondes et les fils du galvanomètre
- Enregistreur
- automatique
- "*" \ ' r’^Sonde 5 : solution témoin
- \ 'Sonde 3 : solution étudiée Sonde 2 : pièce métallique centrale Sonde 1 : pièce métallique périphérique
- Cellule d’étude dans le bain réfrigérant
- Spirale chauffante
- Fig. 4. — Montage utilisé pour l’analyse thermique directe et différentielle de solutions congelées.
- L’analyse thermique différentielle consiste à mesurer la différence de température entre le système à étudier et une solution de référence, tous deux contenus dans une enceinte métallique spéciale. La mesure est faite à l’aide d’un galvanomètre très sensible, qui permet d’apprécier des différences de 0,004° C. Les divers phénomènes thermodynamiques et structuraux se traduisent par des accidents caractéristiques de la courbe de température (fig. 5). Les renseignements ainsi recueillis sur les transformations d’un produit, principalement au cours du réchauffement, seront mis à profit dans la conduite de sa lyophilisation.
- (Figure extraite de L. Rey, Conservation de la vie par le froid, Hermann, Paris).
- 342
- p.342 - vue 346/551
-
-
-
- & t
- - 2.0'
- 120 niinutes 2 heures
- Fig. J. — Exemple d’analyse thermique différentielle d’une solution physiologique.
- Une solution physiologique tamponnée (liquide d’Earle contenant 50 p. 100 de glycérol) a été congelée rapidement (10 minutes) dans l’a2ote liquide et réchauffée progressivement La courbe donne l’évolution de la différence de température entre la solution étudiée et une solution de référence. Après une transformation vitreuse à —H7°C, 3a solution présente un phénomène de dévitrification à — 105° C; on trouve ensuite une cristallisation exothermique d’eau cubique en eau hexagonale (— 86° C) puis le début de fusion de l’eutec-tique glycérol-eau à — 58°, jusqu’à la fusion finale à — 28°.
- (D’après L. Rey, op. cit.)
- Dessiccation sous pression réduite
- Fis- 7* — Un appareil à lyophiliser.
- {Photo C.I.F.).
- Le produit déjà congelé est maintenant placé dans l’appareil où il va être lyophilisé. Le principe de l’opération est relativement simple.
- La figure 7 nous montre le schéma théorique d’un lyo-phüisateur. A est la chambre de dessiccation, où est placé le spécimen. Cette chambre A est reliée à ce qu’on appelle le condenseur (B). Une pompe fait le vide dans tout l’appareil.
- Fig. 6. — Schéma
- d’un appareil à lyophiliser.
- Explications dans le texte.
- Glace de
- Substance
- con de nsat<on
- sèche
- Interface
- 1 p, r 1
- Spécimen
- congelé
- Le vide établi, déconnectons la pompe, pour nous rendre compte d’abord des conditions qui régnent quand l’appareil constitue un système clos. Le spécimen est, par exemple, une solution aqueuse congelée, portée à — 400 C. A cette température, la tension de vapeur de la glace a une valeur déterminée. Les molécules d’une substance, quel que soit son état physique, ont une certaine énergie qui leur donne tendance à s’échapper, à s’évaporer; cette tension de vapeur est d’autant plus faible que la substance est plus froide et donc que ses molécules possèdent moins d’énergie. Si la substance s’évapore dans un espace vide, il finit par s’établir un équilibre; quand un certain nombre de molécules se sont échappées, les suivantes entrent en collision avec elles, et les surnuméraires sont renvoyées sur la surface de la substance. A partir d’un moment donné, pour chaque molécule qui s’échappe, une autre s’en retourne : l’espace au-dessus de la substance contient de la vapeur saturante. La pression de vapeur saturante dépend d’une part de la température et d’autre part, bien entendu, de la nature de la substance. La pression qui règne dans la chambre A quand le système, mis sous vide, est clos, est celle de la vapeur saturante de la glace à — 400.
- Maintenant, si nous branchons de nouveau la pompe et si nous nous arrangeons pour qu’elle maintienne dans v‘de l’appareil une pression toujours inférieure à celle de la vapeur saturante de la glace, ce vide provoque un « appel » de molécules et la glace s’évapore lentement. La solution congelée va donc se dessécher peu à peu.
- 343
- p.343 - vue 347/551
-
-
-
- Mais on ne peut pas faire évacuer la vapeur par la pompe. En dehors des troubles de fonctionnement que causerait son passage, la vapeur pose un problème de volume : pour une pression ambiante d’un dixième de millimètre de mercure, qui est encore dix fois plus forte que celle qui est maintenue dans la plupart des lyophilisateurs, un litre d’eau, une fois vaporisé, occupe dix mille mètres cubes... Et un lyophilisateur de capacité moyenne doit vaporiser une dizaine de litres d’eau.
- Aussi place-t-on sur le trajet de la vapeur un « piège froid», une paroi froide maintenue à une température telle que la vapeur s’y recondense directement en glace. Ce condenseur va imposer de nouvelles conditions.
- Pour que la vapeur d’eau se condense en givre sur le piège, celui-ci doit être porté à une température où la tension de vapeur de la glace est faible devant la pression qui règne dans l’appareil; il sera ici, par exemple, à — 6o°. Au contact de cette source de froid, les molécules de vapeur perdront brusquement beaucoup d’énergie; elles ne pourront plus ni concurrencer celles, plus énergiques, qui remplissent l’appareil, ni se maintenir libres et isolées les unes des autres, ni même conserver le degré de mobilité qu’elles ont dans un liquide. Elles se réuniront pour former des cristaux. Bien entendu, si on augmente la valeur du vide dans l’appareil, jusqu’à ce que la pression y tombe au-dessous de la tension de vapeur de la glace à — 6o°, le givre du condenseur va se sublimer à son tour. La température du condenseur assigne donc une limite au vide qu’on peut atteindre dans l’appareil.
- La différence de tension de vapeur entre la glace de la solution à lyophiliser et celle qui est condensée sur le piège, exprimée plus commodément par la différence de température entre spécimen et condenseur, est un des facteurs déterminants de la vitesse de la dessiccation.
- Selon la valeur du vide, la vapeur d’eau s’échappe du spécimen en un flot qui diffuse vers le condenseur (pour des pressions de 0,1 à 0,01 mm de mercure) ou bien par molécules nettement isolées (au-dessous de 0,001 mm de mercure; à cette pression, le libre parcours moyen d’une molécule de vapeur est de l’ordre de 5 cm, tandis qu’à la pression atmosphérique normale il n’est que de 0,05 micron). La place et la forme du condenseur doivent être choisies en conséquence.
- Nécessité paradoxale : chauffer
- Nous venons de mettre en marche le lyophilisateur. A la surface de la solution, la glace commence à se sublimer. La formation de cette vapeur consomme une certaine quantité de chaleur, la chaleur latente de vaporisation de la glace. L’émission de vapeur va donc refroidir la surface où a lieu la sublimation; si rien ne vient compenser cette perte de chaleur, il arrivera un moment où la température sera si basse que la sublimation de la glace se fera alors à une vitesse insignifiante. Il faut donc, bien que cela semble paradoxal, chauffer la solution congelée pour la maintenir à température constante, ici de — 400. L’apport de chaleur nécessaire a été déterminé : il est égal à la chaleur latente de vaporisation de la glace à la température considérée.
- Une zone desséchée, souvent plus claire que le reste du
- spécimen, se forme à la surface, s’étend en profondeur, tandis que le niveau où a lieu la sublimation s’enfonce de plus en plus. La vapeur aura à traverser une couche desséchée de plus en plus épaisse. Cette couche est finement poreuse; chaque cristal de glace disparait en laissant un vide, et celui-ci est microscopique si la congélation a été bien conduite.
- Au passage, une certaine quantité de vapeur montant des profondeurs sera reprise, adsorbée sur le matériel sec; la présence des nombreux pores donne une surface adsor-bante considérable. Pour retirer ces dernières traces d’eau fortement retenue, il faut souvent, dans la pratique, autant d’heures que pour sublimer toute la glace du spécimen. On a avantage à lyophiliser des spécimens présentant un développement de surface libre important par rapport à leur volume, de façon à faciliter au maximum l’évaporation.
- Quant au chauffage, il pose un gros problème. Du fait du vide, il est très difficile de chauffer uniformément le spécimen; il est séparé de la source de chaleur par une série de parois et de couches plus ou moins bonnes conductrices (verre du récipient, etc.). Lui-même ne laisse pas passer la chaleur avec une égale facilité à travers ses différentes zones. Ce qu’il faudrait en réalité chauffer, c’est uniquement la surface où a lieu la sublimation; dans la pratique, c’est impossible. La chaleur doit soit passer à travers la zone congelée, où des fusions risquent de se produire dans les régions proches de la source chaude, soit traverser la couche desséchée, qui risque d’être surchauffée en surface; or il existe une limite à ne pas dépasser sous peine de voir le produit, même sec, se dénaturer. Les risques de fusion localisée sont particulièrement grands vers la fin de l’opération, où il reste peu de glace à sublimer et où l’épasse zone desséchée fait obstacle au départ de la vapeur, donc de la chaleur.
- D’où la nécessité d’adjoindre aux systèmes de chauffage des moyens de contrôle très sûrs, précis, rapides. L’autorégulation, l’asservissement automatique du chauffage à des variations mesurées sur le spécimen, a dernièrement transformé les conditions de sécurité de la lyophylisation et a aussi fortement augmenté son rendement.
- A la fin de la dessiccation primaire, lorsque toute la glace est sublimée, la température du spécimen remonte jusque vers -f- 300 C. On limite le chauffage et on procède à une dessiccation secondaire pour enlever les dernières traces d’eau qui sont restées liées au produit. Elle se fait soit encore à l’aide du condenseur, soit avec une puissante pompe à diffusion, le volume de vapeur à éliminer étant alors suffisamment faible. Le taux d’humidité résiduelle a une grande importance et son optimum varie selon les substances.
- Avant de sceller le spécimen dans son récipient étanche, on introduit dans le lyophilisateur un gaz sec pour « casser » le vide; c’est souvent de l’azote, gaz inerte, au lieu d’air qui risquerait à la longue d’oxyder certains produits. Enfin, dernière étape, le flacon, contenant du gaz sec ou de nouveau mis sous vide, est hermétiquement bouché. C’est généralement au moyen d’une aiguille et d’une seringue qu’à travers le bouchon, on injectera au moment voulu la quantité d’eau nécessaire pour reconstituer le produit tel qu’il était à l’origine.
- (à suivre) Claudy-Gabrielle Nordau.
- 344
- p.344 - vue 348/551
-
-
-
- La « trophallaxie » des fourmis étudiée par les radioisotopes
- On sait que les sociétés supérieures d’insectes telles que celles des fourmis, des termites et de l’abeille domestique sont des groupements familiaux dont tous les individus descendent d’un couple fondateur. Ces sociétés sont « fermées », c’est-à-dire qu’elles ne tolèrent pas la présence en leur sein d’individus appartenant à d’autres sociétés. En outre, il existe dans une fourmilière, une termitière ou une ruche une interattraction très grande entre les divers individus. Cette interattraction se manifeste en particulier par l’échange d’aliments partiellement digérés qui sont régurgités et offerts à un autre insecte de la société. Ce phénomène, connu sous le nom de trophallaxie, a été récemment étudié chez les fourmis à l’aide d’éléments radioactifs (K. Gôswald et W. Kloft, Fntomophaga, i960; R. Chauvin, G. Courtois et J. Lecomte, Insectes sociaux, 1961).
- Les fourmis étudiées appartiennent à diverses espèces du genre Formica. Ces fourmis construisent, en forêt, des fourmilières souvent volumineuses constituées par l’accumulation de brindilles, d’aiguilles de Conifères et de feuilles d’arbres divers. Le tube digestif de ces fourmis comprend dans sa partie antérieure un renflement, appelé proventricule, contenant des aliments partiellement digérés qui sont régurgités lors de la trophallaxie.
- Gôswald et Kloft ont employé du phosphore radioactif (32P) pour étudier les échanges de liquide proventriculaire entre les ouvrières de Formica. Ces auteurs ont expérimenté au laboratoire sur de petits groupes de fourmis réunis dans une enceinte de faibles dimensions. A une température optimale de 24 à 26°, le contenu du proventricule d’une ouvrière est réparti entre 80 autres. En premier lieu l’ouvrière nourrit directement 6 à 8 ouvrières; celles-ci nourrissent secondairement les autres. Les mâles et les femelles ailées ainsi que les femelles qui ont perdu leurs ailes prennent aussi une part active à la distribution. L’emploi de phosphore radioactif a permis de montrer qu’en présence d’un nombre suffisant d’ouvrières, les reines et les larves sexuées ne sont pas nourries de liquide proventriculaire mais exclusivement de liquide salivaire. On supposait déjà qu’il existait différents modes d’échanges chez les fourmis; c’est la première fois qu’ils ont été rigoureusement démontrés par une étude expérimentale.
- En outre, Gôswald et Kloft ont aussi montré la possibilité d’échanges de nourriture entre trois espèces de fourmis : Formica polyctena, F. rufa et F. pratensis.
- Ces travaux ont été repris par R. Chauvin et ses collaborateurs qui ont travaillé dans une forêt de l’Ouest de la France, sur un nid de Formica polyctena comprenant plus
- d’un million d’individus et dont les pistes dépassaient 200 mètres de longueur. Aux alentours existaient des nids de Formica rufa dont certains n’étaient situés qu’à 60 mètres seulement. Le marquage des fourmis a été fait avec une solution colloïdale contenant 50 millicuries d’or radioactif (i58 Au) mélangée à 50 cm3 d’une solution sucrée très épaisse. Cette solution a été versée sur la fourmilière le 15 mai 1961 vers 16 h 30. Le « bruit de fond» des fourmis (c’est-à-dire, en l’espèce, la radioactivité naturelle des insectes) a été mesuré avant le marquage avec un scintillomètre très sensible ; il était de 300 à 350 coups par minute. Cette radioactivité spontanée des fourmis semble bien être due à l’isotope naturel du potassium de poids atomique 40. Des études sont actuellement en cours pour vérifier cette hypothèse.
- La répartition de l’or radioactif qui a été versé sur la fourmilière se fait peu à peu, mais l’inégalité d’absorption est très marquée entre les différentes fourmis. Il faut remarquer que cette inégalité d’absorption de la nourriture paraît très fréquente chez les insectes sociaux. Elle a déjà été démontrée chez l’abeille. L’activité radioactive des fourmis est interne et elle est localisée pour plus de 99 pour 100 dans l’abdomen. Il est donc probable que si le corps des fourmis est souillé d’isotope lorsqu’elles absorbent la solution sucrée, les activités de léchage si fréquentes chez F. polyctena aboutissent très vite à emmagasiner tout l’or radioactif dans l’intestin. Les matériaux des pistes des fourmis eux-mêmes ne sont pas radioactifs.
- Mais le point le plus intéressant a été la découverte d’une faible activité radioactive dans trois fourmilières de Formica rufa situées à une cinquantaine de mètres. Il y a donc transmission de la radioactivité d’une espèce à l’autre, dans la nature. On pourrait expliquer ce fait par l’attaque de F. polyctena par F. rufa qui dévorerait ses victimes, mais les observations montrent que c’est plutôt le contraire qui a lieu. On pourrait aussi penser à l’utilisation par F. rufa de matériaux rendus radioactifs par les déjections de F. polyctena. Mais la solution la plus vraisemblable, qui est adoptée par les auteurs, est celle d’un échange de nourriture entre les ouvrières de F. rufa et celles de F. polyctena. On vérifie ainsi, dans les conditions naturelles, les observations faites en laboratoire par Gôswald et Kloft. Il semble donc que, dans certains cas, les sociétés supérieures d’insectes ne soient pas complètement « fermées », puisqu’une certaine tolérance existerait entre des individus d’espèces différentes qui pratiqueraient des échanges de nourriture.
- R. Dajoz.
- Ultraviolet pour huîtres
- Le ministère britannique de l’Agriculture a mis au point un nouveau procédé pour protéger les huîtres de pleine mer de toute contamination bactériologique. Jusqu’à présent, le seul moyen utilisé consistait à stériliser l’eau avec du chlore, ce qui avait parfois pour
- résultat de teinter la chair délicate de l’huître, ou avec de l’ozone qui, souvent, ne tuait pas seulement les microbes mais aussi l’huître elle-même. Le nouveau procédé a recours aux rayons ultraviolets et présente le triple avantage d’être sans danger, rapide et économique.
- 345
- p.345 - vue 349/551
-
-
-
- U étude des « petits groupes » et ses applications
- Comment on s’entraîne à conduire une réunion ou à y participer utilement
- par Jean-Claude Filloux
- Des articles précédents ont évoqué les travaux expérimentaux auxquels a donné lieu l’étude des petits groupes (i). La plupart avaient d’ailleurs un but pratique, celui d’introduire des techniques permettant une amélioration du fonctionnement des groupes, l’apprentissage de formes de comportement individuelles réalisant une meilleure participation à la vie des groupes, ou encore des styles de conduite du groupe plus efficaces. Bien qu’il n’existe encore aucune théorie générale du fonctionnement des petits groupes, il est possible d’utiliser les connaissances acquises pour réaliser un entraînement utile des individus aux diverses tâches que peut requérir la direction d’un groupe ou la collaboration à ce groupe. De tels efforts sont faits dans l’industrie et dans les administrations au niveau des cadres qui passent une partie importante de leur temps dans les « réunions » et « conférences ». Cet entraînement serait également utile à la pratique pédagogique. Un professeur et sa classe forment un « groupe », caractérisé par certains types de communications, certains rapports de dépendance, certaines normes de fonctionnement, et finalement par un climat psychologique à la fois spécifique et variable. Bien des jeunes professeurs, littéralement angoissés par la présence de la classe, oscillent entre le laissez-faire, qui aboutit parfois au « chahut », et l’autoritarisme forcené, qui mène à la rupture entre maître et élèves. Un bon entraînement à la vie de groupe éviterait ces écueils. Nous pensons pouvoir montrer, dans un prochain article, que certaines techniques de la conduite de réunions peuvent parfaitement être appliquées à une classe d’adolescents.
- Une relative évolution des modèles d’autorité, évolution que nous avons déjà notée, substitue au style autoritaire de commandement des styles plus démocratiques, plus coopératifs, plus « centrés sur le groupe », selon l’expression de Gordon. De nombreux séminaires utilisent l’apprentissage de l’art de conduire les réunions comme le meilleur moyen de formation aux relations humaines : cet art en effet implique un certain nombre d’exigences fondamentales (savoir et vouloir entendre autrui, être conscient de nos attitudes envers autrui et des siennes envers nous, etc.) qui impliquent la remise en question de nombre d’habitudes. et de réflexes, l’adoption de nouveaux modèles de
- i. Voir notamment les deux derniers articles sur les petits groupes de travail, La Nature-Science Progrès, août 1961, p. 343, et septembre 1961, p. 375.
- comportement, voire, à la limite, certains changements dans notre personnalité. Nous examinerons donc aujourd’hui les méthodes utilisées dans cet « apprentissage des réunions ».
- Types de structure des séminaires
- Les séminaires et les stages de formation aux relations de groupe ont lieu d’ordinaire dans des conditions d’isolement momentané : les participants vivent ensemble, par exemple pendant quelques jours, dans un site choisi pour son isolement. Cela permet une implication plus grande dans le travail, une concentration des préoccupations sur l’expérience à laquelle on participe. Chaque jour, une succession d’exercices favorise une réflexion attentive et objective sur les problèmes de fonctionnement du groupe, sur les réseaux de communications qui s’y constituent, sur les attitudes respectives des membres en fonction de leur statut ou de leur rôle.
- Selon les cas, les stages sont plus ou moins « structurés ». Dans certains types de stages, les animateurs apportent aux groupes tout un matériel à étudier (cas de relations humaines) et prévoient des séances de « jeux de rôles » (psychodrames); ils demandent aux membres du groupe de diriger tout à tour le groupe, de manière à permettre à chacun de prendre conscience des conséquences de ses méthodes et de ses attitudes ; chemin faisant, les animateurs proposent des concepts qui explicitent ce qui se passe dans le groupe, et proposent la formalisation de techniques de discussion qui sont au fur et à mesure « essayées » par le groupe. Ils font en sorte que les participants prennent conscience de ce qui se passe dans le groupe, aussi bien au niveau des phénomènes structuraux (progression, etc.), qu’au niveau des sentiments, des tensions affectives, bref, des phénomènes proprement « psychologiques ». Véritable école d’auto-observation donc, basée sur ce postulat évident que la meilleure façon de comprendre les processus de groupe est de vivre ces processus dans le cadre privilégié de groupe constitué ad hoc.
- Dans des stages moins structurés, les animateurs apportent aux groupes un matériel que celui-ci est libre d’utiliser ou d’écarter, ne suggèrent pas le choix d’une activité, ne dirigent pas le travail. De ce fait, le groupe doit résoudre
- 346
- p.346 - vue 350/551
-
-
-
- le problème de ses buts, de ses méthodes de travail, de son fonctionnement, l’animateur n’intervenant que comme observateur des interactions concrètes entre les participants et le groupe, et des techniques de travail du groupe. Il analyse alors le climat du groupe, sa progression vers les buts qu’il s’est fixés, les méthodes utilisées pour y parvenir. A la limite, on peut même imaginer des modes d’entraînement tels que les groupes aient l’entière responsabilité de leur évolution, l’animateur se bornant à refléter les processus de groupe, à aider le groupe à prendre une perception claire des situations qu’il vit. A Bethel, aux Etats-Unis, l’utilisation de stages non structurés a été à l’origine des méthodes de formation fondées sur le « groupe de base », méthodes sur lesquelles nous reviendrons à propos des applications strictement pédagogiques de la dynamique des groupes.
- Dans les stages structurés ou semi-structurés, les participants acquièrent progressivement la maîtrise de l’identification et de l’utilisation des styles et attitudes de conduite. Nous avons vu que, d’après Gordon, un « bon » conducteur de groupe doit savoir écouter de façon compréhensive, créer dans le groupe un climat d’acceptation, faire la liaison entre les différents courants de pensée convergents, etc. Mais, qu’est-ce qu’être « compréhensif » ? Quand est-on compréhensif ? Quelles méthodes utiliser pour avoir une attitude de compréhension ? Ce sont là des questions auxquelles le participant trouve des réponses de lui-même, par l’analyse collective de ce qui se passe dans le groupe, des réactions du groupe à telle parole ou telle action du conducteur. Au bout d’un certain temps, les membres du groupe d’entraînement savent parfaitement identifier, chez eux et chez autrui, une conduite coopérative, une conduite non-directive, une conduite directive; et, sachant la nommer et la reconnaître, ils savent en même temps l’utiliser en fonction des buts qu’ils se sont proposés.
- Bien entendu, cela pose aux organisateurs de séminaires le problème de la conceptualisation à utiliser, de manière à dénommer techniques et comportements. A titre indicatif, il nous paraît intéressant d’indiquer comment les psychosociologues essayent de clarifier, à des fins de formation, le problème de Y analyse des rapports entre leader et participants dans un groupe. Nous nous inspirerons pour cela de deux articles récents, l’un de Guy Palmade (Conceptualisation et étude dans le domaine des réunions, Bulletin de Psychologie, 1959), l’autre de Jean Maisonneuve (Discussion de groupe et formation des cadres, Sociologie du travail, n° 1, i960). Présentant de nombreux points communs, ils sont assez typiques de l’état actuel de ce qu’on pourrait appeler la « technique des réunions ».
- Objectifs des réunions-discussions
- Il faut tenir compte en premier heu des objectifs possibles de la discussion en groupe. Il est utile de savoir si l’on s’entraîne à conduire un « groupe de base » à des fins pédagogiques, ou un groupe d’ingénieurs' préoccupés avant tout de la solution à apporter à un problème technique. Maisonneuve propose de distinguer deux types d’objectifs, qui peuvent exister ensemble ou séparément lorsqu’un groupe se met au travail. On parlera df objectif de résolution lorsqu’il s’agit, soit de prendre une décision, soit de préparer une décision. Dans le premier cas, il s’agit
- de traiter et de résoudre un problème constituant l’objet de la discussion, et de décider en commun ; dans le second, le groupe est simplement invité à émettre un avis, une proposition, la décision exécutoire appartenant à une instance supérieure. On parlera d’autre part d’un objectif d'exploration lorsque le but de la réunion est de dégager l’attitude des membres en face d’un problème, d’explorer leurs opinions, éventuellement modifiées par leur confrontation, sans qu’aucune décision soit prise. Cet objectif apparaît souvent, dans l’industrie, au cours des réunions dites d’ « échanges d’expériences ». Une forme particulière d’exploration consiste, dans le cadre du « groupe de base », à explorer ensemble des complexes profonds qui sont sous-jacents à la vie du groupe.
- Un groupe de résolution peut avoir intérêt à explorer les attitudes de ses membres, soit en début de séance, soit dans le cas où le groupe se bloque à cause de quelque conflit interne. L’objectif d’exploration est alors un objectif préalable par rapport à l’objectif de résolution : le conducteur de groupe doit savoir induire chez les membres des prises de conscience et des comportements tendus vers la solution même du problème. Selon les cas, ses méthodes doivent permettre au groupe, soit de progresser vers ses objectifs, soit d’explorer son propre fonctionnement. Quelles peuvent être ces méthodes ? Il faut d’abord préciser mieux quelles sont les « fonctions » qui doivent être, à des degrés divers, accomplies dans une réunion pour qu’elle réalise la gamme possible de ses objectifs. En effet, le conducteur doit choisir son action vis-à-vis du groupe et relativement à l’action totale du groupe selon le type de fonction qu’il désire voir accomplie dans le groupe.
- Fonctions nécessaires dans une réunion-discussion
- Nous reprendrons ici la conceptualisation de Palmade, qui distingue trois catégories de fonctions internes, trois niveaux de fonctionnement du groupe, quels que soient ses objectifs.
- Tout d’abord, dans la mesure où le groupe trouve des solutions ou des éléments de solution, réunit des informations et les traite pour s’orienter vers la solution, on peut dire qu’il produit ; on parlera donc de fonction de production.
- Ensuite, dans la mesure où le travail du groupe implique l’utilisation de méthodes de travail, de procédés de recherche et d’organisation qui facilitent la progression du groupe vers ses buts, et donc la production même, on parlera de fonction de facilitation. Palmade distingue à l’intérieur de cette fonction de facilitation un certain nombre de sous-fonctions composantes : apparition d’un plan de travail; existence de barrières qui empêchent le groupe de s’évader hors de ce plan; intervention active de tous les participants; existence de dispositifs qui permettent au groupe de « faire le point », etc.
- Enfin, un groupe fonctionnant d’autant mieux, comme on l’a vu, qu’il est plus conscient de ce qui se passe en lui, qu’il est plus lucide sur lui-même, on peut parler d’une fonction de lucidité (nous préférons cette expression à celle de « fonction de régulation » proposée par Palmade, car nous avons déj à utilisé le mot « régulation » dans un sens différent).
- On peut imaginer des réunions où le groupe exerce
- 347
- p.347 - vue 351/551
-
-
-
- toutes ces fonctions lui-même, sans l’intervention d’un leader : c’est ce qui se passe, par exemple, dans des réunions où l’on se borne à converser, ou encore dans le cas de certaines expériences de groupe sans leader : alors, tant bien que mal, le groupe produit, s’organise (plus ou moins), prend (plus ou moins) conscience de ce qu’il fait et vers quoi il va. A l’extrême opposé, on peut imaginer des réunions où le leader accomplit toutes les fonctions pour le groupe : c’est ce qui se passerait par exemple dans une réunion du style « réunion de transmission d’ordres », où le « chef » imposerait quasi autoritairement une solution. Ces deux extrêmes n’entrent pas dans le cadre de la conduite de réunions. Nous supposons ici qu’il y a un conducteur qui conduit, et qu’il conduit une discussion dans laquelle le groupe est créateur. Les diverses fonctions vont être plus ou moins réparties entre conducteur et groupe. Les grands types de réunions-discussions devront, dans cette optique, être classés selon la distribution des fonctions entre groupe et conducteur, et selon la collaboration entre l’un et l’autre dans le cadre d’une même fonction. A ces divers types correspondront certaines techniques générales bien précises.
- Types de réunions et techniques de conduite
- Palmade propose la distinction de quatre catégories de réunions, dans l’optique précédemment définie :
- — coopérative;
- — centrée sur le problème ;
- — centrée sur le groupe;
- — centrée sur le rapport groupe-problème.
- Dans la réunion de discussion coopérative, le conducteur est un participant comme les autres qui, en plus, a la charge de conduire le groupe. C’est ce qui se produit, par exemple, au cours de telle réunion syndicale ou politique, lorsqu’on nomme un président de séance, qui, tout en organisant les débats, apporte sa pierre au contenu de la discussion. Il accomplit donc les fonctions de production en même temps que le groupe, se réservant les fonctions de facilitation et, le cas échéant, de lucidité. La technique qu’il utilise est une technique coopérative intégrale. Jean Maisonneuve expose cette technique en ces termes : « Le conducteur fait des propositions au groupe à la fois au niveau de la procédure et au niveau du contenu, se réservant aussi d’évaluer les opinions et les suggestions des divers membres ; il est à la fois coordinateur et membre du groupe; son rôle n’est donc pas dénué d’équivoque».
- Dans la réunion centrée sur le problème, le conducteur abandonne totalement son rôle de participant, il ne discute plus du fond du débat, il laisse au groupe la tâche de « produire » seul. Cela lui évite de faire deux choses à la fois, supprime les équivoques, le met dans de meilleures conditions psychologiques. Il accomplit intégralement les fonctions de facilitation et de lucidité, c’est-à-dire qu’il pose le problème, donne au groupe la méthode et le plan de travail, puis maintient le groupe sur le problème à l’intérieur de la méthode et du plan; il essaye d’obtenir que tous participent, évite que soient remis en discussion les points acquis, tire les conclusions intermédiaires à l’aide de tableaux (le cas échéant) et, si le groupe patauge,
- tâche de le désembourber en obtenant une nouvelle formulation du problème, de nouvelles perspectives, en exposant ce qui se passe dans le groupe. Sa technique est directive : il assure un rôle de direction, non certes au niveau du contenu, mais au niveau de la procédure et de la lucidité.
- Dans la réunion dite centrée sur le groupe le conducteur n’exerce plus aucune fonction de facilitation; il laisse au groupe le soin de découvrir sa méthode de travail, de se maintenir lui-même centré sur le problème qu’il a défini; il se borne à exercer, lorsque nécessaire, les fonctions de lucidité. Sa technique est, en utilisant l’expression de Cari Rogers, strictement non-directive. Jean Maisonneuve décrit ainsi le rôle du conducteur non-directif : « Le conducteur s’efforce de refléter ce qui est produit par le groupe au niveau de la tâche et des opinions, mais aussi ce qui se passe dans le groupe au niveau des relations socio-affectives. De cette façon, il aide le groupe à s’exprimer, à progresser, à évoluer, sans jamais intervenir sur le fond ni imposer de cadre ou de délai. S’il arrive, par exemple, que le groupe s’écarte du problème ou du thème qui est à l’ordre du jour, le conducteur n’intervient pas pour « recadrer » les échanges, mais il s’efforce d’amener le groupe à dégager lui-même les motifs de ses propres méandres, et cela en utilisant exclusivement les apports antérieurs de certains membres. Par son attitude « compréhensive », le conducteur vise à mettre le groupe en situation d’élucider et d’interpréter lui-même ses problèmes internes, comme ses difficultés ».
- La réunion dite centrée sur le rapport groupe-problème est une forme mixte des deux précédentes. Le conducteur n’abandonne pas totalement au groupe l’accomplissement des fonctions de facilitation, mais les partage avec lui. Principalement « élucidateur », il laisse jusqu’à un certain point le groupe déterminer sa méthode et son plan de travail, mais il l’aide à les choisir; il partage encore avec le groupe le soin de maintenir la discussion dans le cadre décidé. Autrement dit, il utilise une technique coopérative partielle.
- La typologie qui vient d’être présentée, fondée sur l’apport expérimental et clinique en matière de travail en groupe, permet au conducteur de savoir exactement ce qu’il fait. Dans un séminaire de formation de conducteur de groupe, les exercices consistent essentiellement à demander à chaque participant de conduire une réunion en décidant avec précision de ce que sera le type de la réunion. Les membres et, bien entendu, le moniteur apprécient ensuite le comportement du conducteur : quelles fonctions ont été accomplies, par qui, etc.
- Notons toutefois que les quatre techniques (directive, non-directive, coopérative intégrale, coopérative partielle) n’offrent qu’un cadre méthodologique. Quelles attitudes doit avoir le conducteur ? Comment doit-il utiliser les instruments qu’il a à sa disposition, notamment la question ?
- Les six attitudes du confident et celle du conducteur de groupe
- Supposons qu’un ami vienne nous dire : « Je suis ennuyé, je sens qu’il faut faire quelque chose, sortir de là, mais ce travail qu’on me propose est odieux; c’est au-dessus de mes forces. Je voudrais pourtant faire quelque chose... ». La réponse que nous lui ferons exprimera une attitude vis-à-vis de lui. Selon notre caractère, notre humeur du
- 348
- p.348 - vue 352/551
-
-
-
- moment, notre expérience des relations humaines, nous pourrons : soit décider pour lui de ce qu’il doit faire, en lui suggérant quelque solution; soit porter sur son opinion, son intention, un jugement de valeur; soit calmer son anxiété, le rassurer; soit rechercher des suppléments d’information en lui posant des questions supplémentaires; soit chercher à expliciter pour lui les raisons profondes de sa conduite; soit enfin chercher avant tout à se mettre à sa place, et le lui manifester en réexprimant bien clairement ce qu’il vient de dire, ou plutôt ce qui est le sens vécu de ce qu’il a dit. Ces diverses réponses possibles témoignent de 6 types fondamentaux d’attitudes envers autrui, conceptualisées d’une façon classique par Porter sous le nom d’attitude de :
- — décision,
- — évaluation,
- — support,
- — enquête,
- — interprétation,
- — compréhension.
- Il est remarquable que, spontanément, nous avons tendance à adopter des attitudes d’évaluation, d’enquête ou de support; nous sommes rarement «interprétatifs», et plus rarement encore « compréhensifs ». Une enquête effectuée par J. Maisonneuve sur 300 sujets des deux sexes, comprenant des cadres industriels et administratifs, des universitaires, des éducateurs et des étudiants des principales villes françaises, a indiqué que l’attitude de compréhension n’apparaissait que dans 7 pour 100 des cas, alors que les attitudes d’évaluation apparaissent dans 35 pour 100 des cas !
- Or, il est certain qu’un conducteur de groupe qui utilise une technique non-directive doit essentiellement avoir vis-à-vis du groupe et de ses membres des attitudes de compréhension. D’une manière générale, l’accomplissement des fonctions à?élucidation demande que le conducteur fasse prendre conscience de ce qui se passe dans le groupe, ce qui implique avant tout des attitudes d'interprétation (pour expliquer au groupe les raisons de « ce qui se passe ») et de compréhension (pour que le groupe prenne mieux conscience du sens profond des comportements, individuels et collectifs). D’autre part, si la décision intervient lorsque le conducteur exerce les fonctions de facilitation, 1 ''évaluation est rigoureusement exclue de toute réunion qui n’est pas coopérative, car évaluer, c’est prendre position au niveau du contenu.
- L’entraînement à la conduite des groupes demande donc l’apprentissage d’attitudes contraires à celles que nous avons spontanément : apprendre à expliquer, à comprendre, à éviter de juger le comportement d’autrui, tel est un des impératifs fondamentaux de la formation à la conduite des groupes. Il s’agit donc de provoquer, chez les apprentis conducteurs, un véritable déconditionnement psychologique, qui leur permettra ensuite d’équilibrer dans le cadre des techniques générales employées, les attitudes nécessaires, en les maîtrisant. Ajoutons, ce qui nous semble très important, que l’acquisition, par l’apprentissage de la conduite, d’attitudes que nous présentions rarement de façon spontanée nous permet ensuite de participer aux groupes en sachant mieux écouter autrui, se mettre à sa place, sympathiser, au moins un moment, avec son point de vue. Bref, la formation à la conduite centrée sur le
- groupe ou sur le rapport groupe-problème est une véritable école de participation à la vie des groupes, voire une école d’ouverture aux autres. Ce n’est pas, à notre sens, une de ses moindres qualités.
- La question
- comme instrument du conducteur
- Nous terminerons ce bref aperçu des méthodes d’entraînement à la conduite des réunions-discussions par quelques remarques sur l’utilisation des questions.
- On peut distinguer, avec G. Palmade, trois types de questions normalement utilisées par un conducteur de réunions : la question d’ enquête, la question de sondage, la question de rhétorique.
- La question d’enquête permet d’obtenir des informations de la part de tel ou tel participant : il y est répondu soit par l’affirmative, soit par la négative, soit par l’apport d’un fait précis. Elle permet souvent de faire parler un timide (obtenir que tous participent) ou de faire taire un bavard. La question de sondage appartient à l’ossature de la discussion, contribue à sa progression. La question de rhétorique, ou de pure forme, est celle à laquelle le conducteur répond pour le groupe : il s’agit souvent de vérifier ou de faire constater un accord de manière à accélérer la discussion.
- Le conducteur doit savoir combiner les questions personnelles, adressées nommément à un participant, et les questions impersonnelles adressées à tout le groupe. Surtout, il doit posséder l’art de distribuer convenablement les questions. Bien entendu, les échanges entre le conducteur et les participants doivent être le plus généraux et le moins personnels possibles : les participants doivent dialoguer entre eux et non uniquement avec le conducteur ! Pour cela, deux règles fondamentales sont enseignées. G. Palmade les formule de la façon suivante :
- — Règle positive : poser des questions à qui ne parle pas;
- — Règle négative : ne pas. répondre aux questions qu’on vous pose, mais retourner les questions sur le groupe.
- Ces règles sont à nuancer; s’il est important de ne jamais répondre aux questions qui portent sur le fond (sauf dans le cas des réunions coopératives intégrales), il est parfois souhaitable de répondre aux questions relatives à la procédure, puisque cela est dans de nombreux cas de la compétence du conducteur. En abordant, comme nous le faisons en ce moment, quelques-unes des méthodes de détail qui font partie de la panoplie du conducteur formé par la dynamique des groupes, nous pénétrons dans le domaine des habiletés individuelles. Disons cependant encore que le conducteur averti évite le « tour de table », dans la mesure où la distribution systématique des questions empêche la spontanéité, qu’il tâche d’exclure au maximum le vote, sauf s’il s’agit de prendre une décision commune sur la méthode de travail. Comme il a été dit précédemment, le fin du fin est de parvenir à des décisions collectives sans qu’il y ait vote.
- *
- * *
- Si nous essayons finalement de situer l’entraînement à la conduite des réunions dans le vaste cadre des applica-
- 349
- p.349 - vue 353/551
-
-
-
- tions de l’étude des petits groupes en vue d’une amélioration des relations humaines, nous pensons pouvoir présenter les hypothèses suivantes :
- i° L’entraînement à la conduite est en même temps un entraînement à la participation à la vie des réunions, et, plus généralement, à la vie des groupes sociaux;
- 2° L’apprentissage réalisé a une incidence pratique relativement à l’efficacité des réunions, soit dans l’industrie ou l’administration, soit dans les syndicats, les partis : bref, partout où des gens sont là pour penser ensemble, discuter ensemble, décider ensemble. Dans le monde social actuel, en pleine évolution, les échanges d’expériences se révèlent toujours plus utiles : n’est-ce pas dans le cadre de groupes d’échanges d’expériences que les jeunes agri-•culteurs ont pris conscience des transformations nécessaires dans le monde rural ?
- 3° L’incidence humaine n’est pas moins grande. Si les applications de la dynamique des groupes peuvent apprendre aux hommes à dialoguer, à ne pas être sourds les uns pour
- les autres, mais compréhensifs, ouverts, il semble qu’elles font œuvre pie;
- 4° Les techniques issues de la dynamique des groupes montrent qu’est possible la décision de groupe, pourvu que la conduite du groupe soit orientée dans un sens démocratique; elles répondent donc au problème posé par l’idée progressiste d’une gestion par le biais de fieux de décision situés dans de petits groupes.
- Nous indiquerons dans un autre article, d’une façon plus précise, comment certains problèmes pédagogiques reçoivent d’intéressantes solutions, si l’on veut bien considérer par exemple que la classe est un groupe et, partant, que la formation pédagogique doit comporter, non seulement un enseignement théorique sur la psychologie de l’enfant et le développement de la personnalité, mais encore un entraînement pratique à la perception des phénomènes interpersonnels inhérents à la vie de la classe.
- Jean-Claude Filloux,
- Agrégé de l’Université.
- Un stage de travail en petits groupes :
- « Structures et communications dans l’entreprise »
- L’Association pour la recherche et l’intervention psycho-sociologique organise, du 24 au 28 septembre, un 6e stage de formation psycho-sociologique des dirigeants et cadres industriels, sur le thème : « Structures et communications dans l’entreprise ». Ce stage aura lieu au Club France-Amérique, 9, avenue Franklin-Roosevelt, Paris (8e).
- Le stage sera spécialement centré sur les besoins des cadres des entreprises. Les méthodes de travail ont été choisies de manière à aider davantage les participants à percevoir les liens qui peuvent exister entre les phénomènes dont ils prennent conscience dans le stage et les situations qu’ils rencontrent dans leur vie quotidienne.
- A cette fin, les membres de i’A.R.I.P. ont mis au point la méthode du groupe de sensibilisation, petit groupe de 8 à 10 personnes conduit par un animateur dont la fonction permanente est d’aider le groupe à prendre conscience de son propre fonctionnement et des relations vécues qui s’établissent dans le groupe. Au cours de ces séances de
- groupe non structuré, les participants peuvent, s’ils le désirent, explorer de façon plus systématique le fonctionnement du groupe à l’aide d’exercices. Dans ce but, des exercices sont décrits au début du stage : prises de décision en groupe, conduite de réunions (styles de leadership), interviews, études de cas, psychodrames, analyse de situations tirées de la vie professionnelle des participants.
- Le groupe de sensibilisation occupe 13 séances de 2 heures, soit la partie la plus importante du programme; ces séances sont complétées par 5 exposés qui présenteront des études et des applications de la psychologie sociale et des hypothèses théoriques sur lesquelles elles reposent.
- Des conditions spéciales peuvent être accordées sur demande aux étudiants et aux personnes qui ne peuvent disposer de l’appui d’une organisation. Renseignements à I’A.R.I.P., 8, Les Martins-Pêcheurs, La Celle Saint-Cloud (Seine-et-Oise), ou par téléphone à Paris : KLEber 11-10.
- Facteur sanguin lié au sexe
- Aucun des groupes sanguins humains qui avaient été identifiés jusqu’ici n’apparaissait lié au sexe. La fréquence de chaque facteur était la même pour les hommes et pour les femmes. C’est dire que les gènes qui gouvernent tous ces facteurs sanguins sont localisés dans les chromosomes non sexuels (autosomes). Or on a mis récemment en évidence l’existence d’un nouvel antigène du sang, présent chez 89 pour 100 des femmes et seulement 62 pour 100 des hommes. Cette fréquence inégale s’explique si l’on admet que le gène respon-
- sable (qui est dominant) est porté par le chromosome X, ou chromosome sexuel féminin. On sait en effet que ce chromosome X est en double dans toutes les cellules du corps des femmes, tandis que les hommes ne l’ont qu’en un seul exemplaire, allié au chromosome sexuel mâle Y. D’où la chance accrue qu’ont les femmes de porter le gène en question sur l’un ou l’autre de leurs chromosomes X, ou sur les deux. La découverte paraît d’un grand intérêt pour diverses études de génétique humaine.
- Dégel hydroélectrique
- L’exploitation de la centrale de Perm, sur la Kama, a eu pour conséquence de libérer ce fleuve des glaces sur une longueur de 20 km. Ce fait est facilement explicable : l’eau qui alimente les turbines est prélevée sur les couches profondes du réservoir où la température
- est toujours supérieure à o° C. Restituée au fleuve, elle garde quelque temps une tiédeur relative qui s’oppose à la formation de la couche de glace qui précédemment atteignait, de novembre à avril, une épaisseur de 50 à 70 cm.
- 350
- p.350 - vue 354/551
-
-
-
- Mutations en cours dans l’utilisation du charbon en France
- La situation de l’industrie houillère en France a été marquée depuis 1959 par une crise dont la signification n’a pas toujours été exactement appréciée. Les faits, à vrai dire, se présentaient, à première vue, de manière assez dramatique. D’une part, l’extraction (houille et lignite) qui avait atteint près de 60 mégatonnes en 1959 s’effondrait brusquement pour n’être plus que de 53,5 Mt en 1961. C’est d’autre part un chiffre du même ordre que le Plan de modernisation et d’équipement avait retenu entre temps comme objectif pour 1965, remplaçant celui de 63 ou 65 Mt qui avait été prévu auparavant.
- Les différentes interprétations auxquelles cette conjoncture a donné lieu sont bien connues. Elles se résument en ceci que le charbon, cédant devant la concurrence des autres sources d’énergie primaire, est en train de perdre ses débouchés. Les conclusions mériteraient d’être plus nuancées, tenant compte tout d’abord que, dans cette période de crise, la consommation française de charbon n’a guère varié. Elle a même sensiblement augmenté sur 1959 où elle était de 69,3 Mt : en 1961, elle se retrouve à 70,7 Mt où interviennent l’apport sarrois et les' importations en provenance de différents pays.
- La contradiction entre baisse de production et hausse de consommation n’est qu’apparente : la France est liée par des accords commerciaux avec certains pays importateurs; ceux-ci peuvent fournir des qualités (notamment les fines à coke) dont la production autochtone est limitée; il est incontestable enfin que plusieurs gisements étrangers, situés à faible profondeur, ont des prix de revient très bas et que les charbons qui en sont extraits parviennent dans les ports français à des conditions plus avantageuses que ceux de nos propres houillères.
- La situation ne saurait cependant être jugée sans que soient analysés les différents secteurs de consommation du charbon. Et nous examinerons tout d’abord ceux où la régression est un fait acquis, sans qu’aucun retournement soit à prévoir.
- Ne parlons même pas de la navigation maritime et fluviale, entièrement conquise par le mazout et le gasoil. La traction à vapeur des chemins de fer s’amenuise rapidement : elle consommait 12,6 Mt de charbon en 1929, chiffre ramené à 2,9 Mt en 1961. Il s’agit là d’ailleurs d’un transfert, car le charbon intervient sous une autre forme et, il faut le dire, avec un rendement supérieur dans la traction électrique.
- La baisse est également spectaculaire dans l’industrie du gaz qui fut, elle aussi, une gaspilleuse de charbon : cokeries gazières et usines à gaz n’en consomment plus,
- en 1961, que 2,4 Mt contre 5 Mt en 1949. L’industrie (sidérurgie exceptée) laisse apparaître une baisse moins accentuée : 13,1 Mt en 1961 contre 16,4 Mt en 1938, mais, comme pour les chemins de fer, la consommation directe du charbon s’est reportée en grande partie sur une consommation indirecte, passant par l’électricité.
- Les chiffres qui concernent les foyers domestiques et la petite industrie ne sont pas très significatifs : c’est sans doute l’hiver clément 1960-61 qui a influé sur la consommation relativement faible (14,4 Mt) comparée à celle de 1957 (18,5 Mt). Il est certain cependant que le mazout et le gaz naturel gagnent progressivement des points dans ce secteur où l’augmentation démographique du nombre des foyers est compensée par les économies qui résultent de l’extension du chauffage collectif.
- Viennent à présent les secteurs en hausse, au nombre de deux seulement, mais d’une extrême importance. En premier lieu l’électricité : depuis la libération jusqu’à ces toutes récentes années, l’accent a été mis sur les centrales minières qui brûlent les bas-produits : leur consommation est passée de 4 à 7,3 Mt (en 1961). Quant aux nouvelles centrales de l’Electricité de France, elles ont largement amélioré le rendement des centrales anciennes, si bien que la production électrique en hausse n’a pas entraîné une plus grande consommation de charbon (5 Mt en 1961). Mais, par ce fait même, les centrales thermiques ont démontré leur rentabilité et l’on escompte pour 1965 que la consommation de charbon par l’E.D.F. doit dépasser 12 Mt.
- Le deuxième secteur en hausse est la sidérurgie, utilisa-. trice de coke, et dont les activités stimulent le secteur annexe de la carbochimie qui absorbe les produits issus des fours de carbonisation : 7,6 Mt de coke étaient utilisés en 1938; 13,5 Mt en 1961, qui se traduisent par 17,6 Mt de charbon enfourné. L’accroissement des besoins est tel, dans le secteur de l’acier, que l’on estime à 22 Mt le charbon qui sera nécessaire en 1965 pour les satisfaire.
- Tenant compte des nombreuses inconnues qui interviennent dans cet ordre de prévisions, il est vraisemblable qu’au total la consommation du charbon en France doit connaître une hausse assez sensible, hausse dont pourront bénéficier dans une large mesure les usines nationales, situées à proximité des points d’utilisation. C’est ainsi que, par exemple, les Houillères du Nord fourniront le nouveau complexe sidérurgique de Dunkerque, tandis que les usines de Saint-Etienne seraient à pied d’œuvre pour alimenter la future centrale E.D.F. de Givors.
- Y. M.
- Chauffage aux scories
- La température des scories rejetées par les fours électriques des entreprises métallurgiques atteint en général des valeurs de l’ordre de 1 300 à 1 400° C. Elles sont de ce fait utilisées depuis peu en Union soviétique pour le chauffage selon une technique très simple : les scories tombent directement à la sortie des fours dans un container
- en béton dans lequel circule de l’eau qui est ainsi réchauffée. Après filtration, cette eau est utilisée pour le chauffage de l’usine, des installations de douches, etc. Le procédé serait tout à fait rentable et aurait permis dans une des installations, d’économiser en quelques mois plus de 8 000 t de charbon. (Bureau soviétique d’information).
- 351
- p.351 - vue 355/551
-
-
-
- Une intéressante étude d’Ecologie
- Vie et peuplements des petits Rongeurs
- dans la zone aride par Jean Grive
- Un numéro spécial de la revue Mammalia, publiée avec le concours du Centre national de la recherche scientifique, nous a apporté récemment une importante étude de M. Francis Petter sur la répartition et l’écologie des Rongeurs désertiques (1). Ces animaux méritaient de retenir l’attention à divers points de vue. En premier lieu, pour des raisons que nous avons déjà évoquées plusieurs fois dans cette revue, on se soucie beaucoup aujourd’hui des régions arides et des espèces vivantes qui y sont acclimatées. Parmi ces espèces, les Rongeurs tiennent une grande place, tant par le nombre des espèces que par celui des individus, non seulement dans la nature, mais dans l’économie humaine, car chaque fois qu’ils en ont l’occasion ils prélèvent un impôt, souvent considérable, sur les productions végétales de toute sorte; quelques-uns sont aussi les vecteurs de redoutables maladies, notamment de la peste dans le Proche Orient. Enfin, pour le naturaliste, les Rongeurs représentent un groupe prospère, en pleine évolution, un groupe vivant qui a encore un grand avenir, alors que tant d’autres groupes de Mammifères paraissent en régression ou même en voie de disparition.
- i. Répartition géographique et écologie des Rongeurs désertiques (du Sahara occidental à l’Iran oriental), par Francis Petter. Mammalia (55, rue de Buffon, Paris, 5e), tome 25, 1961.
- M. Francis Petter, du Muséum national d’Histoire naturelle de Paris, a conduit depuis plusieurs années des recherches approfondies sur les Rongeurs qui habitent les zones arides de l’Afrique du Nord, de la Mésopotamie et de l’Iran, et dont quelques-uns sont communs à ces régions. Il a pu préciser leurs caractères et leurs affinités, leurs extensions géographiques respectives, leurs conditions de vie, leurs rapports mutuels et enfin apporter une interprétation nouvelle d’une particularité anatomique remarquable de l’oreille de certains de ces Rongeurs, à savoir le développement exceptionnel de leurs bulles tympaniques. A l’observation s’est jointe, chaque fois que cela était possible, l’expérimentation, et nombre de ces espèces ont été élevées et étudiées au laboratoire, tant en zone aride qu’à Paris même.
- Un peu plus de vingt espèces ont été étudiées. A part deux d’entre elles, le Goundi et une Gerboise, elles appartiennent toutes à la famille des Gerbillidés, qui comprend des animaux groupés d’une part sous le nom de Gerbilles (fig. 2), d’autre part sous le nom de Mérions (ou Mériones), généralement un peu plus gros que les Gerbilles, c’est-à-dire de la taille d’un rat ou un peu plus petits.
- A l’exception du Goundi (fig. 3), animal spécial à l’Afrique du Nord et qui vit dans les rochers et éboulis (fig. 5), tous
- Fig. 1. — Une « daïa » au petit jour, près de Béni Abbés.
- Tache de végétation, fréquentée par les petits Rongeurs, sur la surface de la hamada.
- (Photo F. Petter).
- p.352 - vue 356/551
-
-
-
- Fig. 2. — Une Gerbille (Gerbillus gerbillus).
- (Figure extraite du Traité de Z.oologie de P.-P. Grasse, avec l’aimable autorisation de l’éditeur, Masson, Paris).
- ces petits Rongeurs creusent des terriers, souvent fort étendus, et comprenant plusieurs orifices. La plupart se laissent prendre facilement dans les pièges que l’on dispose devant ces orifices et, chose curieuse, loin de devenir plus méfiants, un Mérion ou une Gerbille que l’on a capturé déjà une ou plusieurs fois paraît de plus en plus disposé à se laisser prendre sans difficulté. Les captures et lâchages successifs ne le troublent donc pas; on peut ainsi suivre ses évolutions successives avec une facilité relative.
- Fig. — Le Goundi (Ctenodactylus gundi).
- Ne creusant pas de terrier et s’abritant dans les rochers, les Goundis ne s; roulent pas dans le sable comme les autres petits Rongeurs du désert. Ils nettoient leur poil à l’aide des soies raides (peignes) qui terminent certains de leurs doigts (à droite). La moindre souillure les incommode gravement.
- (Figure extraite du Traité de Zoologie de P.-P. Grasse).
- Fig. 4. — Traces de Gerbilles dans le sable.
- Parmi ces espèces terricoles, deux seulement, qui forment les genres Psammomys (fig. 7) et Khombomys (fig. 9), ont une activité exclusivement diurne, qui les exposerait à une dangereuse déshydratation. Aussi se nourrissent-elles presque uniquement de végétaux verts, principalement de feuilles de Chénopodiacées. Ces plantes « succulentes », qui poussent en îlots clairsemés (fig. 8) dans les zones étroites où le substratum est suffisamment humide, contiennent une assez grande proportion d’eau, indispensable à la survie de ces petits animaux. Un P sammomys, pour ne pas péricliter, doit absorber en deux jours une quantité de végétal supérieure à son poids.
- p.353 - vue 357/551
-
-
-
- Fig. 7. — Un Psammomys devant son terrier près de Béni Abbés.
- Fig. 6. — A l’entrée d’un terrier de Psammomys : dispositif de portillon automatique pour enregistrer les entrées et sorties
- des animaux.
- Le dispositif est relié à un enregistreur.
- (Photos F. Petter).
- Choix des lieux et concurrence
- Les autres espèces, dont l’activité est presque exclusivement nocturne, se nourrissent surtout de graines, qui ne contiennent en moyenne que 10 pour 100 d’eau. Cette eau pourtant suffit à leur entretien. Ces animaux ont à cet égard une physiologie spéciale qui leur permet d’économiser l’eau au maximum. Cependant ils sont moins exposés à la déperdition d’eau que les animaux dont la vie se passe à la surface du sol. En effet, ils ne sortent que la nuit, aux heures où le degré hygrométrique de l’air est maximal, et durant leur séjour dans leur terrier ils ne sont exposés à aucune déperdition, car l’air y est toujours à un degré hygrométrique voisin de la saturation. Sous ce rapport, leurs conditions de vie sont donc analogues à celles des Rongeurs terricoles des régions tempérées. On ne peut s’empêcher d’évoquer ici le cas des Cloportes des régions arides dont nous entretenait naguère le professeur Yandel et qui, eux aussi, passant la plus grande partie de leur vie dans de profonds terriers où l’air est saturé d’humidité, échappent à une dessiccation qui leur serait mortelle (voir lia 'Nature-Science Progrès, novembre 1961, p. 492-495).
- Il s’en faut d’ailleurs que toutes ces espèces de Rongeurs désertiques, même zoologiquement très voisines, aient les mêmes exigences ou les mêmes tolérances, et ces diffé-
- 354
- p.354 - vue 358/551
-
-
-
- Fig. 8. — Végétation de Chénopodiacées dans l’oued Saoura.
- Habitat du Psammomys obesus, le rat de sable diurne du Sahara. (Photos F. Petter).
- rences peuvent expliquer leur répartition. Prenons l’exemple de deux espèces du genre Meriones étudiées par M. Francis Petter. Une de ces espèces, Meriones libyens (fig. n), qu’on trouve dans toute la zone aride ou semi-aride de l’ancien continent, creuse presque toujours ses terriers sous un buisson (comme beaucoup d’autres espèces d’ailleurs),
- par conséquent dans une zone parfois très exiguë mais où régnent des conditions particulières et un minimum d’humidité. L’autre espèce, Meriones crassus (fig. 12), apparaît au contraire, à première vue, comme choisissant les emplacements les plus chauds et les plus secs, ne trouvant un air humide qu’au fond de son terrier. Mais si l’on
- Fig. 9. — Un Rongeur des régions arides de l’Asie :
- Rhombomys opimus.
- \ *
- p.355 - vue 359/551
-
-
-
- tient compte de l’environnement biologique, on s’aperçoit que le Meriones crassus, en réalité, ne choisit pas électivement les lieux les plus arides. Chaque fois qu’il le peut, il creuse aussi ses terriers dans les zones de végétation. C’est la présence des espèces concurrentes, notamment du Meriones libyens, plus exigeant mais sans doute aussi plus vigoureux et dont la large répartition géographique atteste les qualités compétitives, qui oblige le Meriones crassus à se contenter des emplacements les plus déshérités.
- Ce cas est sans doute plus fréquent qu’on ne croit dans la nature. Ainsi nombre de plantes, qui nous paraissent choisir les rocailles ou tel autre type de terrain affecté de quelque disgrâce, n’y trouvent en réalité qu’un refuge, où elles sont soustraites à la concurrence d’autres espèces plus vigoureuses mais moins tolérantes sur le chapitre de l’eau ou des matières nutritives. C’est aussi le cas, certainement, de bien des espèces animales et végétales qu’on ne trouve plus que dans des habitats spéciaux (montagnes, terres « marginales ») parce que là seulement elles pouvaient échapper à la destruction par l’homme.
- L’homme, sans le vouloir, favorise aussi certaines espèces. Nombre de ces petits Rongeurs désertiques, quand s’offre l’aubaine des cultures humaines ou telles autres conditions particulièrement favorables, peuvent constituer des colonies très denses. Les Psammontys qui vivent dans des milieux relativement verdoyants, au bord des oueds par exemple, présentent encore une certaine densité, de l’ordre de cinquante ou cent individus à l’hec-
- Fig. I2i — Un Rongeur qui se contente des lieux les plus déshérités :
- Meriones crassus.
- (Figure extraite du Traité de Zoologie de P.-P. Grasse, avec l’aimable autorisation de l’éditeur, Masson, Paris).
- tare. Mais les Rongeurs qui vivent dans les milieux les plus arides ne peuvent former de colonies où régnerait vite la famine. Les densités de peuplement peuvent alors descendre à des chiffres très bas, jusqu’à un individu pour io ou 15 hectares.
- Bulles tympaniques et sensibilité auditive
- Des évaluations comparatives de ces densités de peuplement au sein des diverses espèces ont permis à M. Francis Petter d’avancer une explication très plausible de la particularité anatomique que j’évoquais au début de cet article : les dimensions des bulles tympaniques.
- 356
- p.356 - vue 360/551
-
-
-
- Chez la plupart des mammifères le plancher de l’oreille moyenne s’arrondit en une protubérance creuse qu’on appelle la bulle tympanique. Depuis longtemps on a remarqué qu’un grand nombre d’animaux désertiques, principalement des Rongeurs, avaient les bulles tympa-niques notablement développées et parfois extraordinairement hypertrophiées (fig. 13). Le zoologiste Lataste, à la fin du 19e siècle, avait déjà supposé que ce développement était en rapport avec la finesse de l’ouïe. Un zoologiste contemporain, M. Heim de Balsac, a avancé que le développement des bulles tympaniques serait sous l’influence de la sécheresse .du milieu. A cette dernière supposition on peut objecter avec M. Francis Petter que certains animaux, qui vivent pourtant dans les mêmes conditions de déshydratation, présentent des bulles tympaniques de taille normale. Cherchant une explication physiologique, un autre zoologiste, M. Zavattari, a soutenu il y a quelques années que les bulles tympaniques faisaient office de résonateurs. Selon cet auteur, les sons se transmettraient mal dans le milieu désertique et les animaux, à l’approche d’un prédateur par exemple, ne seraient pas avertis du danger qui les menace s’ils ne disposaient d’une sensibilité spéciale. Il suppose donc que les Rongeurs, dans leurs terriers, mettent leurs bulles tympaniques au contact des parois et que les vibrations du sol, amplifiées par les bulles, les renseignent sur l’approche d’un autre être vivant. Il en serait de même pour les Antilopes qui, en dormant, placera:ent leurs bulles tympaniques au contact du sol.
- M. Francis Petter admet lui aussi que les bulles tympaniques de grandes dimensions entraînent une sensibilité auditive plus développée, comme semblent bien l’établir diverses expériences récentes. Mais l’utilité en serait “toute différente de celle imaginée par M. Zavattari. Il faut d’abord observer que les Antilopes, quand elles dorment, ne mettent nullement leur oreille au contact du sol. Ce sont les sons propagés par l’air qui sont mieux perçus par les animaux dont les bulles sont hypertrophiées. Pour en concevoir l’utilité dans le milieu désertique, il faut avoir procédé, comme l’a fait M. Petter, à toute une série de comparaisons de la dimension des bulles au sein de diverses populations. On constate alors que, dans une même espèce, les bulles sont d’autant plus développées que la population est plus clairsemée. Les animaux qui vivent en colonies assez denses ont des bulles tympaniques normales ou relativement peu
- Fig. 13. — Crâne de Meriones crassus.
- On voit, sur la gauche, le grand développement de la bulle tympanique.
- Fig. 14. — Un Rongeur rare, mais répandu probablement dans tout le Sahara : Pachyuromys duprasi.
- On voit ici la mère avec deux petits {Photo F. Petter).
- hypertrophiées. Ceux qui vivent isolés de leurs congénères sur de grands espaces ont des bulles tympaniques énormes, du moins statistiquement. M. Petter en induit que la sensibilité auditive qui en résulte a surtout pour effet de permettre la perception des appels entre animaux de la même espèce, notamment entre mâles et femelles, vivant normalement très éloignés les uns des autres.
- Cette sensibilité pourrait expliquer en outre comment des Rongeurs de diverses espèces, qui ont été capturés puis relâchés loin de leur terrier, parfois à plusieurs kilomètres, peuvent en quelques heures retrouver leur domicile, alors qu’ils ne disposent d’aucun repère visuel. Le désert n’est pas absolument silencieux. Divers animaux, Rapaces, Renards, Fennecs, Chacals, dont les déplacements journaliers sont bien réglés, font entendre leur voix tous les jours aux mêmes lieux et aux mêmes heures. Les Rongeurs aux bulles tympaniques très développées se guideraient sur ce concert intermittent pour retrouver leur environnement habituel.
- Que ce soit pour le retour au nid ou pour la réunion des sexes, les animaux qui ont des. bulles tympaniques très développées se trouvent donc avantagés quand la population dont ils font partie est clairsemée. Par l’effet de la sélection naturelle, les gènes qui gouvernent ce caractère doivent donc dominer dans ces peuplements. Cependant, comme les conditions peuvent changer localement et comme des contacts doivent subsister avec les populations à bulles normales, on peut se demander quel est l’effet de cette sélection locale sur l’ensemble de l’espèce. Les bulles tympaniques de taille normale présentent-elles, de leur côté, un avantage sélectif dans les populations de plus grande densité ? Il y aurait là, semble-t-il, une intéressante étude pour la génétique des populations.
- Jean Grive.
- 357
- p.357 - vue 361/551
-
-
-
- Le Ciel en Septembre 1962
- SOLEIL : du Ier septembre au Ier octobre (à oh) sa déclinaison décroît de + 8°32' à — 2°55' et la durée du jour de à
- diamètre app. le Ier (à oh) = 3i'44/,,8, le 30 (à 24I1) — 32'o",o. — LUNE : Phases : P.Q. le 7 à 6h45m, P. L. le 14 à 4hi2m, D. Q. le 20 à I9h36m, N. L. le 28 à icjl^o111; apogée le Ier à 19b, diamètre app. 29'25"; périgée le 14 à i6h, diamètre app. 33'27"; apogée le 29 à ih, diamètre app. 29'23". Principales conjonctions : avec Mercure le Ier à 5b, à 5°45' N; avec Vénus le 3 à 2h, à 7057' N; avec Neptune le 4 à i2h, à 3°38r N; avec Saturne le ix à 3b, à i°i' N; avec Jupiter le 13 à 4b, à i°4' S; avec Mars le 22 à 13b, à 20i9' S; avec Uranus le 26 à ib, à i°3i/ N; avec Mercure le 29 à i8h, à 9°o' N. Principales occultations : le 11, de 31 Capricorne (mag. 6,3) immersion à iqlui111^; le 17, de 445 BD + ii° (mag. 5,9) émersion à 23hinij8; le 18, de 179 B Taureau (mag. 6,0) émersion à 22b-54m,o; le 21, de 64 Orion (mag. 5,2) émersion à ohi6m,3. — PLANÈTES : Mercure, perdu
- Amateurs d'ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- 28, rue Serpente, Paris-6e
- Vous aurez à votre disposition une importante Bibliothèque, un Observatoire, des séances mensuelles, cours, conférences, etc... Vous recevrez la revue mensuelle L’ASTRONOMIE Spécimen gratuit et conditions sur demande.
- Permanence au Siège social, tous les jours non fériés de 14 àl7 heures.
- POUR CONSTRUIRE VOUS-MÊMES votre INSTRUMENT achetez l’important ouvrage :
- LA CONSTRUCTION DU TÉLESCOPE D’AMATEUR
- par Jean Texereau,
- Ingénieur du Laboratoire d’Optique de l’Observatoire de Paris.
- 2e édition considérablement augmentée, magnifique volume 16 x 24 de 296 pages, illustré de 156 flg. et IV planches hors texte, sous reliure toile, 25,50 NF franco, réduit à 19,50 NF pour les Membres de la Société, payable à la commande : Ch. Post. Paris 1733.
- dans les brumes crépusculaires, est invisible. Vénus, belle étoile du soir, basse sur l’horizon S-O, se couche le 22 à iShjo"1, soit ihim après le Soleil; Mars, dans les Gémeaux, se montre maintenant avant minuit, le 22 : mag. 1,1; Jupiter, dans le Verseau, brille avec éclat la plus grande partie de la nuit, le 15, diamètre pol. app. 45",7, mag. 2,4; Saturne, dans le Capricorne, visible encore au delà de minuit, le 15, diamètre pol. app. i6,,,i, axes de l’anneau : 40",6 et + 13",7, mag. 0,6; Uranus, dans le don, réapparaît un peu le matin dans l’aube, surtout à la fin du mois; Neptune, dans la Balance, devient peu visible dans les lueurs crépusculaires. — ÉTOILES VARIABLES : minima observables T Algol (2m,2-3m,5) le 15 à 4b, 1, lq 18 à ih,o, le 20 à 2ih,6; minima de [3 Lyre (3m,4-4m,3) le 10 à 22b,7, le 23 à 2ih,o; maxima de S Cêphée (3m,7-4m,6) le 3 à 6b,5, le 8 à 1511,3, le 14 à o,hi, le 19 à 8h,9, le 24 à 17b,6,le 30 à 2*1,4; maxima de 7] Aigle (3m,7-4m,4) le 7 à oh,3, le 14 à 4h,6, le 21 à 8h,8, le 28 à 13^1 ; maximum de S Vierge (6m,3-i3m,2) le 12. — TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.) : le Ier : 22h48m4s, le 11 : 23h27m29s, le 21 : oh6m5 5s, le Ier octobre : oh46m20s.
- Phénomènes intéressants : Observer la surface tachée du Soleil. — Equinoxe d’Automne le 23 à i2h35m. — Lumière cendrée de la Lune, le matin, du 22 au 27. — Vénus à sa plus grande élongation le 3 à 5 h, à 4609' Est du Soleil, mais la planète demeure basse sur l’horizon S-O et ne se couche qu’une heure après le Soleil. — Mars est de mieux en mieux observable le matin. — Les planètes Jupiter et Saturne sont toujours commodément visibles le soir, le petit axe de l’anneau de Saturne se referme peu à peu. — A la jumelle, examiner les riches champs stellaires de la Voie lactée dans le Scorpion, Ophiuchus, Sagittaire, Ecu, Aigle, Cygne, Cassiopée.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- LES L I V
- Compléments de mathématiques à l’usage des ingénieurs de l’électrotechnique et des télécommunications, par André Angot. 4e édition, i vol. 16,5X24,5, 836 p., nombr. fig. Editions de la Revue d’Optique, Paris, 1961. Prix, relié : 65 NF.
- On,ne dira jamais assez combien l’enseignement des mathématiques donné en France aux élèves des écoles d’ingénieurs est mal adapté à leurs besoins. Si, pour le mathématicien, la rigueur des démonstrations est essentielle, elle importe en général peu au physicien dont le besoin essentiel est le maniement aisé des divers moyens mathématiques qui s’offrent à lui. Cela suffit à expliquer le succès remporté depuis 1949 par l’ouvrage de M. Angot. Il s’agit avant tout d’un instrument de travail où l’auteur, sans insister sur la rigueur des démonstrations, donne le détail des calculs, fait accompagner son texte de nombreux exemples d’application précis, de graphiques, de tables numériques, etc. De nombreuses modifications ont été apportées à cette 4e édition. Citons des additions relatives aux polynômes de Tchebycheff et des compléments aux fonctions de Weber-Hermite et de Mathieu, ainsi que l’adoption exclusive du système de Giorgi rationalisé dont les avantages sont incontestables. Excellent ouvrage, qui constitue une source indispensable de renseignements pour le physicien et l’ingénieur. •— R.R.
- Principes de Statistique mathématique, par A. Tortrat. 1 vol. 11 X 16,5, x-179 p., 19 fig. Monographies Dunod, Paris, 1961. Prix, relié toile souple : 16 NF.
- Ce livre, s’adresse plus particulièrement aux étudiants en sciences biologiques ou humaines
- R! E Si 14 q
- qui seront tous, au cours de leurs études ou de leur métier, sollicités par la statistique. Les connaissances mathématiques du baccalauréat sont nécessaires pour l’aborder mais aussi suffisantes, bien que des connaissances du niveau propédeu-tique soient quelquefois utiles. Après avoir rapidement vu les valeurs typiques d’une répartition et quelques notions fondamentales de probabilité, les diverses lois simples sont étudiées, les notions de test d’hypothèse, de corrélations et d’analyse factorielle sont ensuite introduites. Exemples
- ------ A NOS LECTEURS-----------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- est à la disposition des lecteurs de LA NATURE - SCIENCE PROGRÈS pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- U V E A U X
- simples allant de la génétique à la psychotechnique.
- Introduction à l’analyse vectorielle, par
- B. Hague. Traduit de l’anglais par Annie
- Nozieres. i vol. ii X 16,5, xn-144 p., 39 fig.
- Monographies Dunod, Paris 1961. Prix, relié
- toile souple: 12,50 NF.
- Cette monographie® résume les connaissances nécessaires en physique et plus particulièrement en électricité pour faire des calculs sur des grandeurs vectorielles : champs électrique et magnétique, vitesses en hydrodynamique, etc. Les démonstrations restent simples et font souvent appel à l’intuition plus qu’à la rigueur mathématique. On pourra ainsi facilement assimiler un outil de travail indispensable aux chercheurs et aux ingénieurs.
- Mécanique physique, par J.P. Pérez. i vol.
- 16,5 X 24,5, 202 p., 171 fig. Masson, Paris, 1961.
- Prix, cartonné : 26 NF.
- Cet ouvrage, le premier d’une série de cours de physique à l’usage des candidats à la licence ès sciences, reproduit renseignement donné par l’auteur à la Faculté des Sciences de Lille dans le cadre de la licence de physique (2e cycle). Il traite la partie Mécanique physique du certificat de Thermodynamique et Mécanique physique. Sous un titre manifestement trop général, il s’agit, en fait, de l’étude des mouvements vibratoires : oscillateur mécanique simple, oscillations libres et forcées, cordes vibrantes, son, propagation en milieu dispersif, effet Doppler, oscillations de relaxation, etc. Que l’on n’y cherche donc pas l’exposé de la théorie de l’élasticité ou le calcul des
- 358
- p.358 - vue 362/551
-
-
-
- contraintes dans les matériaux. Cela tient au programme (officiel) du certificat, qu’il ne nous appartient pas de justifier ou de critiquer ici. L’exposé est classique, toujours très clair.
- Electronique, par Robert Guillien. Tome III : Semiconducteurs, cellules photoélectriques et compteurs. i vol. 14 X 18,5, 232 p., 223 fig. Tome IV : Télévision et radar, calcul électronique, servomécanismes. 1 vol 14 X 18,5, 310 p., 20Z fig. Collection Euclide. Presses Universitaires de France, Paris, 1961. Prix, respectivement: 24 NF et 28 NF.
- Le tome III est particulièrement destiné aux étudiants du certificat d’études supérieures d’élec-ttoaique qui y trouveront exposée la théorie des tubes à gaz, des cellules photoélectriques et des éléments à semiconducteurs. Il déborde toutefois ce cadre par un important chapitre sur les compteurs de radiations. Le tome IV est consacré à la télévision (en noir et blanc et en couleurs), au radar et aux différentes aides à la navigation, aux calculateurs électroniques (arithmétique et analogique), enfin aux servomécanismes électroniques. Ouvrage bien équilibré et assez clair bien que péchant parfois par excès de concision. Le lecteur sera heureux d’y trouver de nombreuses questions actuelles tèlles que le maser, les diodes tunnels, etc. — R.R.
- The surface chemistry of solids, par S.J. Gregg. 2e édition. 1 vol. 14 X 22, xvn-393 p., fig., pl. hors texte. Chapman and Hall Ltd, Londres, 1961. Prix, relié toile : 60 sh.
- La chimie des surfaces des solides englobe tous les phénomènes se produisant aux interfaces d’un solide avec un gaz, un liquide ou un autre solide, et par conséquent des questions aussi importantes que celles de l’adsorption, de la catalyse, du flottage, de la lubrification, des fumées, des aérosols, de la chromatographie, etc. Plusieurs milliers de publications en ce domaine depuis dix ans
- justifiaient une 2e édition de cet excellent ouvrage pédagogique, très bien mis à jour.
- Béryllium, par G. E. Darwin et J. H. Buddery. 1 vol. 14,5 X 22, x-392 p., nombr. illustr.
- Butterworths Scientific Publications, Londres, i960. Prix, relié : 70 sh.
- Le béryllium, dont le principal minerai, le béryl, est assez rare, a vu jusqu’à la guerre son utilisation limitée à la préparation des bronzes de béryllium, doués de propriétés mécaniques particulières; absorbant peu les neutrons, il est devenu un matériau de l’industrie nucléaire, mais ses propriétés remarquables, faible densité, température de fusion et module d’élasticité élevés, lui ont ouvert de nouveaux débouchés ; de plus l’oxyde de béryllium, produit hautement réfractaire, trouve des applications intéressantes pour les fusées. Cette mise au point réunit tout ce qui concerne la métallurgie, les propriétés physiques, chimiques et nucléaires de ce métal et de ses composés, sans omettre ses propriétés toxiques qui entraînent la nécessité de prendre certaines précautions en manipulant ses sels.
- Meteorological factors influencing the transport and removal of radioactive débris, édité par W. Bleeker. (Communications présentées à la 7e session du Comité scientifique des Nations Unies sur les effets des radiations atomiques). 1 vol. 21 x 27,5, 172 p., nombr. fig. Publication de l’Organisation Météorologique Mondiale, Genève, 1961. Prix: 8 F suisses.
- Les différentes communications rassemblées dans ce volume permettent de faire la somme des connaissances acquises sur les transports de particules radioactives dans la troposphère et la stratosphère. Les procédés de détection sont également décrits, ainsi que les mécanismes d’« extraction » des particules, soit par voie humide, soit par coagulation, fractionnement ou toute autre voie sèche.
- Photochemistry of air pollution, par Philip A. Leighton, i vol. 15,5 x 23,5, x-300 p., 59 fig. Academie Press Inc., New York et Londres, 1961. Prix: 11 dollars.
- Le problème de la pollution de l’air prend dans certaines régions, Los Angeles avec son « smog » en particulier, des proportions presque catastrophiques. Un grand progrès a été fait dans l’étude de ces questions quand on s’est rendu compte que les substances nuisibles étaient produites par l’action du rayonnement solaire sur des produits relativement inoffensifs en suspension dans l’air. L’ouvrage réunit, analyse et compare les connaissances déjà acquises dans ce domaine des réactions photochimiques de l’atmosphère.
- Potassium Symposium i960, 1 vol. 15,5 X 23, 828 p. Institut International de la Potasse, Berne, 1961. Prix : 26 francs suisses.
- Compte rendu du 6e Congrès international de la Potasse, tenu en i960 à Amsterdam et ayant pour thème de discussion : le potassium dans l’organisme animal. Certaines communications ont montré le rôle fondamental du potassium dans l’organisme animal normal, d’autres étaient consacrées à l’étude du métabolisme de cet élément chez l’homme et l’animal malades, tandis que certains spécialistes de la nutrition ont examiné la place que doit tenir le potassium dans une ration alimentaire équilibrée et les moyens pratiques de produire ces aliments par une fumure minérale convenable.
- Activité antibiotique des mycéliums d’Ho-mobasidiés en culture pure, par Lucien Oddoux, chef de travaux à la Faculté de Médecine et de Pharmacie de Lyon. Thèse dé doctorat d’Etat en Pharmacie. 1 vol. 15,5 X 24, 142 p. Lyon, i960.
- L’auteur a examiné l’activité antibiotique des mycéliums de nombre de souches d’Homobasidiés, en majorité des champignons supérieurs (Agari-cales), et défini les conditions dans lesquelles la
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'Ëtat — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e — ODE 54-83
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d'Etat. Brevets de Techniciens d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- "WÊUtimBtÊÊÊÊÊÊKÊÊ/ÊSÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊIÊÊÊÊÊÊÊÊÊÊÊtÊÊtSÊÊÊÊÊtÊÊ
- ___ VIENT DE PARAITRE --------------------------
- COURS DE CHIMIE
- ET ÉLÉMENTS DE CHIMIE NUCLÉAIRE
- avec 28 tableaux synoptiques et 150 exercices et problèmes expliqués
- PAR
- D. MONNIER J. HOCHSTAETTER
- VI-312 pages 14 x 22. 1961. Cartonné sous couverture
- illustrée........................... 18 NF
- En vente dans toutes les bonnes librairies et chez
- XyCXKTOD Editeur, 92, rue Bonaparte, PARIS-6e. DAN 99-15
- MUETIMESUREUR E.R.I.C
- appareil universel à hautes performances pour laboratoires
- Z
- 2
- CARACTÉRISTIQUES DE BASE :
- Résistance d'entrée :
- 10‘»n
- Courant-grille : 10~13A Dérive du zéro :
- 15 mV par 10 heures Précision : 1 à 2 %
- Galvanomètre de 165, classe 0,5 - Robustesse à toute épreuve des surcharges.
- MESURE :
- directement ou par adjonction d'organes de référence : e : 0,5 mV â 35 kV r : 20 A à 10« Eh
- i : 10-5 à 10-n A c : 10 pF à 10.000 pF
- q : 10 pico coulombs à 10 mC Fluctuations de tension : AV = IV/1.000 V Champs : depuis 1 œrsted
- Tensions : pièzo-électriques; électro-statiques ; d'hystérésis, de corrosion, pH, rH.
- Intègre au sens mathématique du terme depuis 1 seconde à 60 minutes.
- Documentation et démonstrations sur demande
- Fournisseur de 1.900 laboratoires 7 français et étrangers
- lEMOUZr.
- FONDE EN 1915
- 63 RUE DE CHARENTON, PARIS 12e. DID. 07-74
- 359
- p.359 - vue 363/551
-
-
-
- production d’antibiotique est la plus élevée. 86 souches (soit 18 pour ioo) se sont montrées actives sur Micrococcus pyogenes var. aureus ou sur Escherichia coli, ou sur les deux.
- Nervous inhibition, édité par Ernst Florey. i vol. 16 X 23,5, xvi-476 p., nombr. fig. Per-gamon Press Ltd, Oxford, Londres, New York et Paris, 1961. Prix, relié : 100 sh.
- Ce volume représente les actes d’un symposium tenu en i960 à l’Université de Washington. Les 31 communications qui y sont rassemblées traitent du phénomène de l’inhibition nerveuse dans diverses espèces animales (Vertébrés et Invertébrés). Cette inhibition est. généralement présentée comme étant le fait de neurones spécialisés, agissant en quelque sorte à l’inverse des neurones qui transmettent l’excitation. L’existence d’un tel réseau de neurones, reconnue au niveau de plusieurs organes, serait également observée dans le système nerveux central.
- La grippe, par Georges H. Werner. i vol.
- 11,5 X 17,5, 128 p.v 5 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, 1962. Prix: 2,50 NF.
- L’auteur de cet ouvrage procède à une étude détaillée de la grippe, avec une description de la maladie et des virus qui en sont la cause. Après un historique des pandémies grippales, deux chapitres sont consacrés aux traitements et à la prévention de la grippe.
- Vie et économie des mers tropicales, par Michel Angot, océanographe chargé de missions dans le Pacifique. Préface de M. Fontaine, de l’Institut, directeur de l’Institut Océanographique, professeur au Muséum. 1 vol. 14 X 22,5, 326 p., 27 fig., 16 photos. Payot, Paris, 1961. Prix: 22 NF.
- Pas plus que les ressources vivantes du continent, celles de l’océan ne sont inépuisables et l’auteur montre que les équilibres biologiques de la mer sont même plus fragiles dans les zones tropicales, où existent comme sur terre des régions désertiques. Une exploitation rationnelle des ressources implique ici comme ailleurs des études scientifiquement conduites. Pour ne pas s’en être avisés assez tôt, certains exploitants ont failli détruire entièrement les richesses qu’ils surexploitaient. D’autres ont été plus sages, comme les pêcheurs de thon américains. La mer recèle encore de grandes ressources mais l’ère de l’empirisme doit être close.
- Profondeur 11 000 mètres, par Jacques Piccard.
- 1 vol. 15 X 20,5, 274 p., 32 planches hors texte. Collection^ Clefs de l'aventure, clefs du savoir. Arthaud, Grenoble et Paris, 1961. Prix : 16 NF.
- Ce livre est un récit détaillé, parfois pittoresque, des tribulations du bathyscaphe, de ses premiers succès et enfin de la plongée historique à près de 11 000 mètres de profondeur dans la fosse des Mariannes. On appréciera ce témoignage vivant, dû au fils du professeur Piccard. C’est lui-même, rappelons-le, qui pilota le Trieste dans ses belles performances en Océan Pacifique.
- La vie secrète des Pygmées, par Raoul Hary-weg, chef du Département d’Anthropologie au Musée de l’Homme. 1 vol. 16 X 18,5, 118 p.,
- 2 cartes, 8 photos en couleurs. Editions du Temps, Paris, 1961. Prix, cartonné: 7,50 NF.
- Devant les changements radicaux qu’apporte la civilisation moderne au cœur de tous les continents, bien des peuples « primitifs » ou « marginaux » sont voués à une extinction rapide (ou à une « assimilation» qui équivaut à l’extinction). Les Pygmées, dont l’auteur montre qu’ils sont déjà cantonnés dans une aire beaucoup plus exiguë que jadis, sont de ceux-là. Il a participé à une mission d’études qui a rapporté de précieux documents de tous ordres. Il a fallu beaucoup de patience et de
- doigté pour pénétrer dans l’intimité des Ba-Binga, dont ce petit livre retrace la vie et les mœurs, avant qu’il soit trop tatd. L’auteur a aussi retrouvé une ascendance négrille dans les Tomas de Guinée, étranges, farouches et redoutés...
- Images économiques du monde 1961, par Mme J. Beaujeu-Garnier et A. Gamblin.
- 1 vol. 13,5 X 21, 216 p., 8 cartes. C.D.U. et S.E.D.E.S. réunis, Paris, 1961. Prix: 16 NF.
- Appréciablement renforcée, cette nouvelle édition des Images économiques du monde coûte aussi plus cher. Il est vrai qu’elle est mieux présentée, plus étoffée, et qu’elle comporte huit grandes cartes hors texte relatives aux grands produits. La France occupe à partir de cette année une place importante parmi les tableaux présentés. Les statistiques par pays sont particulièrement intéressantes (relatives aux années 1929, 1938, 1946, 1955, 1959 et i960). Il s’y ajoute des statistiques agricoles, industrielles, démographiques, etc. Bref, ce volume est de plus en plus utile au fil des années.
- L’ « explosion» scolaire, par Louis Cros. Publication du Comité universitaire d’information pédagogique. 1 vol. 11 X 18, 184 p., 5 hors texte,
- 1 dépliant. S.E.V.P.E.N., Paris, 1961. Prix: 5,50 NF.
- Ce livre condense l’ensemble des données qui régissent le problème brûlant de l’enseignement : structures périmées, insuffisances des effectifs et des moyens matériels, indispensable renouvellement des méthodes. Autant de faits qui s’imposent à l’attention de tous et qu’il était utile de mettre en lumière, en fonction de l’évolution rapide des sociétés et des besoins nouveaux en hommes qui se révèlent aux échelons supérieurs de l’activité humaine.
- La fabrication des tissus, par Raymond Thié-baut. i vol. 11 X 16,3, 192 p., 40 fig. Collection Armand Colin, Paris, 1961. Prix : 5,70 NF.
- . Les techniques traditionnelles de l’industrie textile cèdent peu à peu la place à des procédés nouveaux, inspirés par une meilleure connaissance des différentes fibres naturelles ou synthétiques. C’est ainsi que l’on peut suivre ici la gamme importante des méthodes concernant la fabrication et la préparation des fils, celles également du tissage où interviennent notamment les nouvelles conceptions mécaniques des métiers sans navette.
- Merveilles souterraines, par Jacques Baurès. 1 vol. 18 X 24, 80 photographies de l’auteur, dont 72 en héliogravure et 8 en quadrichromie. Albin Michel, Paris, 1961. Prix : 27 NF.
- Cet album, richement illustré, ne comporte qu’une courte introduction et de brefs commentaires accompagnant chaque photo. Il vaut surtout comme information visuelle.
- Les temps noirs, par Jean Pignero. i vol.
- 14,5 x 19, 92 p. Nouvelles Editions Debresse, Paris, 1961. Prix: 3,90 NF.
- Sur le ton du pamphlet, mais non sans documentation, l’auteur dénonce les menaces que les techniques atomiques font peser sur l’humanité. Aux écrits officiels sur la question, il reproche une certaine imprécision.
- J’aime mieux les bêtes, par Gilles Calou. i vol. 12 X 18,5, 218 p. La Palatine, Paris, Genève, 1961. Prix: 7,80 NF.
- Quelques souvenirs et récits assez décousus mais non dénués d’agrément où les animaux, surtout domestiques, et surtout des chiens, tiennent la place principale.
- L’aurore de l’amour, par André Lamouche. 1 vol. 13,5 X 2i, 194 p. La Colombe, Paris, 1961. Prix: 9,50 NF.
- L’auteur de la « théorie harmonique » et de la
- « logique de la simplicité » nous présente une version romancée de ses idées sur l’évolution humaine. On y voit YHomo faber devenant l’Homo sapiens. Il veut nous suggérer par là comment l’actuel Homo superfaber doit évoluer à son tour en H. supersapiens.
- Le faisan et son élevage, par R. Fol, ingénieur des Eaux et Forêts. Préface de F. Vidron, ingénieur général des Eaux et Forêts, secrétaire général du Conseil supérieur de la chasse. 1 vol.
- 13,5 X 21, 84 p., 7 fig., 6 photos. La Maison rustique, Paris, 1961. Prix: 7 NF.
- Classification et origine des faisans. Principes et techniques de l’élevage, mise au bois, maladies, gestion et organisation, législation. Guide surtout destiné aux petites et moyennes chasses.
- Palombes et tourterelles, par Jean Nard, i vol. 13,3 X 18,5, 96 p. Crépin-Leblond, Paris, 1961. Prix: 6,90 NF; franco: 7,50 NF.
- Mœurs et habitudes des pigeons sauvages, et toutes façons de les chasser. De même pour la tourterelle, « oiseau des plus gracieux, s’apprivoisant facilement » et dont la chasse est « tout aussi agréable».
- Guérisseur, qui es-tu ? par Louis Lamarre, i vol. 12 X 19, 268 p. La Palatine, Paris, Genève, 1961. Prix : 8,40 NF.
- Quand le guérisseur invoque un « fluide » ou parle de « pôle négatif», on peut sourire. Quand il envisage la suggestion, on est plus attentif. Quoi qu’il en soit, des hommes ont cultivé des dons qui leur permettent d’ctre de quelque secours à certains malades. En quelques pays, cette « médecine libre » est autorisée et fait bon ménage avec l’autre. Est-ce souhaitable en France ?
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Très important groupe industrie!
- en expansion constante désirant accroître son
- Activité SPATIALE
- — ÉNERGIE NUCLÉAIRE — ÉLECTRONIQUE — SERVOMÉCANISMES — INSTRUMENTS — ÉQUIPEMENTS ENGINS
- Offre situations d’avenir à
- CHERCHEURS
- FORMATION UNIVERSITAIRE
- et
- INGÉNIEURS DE LABORATOIRES
- Ecr. n° 88.902 Contesse Publicité 20, av. de l’Opéra, Paris Ier q. tr.
- DISCRETION ABSOLUE ASSURÉE
- RECHERCHE ouvrages anciens avec planches en couleurs sur l’entomologie et la botanique ainsi que de beaux échantillons de cristaux et ‘minéraux. R.E.P., 38 av. Pierre-Ier-de-Serbie, Paris (8e).
- 360
- lue Gérant : F. Dunod. — DUNOD, Éditeur, Paris. — Dépôt légal : 3e trimestre 1962, N° 3957. — Imprimé en France. Imprimerie Bayeusaine, 6-8, rue Royale, Baveux (Calvados), N° 3324. — 8-1962.
- p.360 - vue 364/551
-
-
-
- Le Sahara pétrolier dans sa première phase d’exploitation
- par Yves Mériel
- Le tableau des pétroles sahariens a été dressé ici (JLa Nature, septembre 1957), alors que les premières découvertes de gisements importants venaient de couronner la phase de l’exploration. A un peu plus de quatre ans de distance, ce tableau s’est profondément modifié. De nombreux puits, en effet, sont entrés en exploitation et les hypothèses qu’on formulait au départ ne se sont pas entièrement vérifiées : les réalités parfois dépassent les pronostics, ailleurs elles restent en deçà. C’est ce que nous allons tenter de faire ressortir, dans une nouvelle carte du Sahara pétrolier, tout en évitant une fastidieuse nomenclature de tous les permis de recherches, de tous les forages d’exploration et des indices recueillis çà et là.
- Le but n’est pas, en effet, d’examiner l’ensemble des virtualités sahariennes, avec toute la part de conjecture que comporte cet examen. Plutôt faire ressortir, sur des données objectives, le développement de ce territoire pétrolier jusqu’à ce jour; puis, afin de mieux comprendre le déroulement des faits, décrire plus en détail un cas typique, celui du gisement de Hassi Messaoud.
- La nouvelle cafte du Sahara
- Le gisement du Berga. — C’est pour mémoire que nous rappelons l’existence de ce gisement, le premier qui fut découvert dans le désert saharien. Malgré d’assez importantes réserves de gaz et la perspective de trouver aux alentours des gisements similaires, il ne fut pas mis en exploitation. Le gaz (on le constatera en d’autres endroits) n’a vraiment d’intérêt que s’il peut être acheminé dans des conditions satisfaisantes vers les centres d'é consommation. Rien de semblable jusqu’à nouvel ordre pour le gisement du Berga, situé à trop grande distance des côtes.
- Le bassin de Polignac. — On se souvient que, coup sur coup, en novembre 1955 et mai 1956, deux découvertes importantes eurent lieu, au voisinage de la frontière libyenne. Les gisements furent désignés sous les noms locaux d’Edjeleh et de Tiguentourine. C’était l’amorce d’un bassin qui se révéla par la suite très étendu et plus riche qu’on ne l’avait présumé.
- Les puits se groupent autour de l’oasis de Fort-Polignac, dont le nom couvre désormais l’ensemble du bassin.
- Le gisement d’Edjeleh, le premier, a été équipé en vue de l’exploitation. Une remarque très générale doit être
- faite à ce sujet : avant qu’elle soit mise en exploitation, aucune source de pétrole n’est connue autrement que de manière approximative. On s’abstient en effet de faire débiter les puits si l’huile ne peut en même temps être évacuée, ce qui suppose la mise en place d’un moyen de transport. Dans le cas qui nous occupe, le transport a pu s’effectuer, depuis 1960, par l’oléoduc de la Skhirra. C’est à partir de cette date que le nombre des puits s’est multiplié. Il est actuellement de 157, dont 152 productifs. Cette densité assez remarquable est due au fait que le pétrole a été rencontré à faible profondeur et qu’il suffit généralement de 5 à 6 jours pour atteindre le premier réservoir, situé dans le Carbonifère. Cet avantage est compensé par le débit relativement réduit de chaque puits : 43 t par jour, en moyenne. La qualité du gisement, en effet, n’est pas parfaite : certains puits ne sont pas éruptifs (l’huile étant soumise à une pression insuffisante) et doivent être pompés. D’autres ne sont devenus éruptifs qu’après fracturation, c’est-à-dire en déterminant une explosion à la base du forage.
- On est souvent conduit à pousser la sonde au delà du Carbonifère jusqu’à des magasins du Dévonien (vers 800 m de profondeur) et de l’Ordovicien (vers 1 100 m). L’activité est grande sur ce chantier où s’ouvrent constamment de nouveaux puits qu’il faut raccorder au réseau de collecte (plus de 150 km de canalisations) qui quadrille un terrain coupé d’escarpements et de ravins.
- Les réserves d’Edjeleh en huile brute sont actuellement évaluées à 35 000 000 t. Il s’agit d’une huile riche en produits légers dont la densité ne dépasse pas 0,82. Elle peut être utilisée directement dans les moteurs diesels, après centrifugation.
- A 40 km au nord d’Edjeleh s’amorce un deuxième gisement, celui de Zarzaïtine, dont la découverte est plus récente, mais qui d’emblée s’est révélé plus important, avec des réserves évaluées à 80 000 000 t. Les conditions d’exploitation y sont en outre exceptionnellement favorables. Les niveaux du pétrole y sont nettement plus profonds qu’à Edjeleh (le magasin du Carbonifère se rencontre à — 750 m, celui du Dévonien à —- 1 300 m) mais le débit est bien meilleur, et les 88 puits de Zarzaïtine assurent une production 2,5 fois supérieure à celle des 152 puits d’Edjeleh. C’est le magasin du Dévonien, très homogène semble-t-il, qui en fournit la majeure partie. La teneur en gaz est d’environ 100 m3 par tonne d’huile, contre 30 m3 à Edjeleh.
- 361
- p.361 - vue 365/551
-
-
-
- Fig. i. — Carte du Sahara pétrolier en 1962.
- ALGER
- Constantinq
- pousse.
- Kairouan
- \ Nemours
- • Biskra
- 'Tozeur
- 'LAGHOUAT
- FoumXjé
- Tatahouïne\
- JOUGGOURT%
- IIAbiod
- l AIN SEFRA.
- Belketaiefi
- nln Haoud e! Hamra
- SHi-Hassi Messaoud
- / r-Makrerouga
- 3Béni Ounif
- OUARGL.
- COLOMB-BECHAR
- BENI-ABBÈS
- Ohanet
- ^^LoAskarène >
- ""-if- > •<
- Tin Fouyé a Aménas
- FTFLATTERS° La Reculéen ^iZarzaïtine
- Tiguentourine wEdjeleh
- El Adeb-Larache| '
- Rhourde Nouss
- ADRAR
- AOULEF
- O
- REGGANE O
- OAMGU/D
- Gazoduc
- Gaz A ) Principales stuctures Huile H )en exploitation Gaz A | Exploitations récentes, Huile ) projetées ou différées
- 500 km
- Oléoduc
- vers te Tibesti
- Le réseau de collecte est également assez dense et se déverse depuis la fin de i960 dans l’oléoduc : 6 790 000 t ont été ainsi acheminées jusqu’à la côte en 1961 pour l’ensemble des deux gisements. Cette production eût été plus élevée si les incidents franco-tunisiens de l’été dernier n’avaient interrompu les transports pendant plusieurs semaines.
- Trois autres gisements vont intervenir dans la production du bassin de Polignac. L’un d’eux est Tiguentourine où les forages avaient été aussi précoces que ceux d’Edjeleh. Mais une exploration plus poussée aboutit à des constatations décevantes : le magasin du Carbonifère, très compartimenté, se composait de quatre réservoirs, de valeur médiocre, et c’est seulement en i960 que l’on découvrit, dans le Dévonien à — 1 200 m, un niveau de plus grande importance. Actuellement 36 puits sont jugés productifs sur le périmètre qui englobe Tiguentourine et un gisement mineur, situé à La Reculée, dans les environs immédiats. Les réserves en huile sont évaluées ici à 10 000 000 t.
- Mais des forages récents, exécutés à plus grande profondeur (— 2 000 m au niveau de l’Ordovicien), ont révélé un important gisement de gaz, qui s’étendrait à une assez grande distance vers le nord. Sa valeur serait d’autant plus appréciable que le gaz, « humide», fournit 100 g de gazo-line par mètre cube.
- Après Tiguentourine-La Reculée, vient le gisement
- d’El Adeb Larache, dont le réservoir, assez hétérogène, dans le Dévonien, contiendrait environ 5 000 000 t d’huile. Ses 24 puits vont, eux aussi, commencer à débiter. Les réseaux de collecte sont achevés pour les trois gisements et doivent seulement être raccordés à la tête de l’oléoduc qui se trouve au lieudit In Amenas (fig. 5) où se situe également le centre administratif et technique du bassin de Polignac.
- Notons en passant le confort de ce centre, où les locaux sont constamment maintenus sous une circulation d’air conditionné, ce qui permet de résister aux rigueurs d’un climat où les températures atteignent souvent 45°. Une nappe d’eau, à faible profondeur, est utilisée à la fois pour les besoins des hommes (piscine, appareils sanitaires, serre de plantes tropicales, etc.) et pour les installations industrielles, parmi lesquelles une petite centrale, chauffée au gaz naturel.
- On prévoit pour le bassin de Polignac certains développements sur toute une constellation de gisements actuellement en cours d’exploration. Le seul pour lequel on puisse fournir dès à présent un pronostic favorable est situé à Tin Fouyé, à 80 km au nord-est de Fort-Flatters ; 14 puits y ont déjà été forés et l’on n’est pas éloigné de penser que ce gisement pourrait avoir une importance équivalente à celle de Zarzaïtine.
- En résumé, le Sud-Est du Sahara a largement tenu ses promesses et constitue dès maintenant la réussite la plus évidente de la vaste entreprise d’exploration engagée en 1952.
- Bassins en formation. — Dans la partie centrale du Sahara, entre Fort-Flatters et les oasis situées plus au nord (Ouargla et Ghardaia), quelques découvertes intéressantes ont été faites depuis 1956. La plus importante est le gisement d’Ohanet, connu seulement depuis i960 et qui cependant a justifié le forage de 27 puits. Les réserves sont estimées à 20 000 000 t. Un oléoduc, récemment installé, évacuera en 1962 environ 800 000 t d’une huile qui contient quelque 200 m3 de gaz à la tonne.
- Deux gisements très voisins l’un de l’autre, El Gassi et El Agreb, ont eu des débuts assez décevants. Actuellement 15 puits productifs, principalement sur El Agreb, ont produit, en 1961, 430 000 t de brut.
- 362
- p.362 - vue 366/551
-
-
-
- Non loin de là se trouvent trois gisements de gaz : Hassi Touareg, Nezla et Gassi Touil. L’éruption récente de ce dernier gisement, accompagnée d’un incendie difficile à éteindre, laisse supposer que le sous-sol de cette région abrite un très vaste réservoir, dont la contenance pourrait dépasser 200 milliards de m3. Le gaz serait particulièrement riche en gazoline (120 à 200 g/m3).
- Hassi R’Mel. — Les indications qui précèdent montrent la grande richesse du Sahara en gaz naturel, dont il est malheureusement difficile de tirer parti. C’est à Hassi R’Mel que ce problème se pose dans toute son ampleur. Le gisement, exceptionnellement vaste, ne contient pas d’huile, comme on l’avait pensé d’abord, mais une énorme réserve de gaz, évaluée à 2 000 milliards de m3 dont, en tout cas, 900 milliards seraient récupérables. Ces chiffres permettent de classer Hassi R’Mel au deuxième rang, dans l’échelle mondiale, après un gisement du Texas. On a calculé qu’une exploitation normale, à raison de 30 milliards de m3 par an, pourrait fournir une énergie équivalente aux 4/5 de celle que la France métropolitaine tire de son charbon.
- Or, bien qu’Hassi R’Mel soit déjà relié à la côte par un gazoduc, le volume débité ne dépasse pas 280 000 000 m3 par an, c’est-à-dire à peine le centième de la capacité du gisement. Il est donc maintenu provisoirement en demi-sommeil : sur 9 puits forés jusqu’à ce jour, 4 seulement sont reliés au gazoduc et il suffit d’en faire débiter deux pour assurer largement les besoins quotidiens des villes algériennes qui reçoivent le gaz. Nous aurons sans doute l’occasion d’évoquer prochainement les divers projets qui sont étudiés en vue d’acheminer vers l’Europe cette considérable ressource énergétique.
- En attendant, on se contente de récupérer la gazoline
- Fig. 2. — Confrontation typique : la caravane et le pétrole.
- Au fond à droite, on aperçoit la centrale de Haoud el Hamra.
- (Photo François).
- ('Tonies les photos qu't illustrent cet msm
- article mus ont été aimablement corn-
- mtiniquées par le Bureau de Recher- HBBK
- ches de Pétrole). Jjl
- Fig. 3. — Dans le massif d’Edjeleh.
- Au fond à gauche* au bout du ravin, les réservoirs" d’une station de collecte.
- 363
- p.363 - vue 367/551
-
-
-
- que contient le gaz, à raison de 35 1 par 100 m3. Cette récupération a lieu sur place, sans aucune dépense d’énergie : le gaz en effet jaillit sous une pression de 250 à 300 kg/cm2; il suffit de le détendre jusqu’à 70 kg/cm2 pour abaisser sa température aux environs de o°. La condensation s’opère alors et la partie liquide est reprise par un oléoduc qui la dirige vers Hassi Messaoud.
- Hassi Messaoud. — Avant l’étude plus approfondie qui va suivre, situons brièvement cet important gisement sur la carte du pétrole saharien. Ses réserves ont été évaluées à 450 000 000 t d’huile récupérable, chaque tonne fournissant en outre un peu moins de 300 m3 de gaz. La production a atteint 8150 000 t en 1961. Elle s’est répartie sur 112 puits, dont 85 considérés comme bons ou assez bons producteurs.
- Découvertes récentes. — Les toutes dernières informations recueillies permettent de compléter la carte du Sahara, en mentionnant quatre gisements dont la découverte date seulement de la fin de 1961 et du début de 1962. Ils ne sont connus que par des puits d’exploration et des tests de production, suffisants cependant pour autoriser des espoirs sérieux :
- Khourde el Baguel : un puits foré à 80 km au sud-est d’Hassi Messaoud a atteint, au delà de 2 660 m de profondeur, un réservoir dont la hauteur serait de 90 m. L’essai de production a fourni un débit de 140 m3/jour. L’huile contient 125 m3 de gaz par mètre cube.
- Khourde Nouss : le puits foré à cet endroit (200 km au sud d’Hassi Messaoud) a débité 400 000 m3 de gaz en 24 h.
- Belketaief (sud-ouest d’Hassi R’Mel) : à environ 2 000 m de profondeur, un magasin a été trouvé : 4 m3 d’huile ont été débités en 1 h 30.
- Askarène (à xo km à l’est d’Ohanet) se présente comme un gisement très prometteur : 5 m3 d’huile ont été recueillis en 20 mn; ce qui laisserait espérer un débit de plus de 300 m3 par jour.
- Deux autres découvertes récentes, à Taouratine (au sud d’Ohanet) et à Makrerouga (dans le Sud tunisien), n’ont encore donné lieu à aucune information significative.
- Transports vers la côte. — Mentionnons tout d’abord que le réseau des oléoducs du Sahara a transporté en 1961 un total d’environ 15 600000 t de pétrole, non compris les légers appoints de gazoline. Cette production concorde avec les prévisions faites en 1957, à cela près qu’on « misait » davantage sur Hassi Messaoud et beaucoup moins sur le bassin de Polignac.
- Quant au réseau lui-même, il comporte deux troncs principaux : celui de l’Est, oléoduc de 26 pouces qui recueille à In Amenas la collecte des gisements du bassin de Polignac et aboutit à La Skhirra, sur le golfe de Gabès, après avoir traversé le Sud tunisien; celui de l’Ouest qui
- Fig. 4. — A la centrale d’In Amenas.
- Vue des turbines alimentées par le gaz d’Edjeleh et de Zarzaïtine.
- p.364 - vue 368/551
-
-
-
- va de Houad el Hamra (sur le gisement de Hassi Messaoud) au port algérien de Bougie. Par suite de sa situation géographique, Haoud el Hamra est devenu une sorte de plaque tournante où aboutissent à la fois les réseaux de collecte de Hassi Messaoud, l’oléoduc d’Ohanet (fig.7) auquel Tin Fouyé sera vraisemblablement raccordé, l’oléoduc d’El Agreb-El Gassi et celui (à gazoline) de Hassi R’Mel. L’oléoduc principal, en direction de Bougie, a, au départ, un diamètre de 24 pouces. Le pétrole y est refoulé par une station de pompage, sous une pression suffisante pour franchir les reliefs algériens. Une fois la crête dépassée, le diamètre du tube est réduit à 22 pouces et le liquide s’écoule par gravité.
- Le gazoduc de Hassi R’Mel se dirige vers Arzew d’où partiront, espère-t-on, les transports vers l’Europe et se prolonge jusqu’à Oran. Une branche dessert Orléansville et Alger.
- Les problèmes de Hassi Messaoud
- En étudiant de plus près Hassi Messaoud, on peut pénétrer directement dans les réalités pétrolières qui, en général, n’apparaissent au public que sous un jour assez superficiel. Certaines confusions se produisent, à propos notamment des réserves d’un gisement. On s’imagine par exemple qu’après avoir « cubé » le volume de la roche magasin (surface X hauteur) et évalué sa porosité moyenne, cela donne, avec une certaine approximation, le tonnage de l’huile exploitable. Un semblable calcul, parfois publié, attribuait au réservoir de Hassi Messaoud une contenance de 3 milliards de tonnes. Personne ne peut dire si ce chiffre est réel ou faux. Tout ce qu’on peut affirmer, c’est qu’une partie seulement de la réserve sera récupérée. L’estimation actuelle (450000000 t) résulte d’un certain nombre de facteurs que nous allons tenter de mettre en lumière.
- Quelques données géologiques. — Les nombreux forages des cinq dernières années ont considérablement enrichi les notions que l’on possédait sur la structure géologique du Sahara. C’est ainsi qu’a pu être suivie la plongée des couches du Paléozoïque que nous avons signalée plus haut, à propos d’Edjeleh et de Zarzaïtine. Cette
- Fig. /. — Station de départ de l’oléoduc In Amenas-La Skhirra.
- plongée se dessine du sud au nord; elle a déterminé la formation de falaises, analogues à celles de l’Ile-de-France et qui sont connues au Sahara sous le nom de tassilis.
- Mais si l’on recoupe ces couches dans le sens est-ouest, on s’aperçoit qu’elles ne sont pas uniformément présentes. Il existe en effet une dorsale, orientée sud-nord, entre Amguid et Hassi Messaoud, et qui s’infléchit au delà vers la Tunisie, en direction nord-nord-est. Le long de cette dorsale, on constate une très importante lacune qui englobe
- Fig• 6. — Première phase de la mise en place de l’oléoduc Ohanet-Haoud el Hamra, à travers le Grand Erg oriental.
- p.365 - vue 369/551
-
-
-
- la presque totalité du Dévonien, du Gothlandien et du Carbonifère. Ces étages au contraire se retrouvent de part et d’autre, c’est-à-dire dans un bassin oriental (qui comprend la région de Polignac, la Libye et le grand erg oriental) et un bassin occidental (région d’In Salah, Tade-maït et grand erg occidental). L’existence de la dorsale éclaire la « situation géologique » de Hassi Messaoud : la roche-magasin que, dans le doute, on avait précédemment (et provisoirement) classée dans 1’ « Infra-triasique » appartient en réalité au Cambro-ordovicien. Elle est restée émergée pendant les périodes ultérieures du Paléozoïque et n’a été recouverte qu’à partir du Trias, ce qui a d’ailleurs valu au gisement d’être surmonté par un toit excellent de roches salifères (fig. 12).
- Nous verrons l’influence que ces différents épisodes ont eue sur les caractéristiques du gisement. On notera également que, par suite de la plongée des couches, le magasin de Hassi Messaoud, à plus de 3 000 m de profondeur, est l’équivalent stratigraphique de roches qui affleurent aux confins du massif cristallin du Boucher Touareg.
- Inégalité des débits. — Revenons à la surface... Le site de Hassi Messaoud appartient à une sorte de steppe où la végétation consiste en des touffes relativement espacées, suffisantes cependant pour que les nomades aient pris l’habitude d’y mener leurs chameaux. Ils y trouvaient également un puits qui a donné son nom à l’endroit et que l’on a continué de montrer aux visiteurs, pour souligner le contraste entre cette phase bédouine et la phase pétrolière que symbolise le puits MD 1.
- Ce puits de la découverte, rappelons-le, recélait de grandes promesses. Son débit, tel qu’il avait pu être mesuré avant la phase d’exploitation, était d’environ 150 m3/jour. A titre de comparaison, indiquons que les débits actuels des puits de pétrole aux Etats-Unis sont en moyenne de 2 m3/jour, dans le bassin parisien de 10 m3, à Parentis de xoo m3 et que, dans d’excellents gisements du Moyen Orient, ils peuvent atteindre de 200 à 500 m3/jour.
- La première impression était que Hassi Messaoud appartenait à cette catégorie. Elle n’a été que partiellement démentie par les faits, car certains puits, forés depuis lors, ont eu des débits de plus de 800 m3/jour, mais en regard, et souvent à de faibles distances, d’autres puits n’ont que des débits dérisoires. Cette constatation n’aurait qu’un intérêt limité si les débits forts ou faibles représentaient une constante. Mais par exemple le puits MD 13, qui commença avec un fort débit, se ralentit en très peu de temps et dut être fermé. La pression avait baissé de manière abrupte et ne remonta par la suite que très lentement. Des cas analogues se produisirent pour d’autres forages et on put se rendre compte que plusieurs puits étaient affectés simultanément par le même déclin de pression. La conclusion, de caractère empirique, était que l’énorme réservoir de Hassi Messaoud se composait de la juxtaposition de plusieurs gisements excellents séparés par des plages nulles et accompagnés de gisements de moindre valeur. Mais l’enjeu était tel qu’on jugea nécessaire d’approfondir ce problème.
- Porosité, perméabilité, saturation. — Un certain nombre de notions sont familières aux géologues du pétrole. La première est la porosité des roches qui se définit par un simple rapport de volume : si 1 m3 de roche V est criblé de pores, fissures et vacuoles occupant un volume total v, la porosité est le rapport vfV. Elle s’exprime en général par le pourcentage des vides : un grès tel que celui du gisement de Hassi Messaoud a une porosité d’environ 15 pour xoo.
- On pourrait croire qu’une roche poreuse est par cela même perméable. Idée facilement rejetée en songeant aux tufs volcaniques (ou « pierres ponces ») très poreux bien qu’imperméables à l’eau. Les pores, tout simplement, ne sont pas interconnectés et ceci peut se produire localement dans les grès ou autres roches sédimentaires. La perméabilité en tout cas est un facteur essentiellement variable. Elle diffère également selon la plus ou moins grande fluidité des liquides ou des gaz qui circulent à travers les
- Fig. 7. — Construction de l’oléoduc Ohanet-Hassi Messaoud.
- La machine procède à l’enrobage de la canalisation au papier kraft qui est ensuite enduit d’une couche de goudron.
- p.366 - vue 370/551
-
-
-
- mesures les plus fréquentes de ce paramètre concernent l’eau et l’huile brute. Souvent les pores contiennent également un solide : l’argile.
- La pression. — Nombreuses sont les interactions des fluides présents dans les roches poreuses. Elles se révèlent à l’occasion des forages et sont d’une importance capitale dans l’exploitation du gisement : le débit des puits est en effet fonction des pressions qui les rendent ou non éruptifs, et ces pressions sont elles-mêmes déterminées par divers facteurs dont le principal est le volume des masses liquides qui tendent à se déplacer sous l’action de la pesanteur et d’autres forces.
- Si la pression était nulle, peu importerait de pousser un forage à travers un magasin fortement imprégné de pétrole. Dans les cas où, au contraire, ce magasin est soumis à la pression latérale d’une puissante masse d’eau, le pétrole tendra à s’échapper avec violence vers la surface. C’est le phénomène que les pétroliers désignent sous le nom de water-drive. Mais le jaillissement peut également être dû à la pression hydrostatique du pétrole lui-même. Cette pression a favorisé la dissolution des gaz dans le pétrole liquide, ce qui contribue évidemment à mettre celui-ci en mouvement.
- On peut ainsi commencer à comprendre pourquoi l’évaluation volumétrique d’un gisement comme celui de Hassi Messaoud, en multipliant les trois facteurs surface, hauteur et porosité, n’est qu’une donnée très élémentaire du problème d’exploitation. Dans ce cas particulier, le water-drive est médiocre et la pression est manifestement contrariée, en plusieurs endroits, par un défaut de perméabilité.
- Observations et mesures. — On pourrait se contenter d’enregistrer ces faits et continuer à forer à l’aventure, en espérant des puits productifs et en se résignant par avance à un certain nombre de puits « secs » ou médiocres.
- Fig. 9 et io- — Le géologue au laboratoire.
- A gauche, examen de roches. A droite, étude d’une série de diagraphies électriques.
- Fig 8. — Forage à Hassi Messaoud : la table de rotation.
- roches. Dans le cas des réservoirs d’hydrocarbures on tient compte de la perméabilité à l’eau, aux différentes huiles (plus ou moins denses) et aux gaz (plus ou moins humides).
- Troisième notion, fort importante, pour mesurer les virtualités d’un gisement : la saturation. Les pores des roches sont toujours occupés par un fluide quelconque (air, eau, hydrocarbures liquides ou gazeux). C’est la saturation, c’est-à-dire le pourcentage du volume occupé par le fluide qui intéresse les pétroliers. Bien entendu, les
- 367
- p.367 - vue 371/551
-
-
-
- Fig. il. — Intérieur d’un camion Schlumberger, équipé pour le carottage électrique.
- (Les photos qui illustrent cet article nous ont été obligeamment communiquées par le Bureau de Recherches de Pétrole').
- De tels tâtonnements sont coûteux et on leur préfère l’emploi de méthodes qui permettent de reconstituer l’architecture du gisement dans ses trois dimensions. Ainsi, on pourra mieux décider le programme des opérations ultérieures.
- La base de ces méthodes est de recueillir, à chaque puits déjà foré, le maximum de documents et d’établir ensuite les corrélations qui peuvent exister d’un puits à l’autre.
- Des mesures de porosité et de perméabilité sont faites sur les carottes, qui sont prélevées à différents niveaux. La porosité est connue en faisant d’abord sécher les carottes puis en les plongeant dans un liquide, ce qui permet de mesurer le poids du liquide absorbé. Cette mesure est évidemment d’une précision relative et elle gagne à être complétée par l’observation de plaques minces au microscope : le volume et la forme des grains de la roche présente apparaissent alors, ainsi que leur cimentation, les minéraux annexes (tels que l’argile); on détermine également le classement des grains soit dans une seule, soit dans plusieurs catégories pétrographiques. L’ensemble de ces informations fournit non seulement une bonne approximation de la porosité et de la perméabilité, mais aussi les causes pétrographiques de chacune de ces propriétés. La
- perméabilité peut également être mesurée sur une carotte en la faisant traverser par de l’air sous pression.
- Mais ces mesures en laboratoire ont toujours le défaut d’être effectuées sur des échantillons extraits de leur milieu naturel. Or, le comportement réciproque des roches et des fluides ne saurait être le même à la pression atmosphérique et sous des pressions de quelques centaines d’atmosphères : les fluides et surtout les gaz tendent évidemment à s’échapper. On ne peut guère, en définitive, qu’évaluer la porosité, la perméabilité et la saturation potentielles. La réalité n’apparaît que grâce à des mesures effectuées au sein même du gisement et c’est ce qui donne toute leur valeur aux méthodes Schlumberger, largement employées au Sahara comme dans tous les bassins pétroliers.
- Ces méthodes, qui se sont peu à peu perfectionnées et diversifiées, ne peuvent être exposées dans le cadre du présent article. Elles consistent en des séries de mesures, désignées souvent sous le nom de carottages électriques, et livrent des documents appelés diagraphies. C’est essentiellement la résistivité des couches qui est mesurée, soit en enregistrant les très faibles voltages d’origine électrochimique qui résultent du contact entre des roches de compositions différentes (c’est ce qu’on appelle les potentiels spontanés), soit en faisant passer à travers les couches des courants électriques fournis par des génératrices.
- En quoi la résistivité électrique peut-elle représenter une information précise sur les niveaux traversés ? On peut s’en faire une idée en sachant qu’une roche sèche (cas d’ailleurs exceptionnel) est généralement un isolant parfait, que l’eau douce a une résistivité élevée alors que l’eau salée est conductrice (il en est de même pour les boues de forage), que la résistivité est inversement proportionnelle à la température et par conséquent à la profondeur, que les fissurations des roches et les communications faciles entre les pores augmentent la conductibilité, etc. Mais le fait important est que l’huile de pétrole est d’une résistivité très élevée qui contraste avec la conductibilité de l’eau salée.
- On serait tenté de s’étonner, à première vue, que les diagraphies permettent une expertise très poussée des couches traversées : ' c’est pourtant un fait reconnu, mais les informations recueillies n’acquièrent évidemment toute leur valeur qu’après interprétation par des spécialistes exercés. Récemment, les diagraphies électriques ont été opportunément complétées par les diagraphies nucléaires : d’une part les mesures de radioactivité permettent de déceler la présence de l’argile, seule roche sédimentaire qui contienne une quantité appréciable d’uranium, thorium et potassium radioactifs ; d’autre part et lorsqu’on utilise une source de neutrons, la plus ou moins grande quantité d’atomes d’hydrogène, présents dans l’eau et les hydrocarbures, influe sur le degré de ralëntissement des neutrons : indirectement cette information révèle la porosité et la saturation des roches.
- Interprétations géologiques. — Tous ces moyens ont été utilisés à Hassi Messaoud et c’est en comparant les informations recueillies pour un même forage puis en établissant une série de corrélations d’un forage à l’autre qu’une configuration détaillée du gisement va pouvoir être reconstituée.
- Il serait encore prématuré de publier cette reconstitution dans sa totalité. Certaines coupes schématiques cependant
- 368
- p.368 - vue 372/551
-
-
-
- comme celle de la figure 12 contiennent quelques indications dès à présent confirmées, telles que les deux failles qui ont « cisaillé » le gisement et le niveau où l’huile se trouve en contact avec l’eau. On remarquera la position du puits Md 28, isolé par une des failles sur la marge de l’anticlinal et qui est, de ce fait, un très faible producteur.
- NW SE
- Omn 17 Omp 13 0ml Md 17 Md28
- £R ÊTA
- SUPERIEUR:
- INFÉRIEUR:
- SUPÉRIEUR
- rJURAS
- MOYEN-’
- L/FERE-
- rrip-rMi n'irhï 11111 i'i î 1111 i 1 f|
- ORDOVICIEN
- CAMBRO
- huile-eau
- Bon réservoir imprégné
- Fig. 12. — Coupe schématique du gisement de Hassi Messaoud.
- Cette coupe succincte met en lumière la tectonique du gisement, où apparaissent notamment deux failles (représentées en traits gras à la partie inférieure). Cette indication et celles qui ont pu être relevées dans d’autres directions expliquent l’hétérogénéité du gisement.
- Le rôle des failles est multiple : en certains cas, elles ont ouvert la voie à une circulation de l’eau, plus ou moins chargée de sels en dissolution qui se sont cristallisés par la suite en bouchant les vides de la roche. C’est ainsi qu’on peut expliquer l’existence de « panneaux » à la fois imperméables et de faible porosité.
- Remontant à une date géologique plus lointaine, c’est-à-dire à la période de sédimentation, on constate que le sable destiné par la suite à se transformer en grès était par endroits assez fortement mélangé d’argile. C’est encore là une explication de l’hétérogénéité du gisement.
- En regard de ces facteurs géologiques défavorables, il en est un qui paraît avoir amélioré localement plusieurs zones du gisement. Nous avons signalé plus haut l’existence de la dorsale sur laquelle se trouve Hassi Messaoud, ainsi que la lacune qui s’étend à tous les étages qui séparent le Cam-bro-Ordovicien du Trias. C’est-à-dire que, pendant une longue période, les grès qui devaient plus tard constituer le réservoir ont été émergés et ont subi normalement une érosion continentale, sous l’action des agents atmosphériques. Comme il arrive fréquemment, le centre de l’anticlinal a été davantage érodé que les flancs : aux alentours la roche a été attaquée et « pourrie » par les eaux, ce qui a fortement amélioré sa porosité. C’est à cet épisode paléogéographique que Hassi Messaoud doit, semble-t-il, de contenir d’excellents gisements partiels.
- Les problèmes de récupération. — L’idée élémentaire que l’on peut se faire au sujet de l’exploitation d’un gisement est qu’on laissera débiter les puits aussi longtemps
- qu’ils seront éruptifs; après quoi ces puits seront tour à tour abandonnés. En réalité, ceci ne correspond qu’à une première phase, celle de la récupération primaire. Les puits forés à Hassi Messaoud en 1956 laissaient espérer que cette récupération pourrait se prolonger sur une assez longue période et c’est sur cette base que le programme de production avait été établi. On escomptait ainsi une production de 15 000 000 t, à partir de 1960-61. En moyenne cette première phase devait permettre une récupération d’environ 15 pour 100 de l’huile existante, taux normal pour les grès assez compacts qui constituent le magasin.
- Les désillusions causées par les inégalités de débit et les études (par mesures et interprétations) dont nous nous sommes efforcés de rendre compte ont entraîné une révision du programme. Il s’agit, en gros, de renforcer la pression du gisement partout où elle est déficiente, ce que l’on peut faire dans des conditions satisfaisantes. La grande fluidité de l’huile, dont la densité est d’environ 0,82 et qui est peu chargée en produits lourds, permet d’espérer qu’elle s’infiltrera facilement à travers les zones plus ou moins perméables de la masse gréseuse, à condition qu’elle soit « balayée » par une masse de gaz sous pression. Heureusement les quantités nécessaires de gaz sont disponibles ; elles sont extraites journellement du gisement et ne servent que pour une faible partie à alimenter la centrale, située à Haoud el Hamra. On estime qu’il suffira de réinjecter le gaz extrait pour obtenir le résultat désiré. Quant à l’énergie exigée par les compresseurs, c’est également le gaz qui la fournira. Le gisement est donc en mesure d’auto-entretenir sa pression. Mais on eût préféré, bien entendu, que ce stade de la récupération secondaire ne fût atteint qu’à une période ultérieure.
- Ceci n’est que le schéma très général du nouveau programme. Dans le détail, il doit tenir compte de la configuration du gisement, telle qu’elle a pu être reconstituée grâce aux études géologiques. Des puits seront consacrés à l’injection de gaz et la zone de pression créée par eux devra permettre le soutirage de l’huile dans une zone avoisinante. Mais cette double opération est conditionnée par la plus ou moins grande perméabilité de la roche située dans les intervalles. Nous avons vu que ce facteur peut être mesuré avec une bonne approximation et doit servir de guide à une implantation rationnelle des puits.
- En définitive, on estime que la production escomptée de 15 000 000 t/an pourra être atteinte, le réseau d’injection étant en place, vers 1964.
- A l’écueil que représentent les pressions déficientes s’ajoute un vice mineur du gisement de Hassi Messaoud. Dès le démarrage des puits, on s’est aperçu que des dépôts noirâtres, constitués en majeure partie à?asphalténes, se formaient à l’intérieur des tubings. Ces dépôts, d’autant plus importants que les débits sont plus élevés, affectent donc les meilleurs puits. Ils doivent être périodiquement éliminés, grâce à l’emploi d’un solvant approprié. Les arrêts qu’entraînent ces « purges » ralentissent évidemment l’exploitation.
- Il arrive également, pour certains puits, qu’il faille, par différents procédés, dissoudre ou perforer des bouchons de sel qui se sont formés à la base des tubings. Autant de soucis et d’opérations annexes dont l’ensemble constitue la toile de fond d’une exploitation pétrolière.
- Yves Mériel.
- 369
- p.369 - vue 373/551
-
-
-
- 1
- Engins propulsés par statoréacteurs
- La recherche aéronautique française a enregistré récemment un nouveau succès avec le lancement, au Centre de lancement d’engins spéciaux de la Marine française, de deux engins Stataltex à statoréacteurs dont l’un a dépassé une vitesse correspondant à Mach 5, et l’autre une altitude de 38 000 mètres, ce qui constitue des records pour des engins propulsés par des moteurs aérobies, c’est-à-dire utilisant l’oxygène atmosphérique comme comburant. Le nom de Stataltex rappelle qu’il s’agit d’engins à statoréacteurs (stat) montant à grande altitude (ait) et destinés à la recherche expérimentale (ex).
- Rappelons qu’un statoréacteur se compose essentiellement d’une entrée d’air soigneusement étudiée, transformant en pression l’énergie cinétique de l’air incident, d’une chambre de combustion et d’une tuyère de détente dans laquelle les gaz brûlés sont accélérés. Un tel propulseur ne nécessite ainsi aucune pièce mobile, ce qui lui confère sur ses concurrents un grand avantage de simplicité, largement appréciable dans le cas d’engins de cette nature; en contrepartie, ils ne donnent une poussée notable qu’à grande vitesse et doivent donc être lancés par un mode de propulsion auxiliaire.
- Les essais expérimentaux effectués avec cet engin couvrent un très large domaine : entrées d’air, étude de la combustion, protection thermique des chambres de combustion, tuyères propulsives.
- Les applications du statoréacteur aux engins ont été jusqu’à présent assez limitées. Rappelons pour mémoire les engins sol-air Bristol « Bloodhound », Boeing « Bomarc » et Bendix « Talos », et l’engin-cible supersonique C.T.41 de Nord-Aviation. Mais ses caractéristiques le destinent plus particulièrement à la propulsion aux grandes vitesses, et de ce fait les études continuent pour le mettre au point seul ou en combinaison avec d’autres groupes propulseurs, comme par exemple le turbo-statoréacteur. En outre, par suite de sa simplicité de construction, c’est un banc d’essai idéal pour des recherches sur la combustion.
- Les Stataltex sont des engins de petite taille, aussi simples que possible et qui ne comportent que les organes nécessaires à la propulsion et à la transmission au sol des mesures enregistrées en vol. Le diamètre maximal est de 420 mm pour une longueur de 5,20 m. Comme on sait qu’un statoréacteur ne peut fonctionner aux faibles vitesses, le décollage est assuré par une fusée d’appoint à propergols solides qui amène l’engin à 7 km d’altitude environ en lui communiquant une vitesse de Mach 3,2 puis se sépare et retombe au sol. Le vol de l’engin n’est plus guidé et sa trajectoire sans portance est légèrement incurvée par la pesanteur ; elle dépend en réalité de l’angle de lancement et de la loi de poussée qui a été demandée au régulateur de combustible. Pour obtenir la vitesse la plus grande possible, il faut évidemment que la richesse du mélange air-combustible soit la plus grande.
- Les Stataltex sont équipés d’un système de télémesure très développé qui permet l’enregistrement de treize para-
- Fig. 1. — L’engin « Véga »
- (Photo Nord-Aviation).
- mètres concernant le fonctionnement du propulseur, et de quinze paramètres concernant le comportement thermique des différents organes.
- Mais le programme d’étude des statoréacteurs de l’O.N. E.R.A. comporte encore d’autres phases. Dans le cadre de ce programme en effet, Nord-Aviation a conçu l’engin «Véga» qui est piloté et qui, grâce à sa voilure, peut effectuer de véritables vols. Les applications peuvent de ce fait couvrir une gamme beaucoup plus étendue, et en particulier il doit permettre de faire du statoréacteur un mode de propulsion utilisable dans la pratique.
- Le Véga peut atteindre Mach 4,15 après accélération jusqu’à Mach 2 à l’aide d’une fusée à poudre; l’altitude maximale est de 30 000 m.
- Il reste à souhaiter que toutes ces études débouchent et que le statoréacteur, dont on attendait monts et merveilles avec le Leduc 022, trouve enfin sa place dans la gamme des propulseurs pour grandes vitesses.
- J. S.
- 370
- p.370 - vue 374/551
-
-
-
- Des Olmèques aux Aztèques
- Trois mille ans d’art mexicain
- par Michel Rousseau
- Après les chefs-d’œuvre de l’Iran, f^1), voici ceux du Mexique que le Petit Palais nous a donné en juin l’occasion, non moins rare et précieuse, d’admirer. Ils s’étagent tout au long d’une période encore considérable : quelque trois mille ans d’une évolution totalement indépendante et ignorée de la nôtre; et, depuis les Conquistadors, un affrontement qui faillit être fatal au génie indien, mais qui aboutit à sa fusion avec celui d’Espagne, en particulier sous la dominante commune de la mort.
- Entre la Mésopotamie (ou l’Iran) et la Mésoamérique s’entrevoit une communauté de thèmes : observation très sûre des animaux; et dualisme fondamental. En particulier, la Mort est complémentaire de la Vie, que semblent symboliser ici les maternités plus réalistes encore que la déesse-mère de l’Orient lointain. Nous verrons s’insinuer, voire s’imposer, des rapprochements avec d’autres cultures éparses tout autour du monde. Il ne pourra guère s’agir que de concordances.
- Matières et techniques sont relativement peu nombreuses : pierres communes ou semi-précieuses taillées ou polies; argile, souvent traitée au pastillage, avec une adresse et une désinvolture extrêmes ; or et argent travaillés en filigrane d’une rare perfection (la métallurgie fut très tardive par rapport à l’orfèvrerie et n’est guère représentée) ; peinture sur fresque, codex de peau de chevreuil ou papier. Nous ne voyons pas les extraordinaires parures de plumes multicolores qui atteignaient au chef-d’œuvre. Il faut toujours imaginer leur somptuosité quasi-aérienne à travers la lourdeur majestueuse de leur figuration peinte et surtout sculptée. C’est là un goût très répandu chez les Indiens des deux Amériques. Impossible d’imaginer sans lui les célèbres « Peaux-Rouges ». Les peintures corporelles étaient d’ailleurs fréquentes, jusqu’au noir pour le visage de certains prêtres. De même les tatouages et les déformations crâniennes ou dentaires.
- L’architecture est évoquée par des photographies et des maquettes ; des personnages y donnent l’échelle d’un gigantisme qui n’a pas été dépassé, même en Egypte. La ville de Téotihuacan s’étendait sur 142 km2, dominée par les 65 m de sa pyramide du Soleil, à base carrée de 224 m de côté. Signalons seulement l’invention maya de la fausse voûte (2), et celle, toltèque, de la cariatide, ou Atlante, représentant un guerrier. Celui de Tula dresse dans le vestibule ses 4,80 m. Il est antérieur à nos statues-colonnes
- 1. L’Iran à Paris : sept mille ans d’art animalier, par M. Rousseau, La Nature-Science Progrès, janvier 1962, p. 32-36.
- 2. Trois chambres de Bonampak ainsi voûtées (à gradins), découvertes en 1945, sont reconstituées avec leurs admirables fresques du vme siècle. Elles commémorent une victoire militaire.
- romanes, figées dans le même hiératisme. Il figure Vénus, l’étoile du matin, une des manifestations de Quetzalcoatl, le Serpent à plumes vainqueur des ténèbres (fig. 15).
- *
- * *
- Un symbolisme complexe et grave frappe ainsi d’emblée le visiteur. Celui-ci se trouve conduit à suivre des civilisations dans un déroulement chronologique et géographique, sans perdre de vue les relations des styles entre eux. Au Mexique, les hommes ont dû arriver par le détroit de Béring il y a 25 000 ans, bien que les premiers restes fossilisés soient deux fois plus récents. Les renseignements précis ne commencent guère que vers 1500 ans avant J.-C., et, chose curieuse, à l’emplacement de la capitale, Mexico. Dès lors, c’est près de xi 000 sites archéologiques qui
- Fig. 1. — Tête colossale olmèque.
- Environs de La Venta. Basalte; hauteur 1,80 m. 800 av J.-C.-100 ap. J.-C.
- (Photo Corson).
- p.371 - vue 375/551
-
-
-
- Fig. 2. — Le coyote hutlant.
- Trône ou table d’offrande? Civilisation des côtes de l’Occident; Tarasque (900-1300 apr. J.-C.). Basalte, 75 X 120 cm.
- {Photo Corson).
- peuvent être interrogés. Le Nord, surtout voué au nomadisme, s’y oppose au Sud, berceau des grandes réalisations humaines, religieuses et artistiques. Elles s’opèrent en trois phases : fixation agricole, puis politique et sacerdotale, puis urbaine.
- A l’inflexion la plus méridionale de la côte atlantique, La Venta a été le principal centre de l’admirable culture olmèque, la première en date, et mère, sans doute, de toutes les autres. Elle a réalisé une curieuse écriture hiéroglyphique, un système arithmétique et un excellent calendrier. La Mésoamérique lui doit la sculpture : de véritables rochers, apportés de ioo km sur radeaux de balsa, devenaient autels ou sarcophages, piliers ou stèles, statues ou têtes colossales atteignant jusqu’à trois mètres et dix-huit tonnes ! Haute comme un homme, une figure masculine nous accueille sous le soleil des Champs-Elysées (fig. i). L’éclairage nuance son expression : d’une sauvagerie fermée à un demi-sourire, frère de celui des visages khmers, dont la forêt vierge, aussi, cerne la pierre. Deux autres masques lui font suite : leur angoisse annonce la vision de Xipe-Totec, colosse ventru de grossier basalte, au masque de singe sous la peau d’un homme écorché, symbole féroce du printemps.
- A ce gigantisme, à cette grandeur d’un Olympe farouche s’opposent les menues figurines d’une vie journalière, au long des quinze cents dernières années avant notre ère. Hauts comme le pouce, ces personnages de terre cuite ont été trouvés parmi des offrandes funéraires. A peine vêtus, ils sont bariolés de jaune, rouge, blanc et violet, couleurs de l’aliment de base, le maïs. Peut-être s’agissait-il d’accroître magiquement sa fertilité, ou celle des humains, dont certains sont représentés bicéphales. Voici des bébés obèses et des nains, des membres réduits à des moignons, des contorsionnistes, des danseuses. Les uns pleurent, les autres jouent avec un enfant, ou un chien... Dans la région de Mexico, couverte alors de grands lacs, nombreux sont les vases qui figurent des animaux aquatiques, sans doute pour faciliter, encore magiquement, leur capture : ainsi le canard, dont on peut voir les formes mêlées à celles de l’homme.
- Fig. 3. — Perroquet en terre cuite.
- Civilisation des côtes de l’Occident (300-950 ap. J.-C.) 22 x 36 cm.
- {Photo Corson).
- Autant que par la rugosité des énormes pierres, les Olmèques ont été séduits par le poli quasi-velouté des petites figurines de jade. Certains visages ont les yeux, les pommettes, l’élargissement crânien, le mystère des
- Fig. 4. — Chien assis portant un masque humain.
- Civilisation des côtes de l’Occident (300-950 ap. J.-C.). Terre cuite, 34 X 23 cm. Le chien servait de nourriture et, mystiquement, de protecteur funèbre à l’homme. Ce masque énigmatique symbolise-t-il cette double relation ?
- {Photo Corson).
- 372
- p.372 - vue 376/551
-
-
-
- Fig. J. — Bossu accroupi en terre cuite.
- Civilisation des côtes de l’Occident (300-950 ap. J.-C.). 27 X29 cm. Buste réaliste et malicieux; membres monstrueux : mains énormes aux doigts égaux, pieds mutilés (par la lèpre ?)
- {Photo Corson).
- masques japonais (très postérieurs); d’autres les traits félinisés et les canines implacables du jaguar. Le fauve soulevait autant de ferveur que de frayeur; ses mâchoires pouvaient être figurées avec le réalisme le plus strict ou la stylisation la plus lointaine.
- Sur la côte occidentale du Mexique, la civilisation retrouvée remonte à environ mille ans avant notre ère. Elle est doublement « Pacifique » car elle multiplie les statuettes (plus grandes) d’animaux et de personnages familiers. Le coyotte hurlant (fig. 2) est le dieu des montagnes, des étoiles filantes et des mystères de la nuit. Sa « parallélépipé-disation » lui donne une facture toute moderne : il pouvait s’agir d’un autel ou d’un trône. Les rondeurs semblent au contraire exagérées chez tel perroquet (fig. 3) ou caméléon, et surtout dans une extraordinaire galerie canine d’offrande aux morts. Il s’agit du chien, souvent nu, engraissé, aliment et compagnon, le futur Xolotl, le frère dodu d’Anubis... Il se roule ou se gratte l’oreille, se réveille ou aboie à la lune, embrasse un camarade ou porte un énigmatique masque humain (fig. 4).
- L’homme est parfois réduit à une effigie plate, découpée et incisée seulement en angles droits et diagonales. Mais nous voyons surtout d’étonnantes caricatures aux formes rebondies : bossu ou porteur d’eau, guerrier ou joueur de pelote attentif et tendu, parturiente, couple d’amoureux sans sourire. Près de la malicieuse saveur d’un homme au bouc, voici des inventions délirantes précédant de mille ans peut-être Jérôme Bosch : une tête sur un pied, ou une autre, le cou emmanché sur le crâne, le menton sur le
- genou... Les monstruosités sont fréquentes, plus imaginaires que tératologiques, comme ces cinq gros doigts, sensiblement égaux et à l’alignement, du spirituel bossu (%• 5).
- Une période préclassique de 1500 ans a précédé ainsi la période classique, qui a coïncidé, en gros, avec le premier millénaire de notre ère. Elle s’épanouit dans quatre grands centres religieux et artistiques : Téotihuacan, sur le haut plateau central, Monte Alban dominant la vallée d’Oaxaca, Le Tajin sur la côte du Golfe et les Cités Mayas au sud. Leur sont communs : la culture du maïs, le calendrier sacré, cosmogonie et religion, ainsi qu’un système théo-cratique avec lequel ils devaient s’effondrer.
- Téotihuacan, à 2280 mètres d’altitude, première des villes géantes, est « le lieu de la naissance des dieux » : celui de la pluie surtout, Tlaloc, né des nuages, doté des canines du jaguar et de la langue bifide du serpent. A ses côtés, Quetzalcoatl, le Serpent à plumes, et Xipe-Totec, dieu des guerriers sacrifiés. Déjà rencontré sous sa peau d’écorché dans le basalte, ce dernier reparaît en terre cuite, le visage figé dans la détresse d’un éternuement irrépressible (fig. 6). Mêmes paupières abaissées, même bouche entrouverte pour un dernier soupir : voici les admirables masques
- Fig. 6. — Xipe-Topec, « Notre Seigneur l’Ecorché ».
- Visage et corps revêtus de la peau fraîche d’un homme écorché, symbole du renouveau, dieu des guerriers sacrifiés et protecteur des orfèvres. Téotihuacan, influence toltèque-maya, 1000-1250 ap. J.-C. Terre cuite, 110 X 50 cm.
- {Photo Corson).
- p.373 - vue 377/551
-
-
-
- Fig. 7. — Masque funéraire.
- Serpentine verte recouverte de turquoise et coquille rouge, yeux incrustés de nacre et d’obsidienne. 30 x 24 cm. Teotihuacan III, 300-650 ap. J.-C.
- (Photo Corson).
- mortuaires. Même sous l’éblouissante mosaïque de turquoise, de coquilles rouges, de nacre ou d’obsidienne, ils frappent avant tout par leur pureté de lignes et leur gravité insurpassées (fig. 7).
- Monte Alban est aussi, dans les deux sens, un haut lieu : le principal de la civilisation des Zapotèques. Leurs annales sont enluminées en tons vifs sur parchemins ou gravées sur la pierre. Leurs urnes funéraires en terre cuite nous ont conservé leurs visages, parfois sous un immense édifice de plumes (fig. 8).
- Fig. çf. — Prêtre de Cuilapan, appelé aussi le « Scribe ».
- Terre cuite 33 X 17,5 cm. Zapotèque, Monte Alban II-III, 200 av. J.-C.-350 ap. J.-C.
- (Photo Corson).
- Le Scribe (fig. 9) évoque à la fois le Japon et l’Egypte antique. La chauve-souris et le jaguar mêlent souvent leurs traits entre eux et avec ceux de l’homme : apparitions non moins saisissantes que nos gargouilles médiévales ou que les dragons chinois (fig. 10).
- Les Mixtèques, « habitants du pays des nuages », dominèrent les Zapotèques vers l’an mille. Comme les envahisseurs mérovingiens ou scythes, ils avaient la passion des
- . Fig. 8. — Grande urne funéraire en terre cuite (détail).
- Personnage sous le masque de Cocijo, dieu de la pluie, somptueusement paré de plumes et de bijoux. Zapotèque III-B, 700-1000 ap. J.-C. 63 X 50 cm.
- (Photo Corson).
- 374
- p.374 - vue 378/551
-
-
-
- bijoux : tel le grand pectoral aux rangs de turquoises, de nacre, de perles et d’or (ce métal était souvent travaillé en filigrane ou fondu à la cire perdue). On leur doit un poisson d’argent incrusté d’or offert par l’empereur au pape et qui fit l’admiration de Benvenuto Cellini.
- La civilisation du Tajin doit son nom à son dieu de la pluie, « frère » de Tlaloc. Ses principaux représentants, du 7e au 14e siècles, ont été les Totomaques. Ils subsistent dans des images d’une rare gaîté : petits visages pointus aux dents menues, demi-sourire ou rire aux larmes : c’est Hochipilli, divinité de la musique, de la danse, de la procréation et du maïs nouveau. Grands constructeurs de pyramides, les Totomaques avaient pour jeu rituel la pelote
- Fig. 12. — Jaguar assis parlant à un cœur humain avant de le dévorer. Stèle calcaire maya-toltèque, 987-1185 ap. J.-C. Traces de peinture. 112 x 90 cm.
- (Photo Corson).
- Fig. II. — Tête d’ara en basalte, but au jeu sacré de la « pelote ».
- Toltèque, 856-1168 ap. J.-C. 57 X 38 cm. Yeux, nez et bec perforés. La balle devait être envoyée dans ce but, situé â 5 mètres de hauteur. Le « modernisme » de cette sculpture est frappant.
- (Photo Corson).
- 375
- p.375 - vue 379/551
-
-
-
- dont les vainqueurs étaient sacrifiés : suprême récompense qui leur promettait la vie cosmique. Il s’agissait d’une lourde et dure balle de caoutchouc qui symbolisait le soleil, levant et couchant, en passant à travers le trou d’une haute paroi.
- Les Toltèques ont continué cette tradition, d’où leurs « but » figurant une tête d’ara perforée et géométrique, d’une facture toute cubiste (fig. n). Nous savons qu’ils furent les créateurs des géants atlantes. Une pièce minuscule n’est guère moins impressionnante : un visage d’homme sort de la gueule d’une tête de sanglier, dont les poils sont formés d’une mosaïque de nacre. Elle symboliserait « l’union dévorante de l’homme et de l’animal ». On retrouve ce thème dans le domaine maya. Une stèle calcaire représente le jaguar; sa bouche adresse (en hiéroglyphes) un discours fleuri au cœur humain qu’il va dévorer;, chaque tache du pelage est un guerrier changé en étoile (fig. 12). Mais rien de plus poignant que la tête de guerrier sacrifié (fig. 13). Une immense pyramide, à Palenque, recouvre, comme en Egypte, le tombeau d’un roi-prêtre : la crypte, datée de 692 après J.-C., fut atteinte après trois ans d’efforts. Elle livra cette tête de stuc, sans doute coupée d’une statue entière : symbole de la décapitation par laquelle la victime
- Fig. 13. — Tête de guerrier sacrifié.
- Modelage. Haute coiffure de plumes et de fleurs. Sans doute, tête coupée d’une statue, symbole de décapitation. Maya ancien, 692 ap. J.-C. Comparer avec
- Fig. 14. — L’homme de Tollund.
- Découvert en 1953 dans un marais desséché à Tollund (Jutland) le guerrier, dont on voit la tête admirablement conservée, portait au cou la lanière qui l’avait étranglé; il avait sans doute été sacrifié, au début de notre ère, en holocauste aux dieux pour le salut de sa tribu (voir La Nature, mars 1954, p. 112).
- (Photo obligeamment communiquée par /’Ambassade du Danemark).
- accédait à l’apothéose et à la transmutation en étoile. Admirable visage, d’une fervente résignation, si proche de celui du guerrier rituellement pendu contemporain de César, dont la tourbe de Tollund a conservé le dernier sommeil (fig. 14).
- Une pièce postiche infléchit le profil, selon l’idéal Maya, vers celui de Quetzal, « l’oiseau paré de belles plumes » (fig. 15). Son union avec Coati, le serpent, est celle du Ciel et de la Terre, selon la version toltèque de Quetzalcoatl. Pareil dualisme se retrouve à la fondation de Mexico par les envahisseurs nordiques Aztèques (1324) : là où l’on vit, selon l’oracle, un aigle, principe solaire, dévorer un serpent. Une autre prophétie annonçait le retour de Quetzalcoatl rédempteur, sous la forme humaine, paré d’une barbe blonde : Cortès fut accueilli comme l’incarnation du dieu, en 1519, l’année même qui lui était consacrée. Une autre divinité est caractéristique des Aztèques : « labyrinthe de symboles, mais labyrinthe cohérent ». C’est Xochipilli, « seigneur des Fleurs », de la Joie et du Jeu, de la Poésie et de la Musique, du Théâtre et de la Danse, de l’Amour et du Maïs nouveau... Assis, jambes croisées, avec une grâce de Bodhisattva, et masque extatique, ou ravagé.
- 376
- p.376 - vue 380/551
-
-
-
- Fig. ij. — Quetzalcoatl, le serpent à plumes, symbolisant l’union du Ciel et de la Terre.
- Aztèque, 1324-1521 ap. J.-C. Basalte, 130 X 190 cm.
- (Photo Corson).
- Nous devons nous limiter à ce choix parmi les 866 pièces précolombiennes qui figuraient au très beau catalogue. Et nous ne pouvons aborder ici l’examen de celles, non moins nombreuses, de la Nouvelle Espagne. Les crânes formant vase chez les Mixtèques, ou hache à El Tajin, annoncent ceux de carton (ou de pâtisserie !) du Mexique d’aujourd’hui. Et l’exubérance des retables baroques prolonge celle des formes toltèques ou mayas. A la lourdeur tropicale des visages olmèques, s’oppose le dépouillement de Téotihuacan sur le haut plateau purifié. Mais le Nord garde son frémissement et le Sud son équilibre, car ce pays marie les contraires au lieu de les opposer.
- Les maternités archaïques du Mexique répondent aux nôtres jusqu’au Proche-Orient; ses bossus, nains et acrobates à ceux de nos châteaux féodaux et cours princières; ses géométrisations à celles de nos cubistes et abstraits. Têtes géantes de File de Pâques et La Venta, moue de La Venta et sourire Khmer, regards bridés olmèques et japonais, masques dramatiques de Sésostris et de Téotihuacan, victimes Maya et de Tollund : des frères se rencontrent et se reconnaissent, qui ne s’étaient jamais vus.
- Michel Rousseau,
- Docteur-vétérinaire.
- L’étrusque éclairé par l’albanais ?
- Le voile commence-t-il à se lever réellement sur le mystère étrusque ? Voilà en tout cas un ouvrage qui aura suscité bien des controverses, à la fois en raison de la tentative d’explication elle-même qu’à cause de la personnalité de l’auteur (i).
- Ce n’est point parce que M. Mayani n’appartient point au cercle des étruscologues patentés, encore qu’il présente par ailleurs quelques titres archéologiques et universitaires incontestables, que le discrédit doit être d’office jeté sur sa « découverte ». Les arguments doivent être tirés de l’étude de sa méthode et de ses résultats. Qu’en est-il ?
- M. Mayani tente, après bien d’autres, un déchiffrement de la langue étrusque par comparaison avec l’albanais. Un lecteur non spécialiste ne peut qu’être impressionné par le nombre de ses trouvailles; et il faut avouer que bien des rapprochements sont intéressants. Mais est-ce un terrain bien sûr ? Une homophonie ne signifie pas forcément
- x. Les Etrusques commencent à parler, par Zacharie Mayani. i vol. 15,5 X21, 466 p., 20 photos hors-texte, 80 dessins de l’auteur. Collection Signe des temps. Arthaud, Grenoble et Paris, 1961. Prix, relié : 39 NF.
- synonymie; de plus, apparenter l’étrusque à l’albanais, langue illy-rienne indo-européenne, revient à faire des Etrusques un peuple d’origine illyrienne et non asiatique. Enfin, ces mots albanais qui servent d’éléments explicatifs, rien ne nous prouve qu’ils sont de souche aussi ancienne que les mots étrusques qui paraissent s’en rapprocher : beaucoup sont sans doute des emprunts effectués depuis l’antiquité.
- La démonstration de M. Mayani est pleine de vie et de chaleur; elle est indiscutablement intéressante. Mais elle n’emporte point la conviction. Trop d’obscurités demeurent, attestées par l’auteur lui-même quand il use (fréquemment) de formules telles que « paraît », « il semble bien que », « sans doute », « probablement », « peut-être »... Toute une inscription prétendûment déchiffrée repose ainsi sur des incertitudes (p. 135).
- La prudence demeure donc dé règle en la matière. Attendons encore un peu, tant de découvertes archéologiques bouleversent aujourd’hui l’étruscologie !
- P. W.
- Tirage express en couleurs
- La Pavelle Corporation de New York a mis sur le marché un appareil, le P-100 Printer, de la taille d’une lanterne de projection, qui permet de tirer chez soi en trois minutes des épreuves à partir de négatifs en couleurs. L’appareil est muni d’un calculateur analogique miniature qui détermine en quelques secondes l’intensité de la
- couleur et le temps d’exposition. Deux solutions sont utilisées pour tirer les épreuves, un bain qui développe la couleur et un bain de blanchiment, ces bains étant suivis d’un seul lavage. Ce procédé extrêmement simple permet aux amateurs de photo en couleurs de se passer de chambre noire.
- 377
- p.377 - vue 381/551
-
-
-
- Survivant de la préhistoire
- le bison d’Europe reprend vie et liberté en forêt de Bialowieza
- La faune des grands Mammifères de l’Europe est aujourd’hui très pauvre en espèces car la plupart ont été exterminées depuis le Moyen Age et cette destruction s’est dangereusement accentuée au siècle dernier. Parmi les grands Ongulés, seuls le cerf et le chevreuil ont pu subsister, ainsi que le sanglier. Les Carnivores de grande ou moyenne taille, tels que l’ours, le lynx, le chat sauvage, ne persistent plus qu’en petit nombre dans quelques districts peu habités où leur vie est d’ailleurs précaire. Il n’y a guère que le renard et le blaireau qui se soient accommodés du déboisement des campagnes. Par contre, les petits Mammi-
- fères comme les Rongeurs et les Insectivores paraissent avoir peu souffert des modifications apportées par l’homme à la végétation. Quelques-uns même en ont profité.
- Le bison d’Europe, grâce à un concours heureux de circonstances, a pu échapper de justesse à une destruction totale. Cette belle espèce, dont le nom scientifique est Bison bonasus, appartient à l’ordre des Ruminants et à la famille des Bovidés, qui renferme tous les Ruminants pourvus de cornes persistantes, à l’exception des girafes. Les Bovidés ont été répartis en de nombreuses sous-familles, parmi lesquelles celle des Bovinés, qui réunit des animaux de grande taille et d’aspect trapu.
- Les représentants de la sous-famille des Bovinés se rangent eux-mêmes en deux groupes. Dans le premier groupe, auquel appartiennent les bisons, les cornes ont une section ronde et sont éloignées l’une de l’autre à leur base. On range dans ce premier groupe le genre Bos. L’aurochs (Bos primigenius), dont le dernier exemplaire s’est éteint en Pologne en 1627, est l’ancêtre du taureau domestique (Bos taurus) et du zébu (Bos indiens). Il existe 14 paires de côtes chez les espèces de ce genre. Par contre, les espèces du genre Bison n’ont que 13 paires de côtes. En outre, les bisons ont le dos incliné vers l’arrière ce qui est dû principalement aux apophyses épineuses très longues des premières vertèbres thoraciques et de la 7e vertèbre cervicale. Le pelage des bisons est épais et laineux, plus long sur le cou, le garrot et les épaules, ainsi que sur le front et le menton où il forme une barbe. La queue atteint les jarrets et elle se termine par une touffe de poils. Les cornes sont courtes et le front large. Les membres antérieurs des bisons sont plus développés que les membres postérieurs et ils supportent la majeure partie du poids de l’animal.
- Le yack (Poephagus grunniens) est voisin du bison; son corps est plus long, ses pattes plus courtes, son crâne moins large, les parties redressées de ses cornes sont beaucoup plus éloignées des côtés de la tête, et il possède une frange de longs poils le long des flancs. On sait que le yack est un animal domestique des hauts plateaux d’Asie centrale.
- Fig. 1. — Un mâle de bison d’Europe en forêt de Bialowieza.
- (Photo Heimpel, Raabs, Austria).
- p.378 - vue 382/551
-
-
-
- Fig. 2. — Deux bisons femelles et trois jeunes à Bialowieza.
- {Photo Heimpel, Raabs, Austria).
- Les autres genres de la sous-famille des Bovinés ont des cornes rapprochées l’une de l’autre à la base et à section plus ou moins triangulaire. Le genre Buffle renferme deux espèces : le buffle africain ('Bubalus caffer) et le buffle indien (Bubalus bubalus). Le bœuf musqué (Ovibos moschatus) avait une répartition circumpolaire au pléisto-cène; il est maintenant localisé au Groenland et à la région de l’Amérique du Nord située au delà du 60e degré de latitude Nord. Le pelage du bœuf musqué est long et sa taille ne dépasse pas 1,20 m au garrot; ses cornes sont dirigées d’abord vers l’arrière, puis vers l’avant.
- On distingue deux espèces dans le genre Bisou. La première est le bison d’Amérique du Nord (Bison bison), connu sous le nom vernaculaire de « buffalo ». Dans les plaines du Middle West le bison américain servait de nourriture essentielle aux Peaux Rouges ; il faillit être exterminé par les Blancs au 19e siècle. Ce Ruminant avait des migrations régulières avec une zone d’hivernage au sud du Canada, à l’ouest du lac Winnipeg. Il suivait un trajet à peu près circulaire qui le menait aux Etats-Unis
- dans le North Dakota et le Montana, et qui le ramenait ensuite à ses lieux d’hivernage. Des réserves et d’immenses parcs ont permis de sauver l’espèce.
- La deuxième espèce du genre est le bison d’Europe, Bison bonasus, connu des Russes et des Polonais sous le nom de zoubre. Une sous-espèce de montagne, Bison bonasus caucasiens, localisée au Caucase, est aujourd’hui éteinte; seule subsiste la forme de plaine.
- La race caucasienne a été découverte en 1836 lorsqu’un exemplaire en fut amené au jardin zoologique de Moscou. Au milieu du 19e siècle il fut établi que l’aire occupée par ces bisons se situait dans la partie ouest des chaînes du Caucase du Nord, dans les bassins des rivières Bolchaïa Laba et Kicha. On estimait le troupeau à 1 000 têtes en 1880 et à 600 en 1910 car ces bisons habitaient dans un district de chasse. En 1920 il n’en restait plus que quelques centaines. Quand en 1934 une commission d’état vint sur place afin d’assurer la protection du bison caucasien, elle ne put en trouver un seul. Il semble que le dernier se soit éteint en 1927 dans la partie est de la réserve qui avait été établie.
- La race du Caucase était plus petite, atteignant seulement 1,60 m au garrot et un poids moyen de 450 kg, au lieu de
- 379
- p.379 - vue 383/551
-
-
-
- Fig. 7. — Un grand bison mâle et sa famille.
- 1,85 met 512 kg chez la race de plaine; les plus gros spécimens de Bialowieza pèsent même jusqu’à 900 kg. La robe du bison de plaine est gris brun avec une nuance ocre; les poils sont longs et droits, la barbe du mâle atteint 40 cm, les sabots sont allongés. La forme du Caucase était plus foncée, d’une teinte chocolat et non pas ocre; elle était entièrement couverte de poils crépus et la barbe du mâle n’atteignait que 25 cm; les sabots étaient courts, hauts et arrondis.
- Une aire sans cesse rétrécie
- Au pliocène le bison d’Europe avait une aire d’extension très grande; il se rencontrait dans presque toute l’Europe et dans une grande partie de l’Asie. On admet que le bison d’Amérique et le bison d’Europe ont un ancêtre commun, le Bison prisais, qui vivait en grand nombre en Asie et en Amérique du Nord à une période où le détroit de Behring n’existait pas et où ces deux régions étaient en continuité.
- La séparation de l’Asie et de l’Amérique du Nord a isolé deux populations dont l’une, en Amérique, a donné une forme de prairie et dont l’autre, en Europe et en Asie, a donné une forme forestière. Les deux espèces ainsi isolées sont cependant restées interfécondes. Les croisements sont également possibles avec les vaches et les taureaux domestiques du genre Bos. C’est là un argument pour certains zoologistes qui n’admettent pas la validité du genre Bison.
- Après le mammouth, le cheval sauvage et l’aurochs, le bison est l’un des gros gibiers qui furent le plus chassés par l’homme du paléolithique supérieur, et surtout par les chasseurs magdaléniens qui le représentèrent fréquemment sur les parois des cavernes. Ce sont d’ailleurs les bisons peints de la grotte d’Altamira en Espagne qui ont, pour la première fois, révélé l’existence de l’art paléolithique. L’histoire de leur découverte vaut d’être rappelée. Un jour de novembre 1879, une petite fille du nom de Maria entra pour la première fois dans cette grotte pour voir ce que venait y faire son père, Marcelino di Santuola. Elle se lassa vite de le regarder fouiller la terre avec précautions et elle s’en fut dans une galerie basse dont elle inspecta les parois à la lueur d’une bougie. Tout à coup un cri s’éleva dans le silence de la grotte : « toros, toros ! » et,
- 380
- p.380 - vue 384/551
-
-
-
- un instant après, la petite fille accourait à toutes jambes vers son père. Lorsqu’elle lui eut dit qu’elle avait vu des images de taureaux sur la voûte de la galerie, Santuola y pénétra à quatre pattes et découvrit les bisons peints ainsi que les figurations de quelques autres animaux (biche, cheval, sanglier). Il fallut de nombreuses années pour que les préhistoriens admissent l’authenticité de ces peintures.
- Les bisons étaient donc fréquents en Europe à l’époque préhistorique. Du temps des Grecs ils se trouvaient encore en abondance dans toute l’Europe centrale et jusqu’au nord de la Suède. Aristote les nomme bonasus et en donne une description exacte; Pline en parle sous le nom de bison et leur donne comme patrie l’Allemagne. Beaucoup d’auteurs ont cependant confondu le bison et l’aurochs; les deux espèces étaient en effet abondantes et elles vivaient ensemble.
- La réduction de l’aire d’habitation du bison est due à la disparition progressive de son habitat qui est la forêt primitive; celle-ci s’étendait depuis les Pyrénées jusqu’au cœur de la Sibérie.
- D’après les observations de naturalistes du 19e siècle, le bison habite en été et en automne les endroits humides des forêts, caché dans les taillis; en hiver il préfère les parties sèches et élevées. Les vieux mâles vivent solitaires; les jeunes se groupent en troupeaux de 15 à 20 sujets en été, de 30 à 40 en hiver. Ils se nourrissent d’écorces, de feuilles, de bourgeons, d’herbes; ils dépouillent entièrement les frênes de leur écorce mais ils ne touchent pas aux Conifères. L’eau fraîche leur est indispensable. Le bison est adulte à 8 ou 9 ans. Il vit jusqu’à 50 ans.
- La déforestation et l’extension des cultures auraient suffi à réduire de plus en plus les populations de bisons, même si ces animaux n’avaient pas été chassés. Le défrichement des forêts commença surtout au 8e siècle. Dès cette
- époque, les Mérovingiens édictèrent des lois de protection et se réservèrent la chasse du bison. Ceci prouve bien que cet animal, qui était encore commun auparavant, et qui constituait une source de nourriture non négligeable pour la population, commençait à se raréfier. A partir de la France qui a été le premier pays de grands défrichements, la raréfaction du bison va s’étendre vers l’est. Au temps de Charlemagne le bison existait encore dans le Harz; en l’an 1000 Ekkehard le cite aux environs de Saint-Gall en Suisse; en 1373 l’animal est encore observé en Poméranie. En Pologne, en 1409, le roi Wladyslaw Jagiello préparait des réserves de nourriture pour ses armées avant la bataille de Grunwald en organisant des chasses au bison dans les forêts près de Cracovie. Un siècle et demi plus tard, le roi Zygmunt August promulguera la première loi de protection du bison.
- Le sauvetage de l’espèce
- En 1803, la forêt de Bialowieza (située à la frontière soviéto-polonaise actuelle) fut transformée en chasse réservée par le tsar et le bison y fut l’objet d’une protection spéciale. Les évaluations de ce temps parlent d’un troupeau de 300 à 500 têtes. En 1860, on recensait 1 500 bisons dans la forêt, ce qui correspond à une augmentation de cinq fois en un demi-siècle. Mais en 1863 des groupes d’insurgés se réfugièrent à Bialowieza et subsistèrent aux dépens
- Fig. 4. — Troupeau de bisons dans une clairière de la forêt de Bialowieza.
- La forêt offre à ces grands Bovidés abri et nourriture; ils mangent beaucoup de feuilles, de bourgeons et de rameaux.
- (Photos Heimpel, Raabs, Austria).
- p.381 - vue 385/551
-
-
-
- Fig. j. — Un élan mâle dans le parc national Kampinos, en Pologne.
- L’élan (Alces alces) est le plus grand des Cervidés; il peut atteindre 1,90 m au garrot; ses membres longs et puissants lui permettent de courir plus vite que le cheval. Répandu autrefois dans tout le Nord de l’Eurasie et de l’Amérique, il figurait encore au Moyen Age comme gibier, de même que le bison, sur la table du couvent de Saint-Gall en Suisse. Comme tous les grands animaux sauvages, il était menacé de disparition. Protégé maintenant, notamment en Pologne, il recommence peu à peu à se multiplier.
- (Photo Heimpel, Raabs, Austria).
- des bisons dont le nombre retomba à 500 en 1870. Le troupeau était remonté à 750 en 1914.
- On retrouve dans les écrits des 18e et 19e siècles des récits de chasses au bison. Le 18 et le 19 octobre 1860, le tsar chassa à Bialowieza. Il tua 6 bisons, 2 élans, 6 daims, 3 chevreuils et 4 loups. Les autres invités tuèrent 8 bisons. En 1752 une chasse du roi Auguste III permit de tuer 42 bisons et 13 élans en un seul jour ! « La reine à elle seule tua 20 bisons sans en manquer un seul et sans interrompre la lecture d’un roman », rapporte un chroniqueur de l’époque. Il est vrai que de pareilles hécatombes étaient facilitées par l’organisation des chasses. Plusieurs milliers de serfs rabattaient les animaux qui étaient enfermés dans une enceinte en bois où on les tuait à bout portant !
- La lenteur de l’augmentation du troupeau de bisons
- de Bialowieza depuis 1870 pouvait laisser croire que l’espèce était en cours de dégénérescence et s’éteignait naturellement; d’autant plus que l’on observait de nombreux avortements chez les femelles qui, en outre, étaient incapables de nourrir leurs jeunes par manque de lait, tandis que les bisons qui étaient élevés dans les zoos se reproduisaient normalement. Une femelle du zoo de Dresde éleva six veaux en six ans. Selon le professeur J. Zabinski, les bisons sauvages manquaient tout simplement de vitamines (dont on ignorait alors l’existence). En tout cas ils étaient sous-alimentés. En effet les gardes du tsar maintenaient dans la Réserve de chasse le plus de gibier possible, en particulier des cerfs et des chevreuils. Les femelles gestantes de bisons, gênées par la concurrence de ces Ongulés agiles, n’arrivaient plus à se nourrir au printemps dans les clairières ensoleillées, lors de la reprise de la végétation.
- Par ordre du tsar un couple de bisons de Bialowieza fut envoyé dans de nombreux pays comme don personnel. C’est grâce à cette initiative que l’espèce fut sauvée d’une destruction totale. En 1865, un mâle et trois femelles furent adressés au duc de Hochberg à Pszczyna en Pologne, en échange de vingt cerfs; d’autres exemplaires furent adressés au duc de Bedford en Angleterre. Malheureusement, en 1924, un mâle hybride de bison américain et de bison européen fut utilisé comme reproducteur, ce qui obligea à éliminer cet élevage lors de la reconstitution du troupeau de bisons européens.
- En 1905, le comte Potocki reçut aussi des bisons; il fut le premier à réaliser une hybridation avec un taureau domestique. Enfin en 1907, le zoo Hagenbeck reçut un mâle de la race caucasienne; celui-ci produisit une descendance hybride avec une femelle de Bialowieza.
- Pendant la première guerre mondiale, les Allemands tuèrent la plupart des bisons de Bialowieza et ceux-ci avaient totalement disparu en 1921. Il ne restait plus alors que quelques animaux dans d’autres réserves de Pologne. La même année le duc de Hochberg faisait abattre ses 70 bisons pour les empêcher de tomber aux mains des insurgés silésiens !
- En 1923 fut constituée à Paris la Société internationale pour la Protection du Bison, qui entreprit le sauvetage de l’espèce. Ce sont les animaux captifs dans les zoos d’Allemagne qui furent à l’origine de la création du troupeau actuel. Une sélection sévère fut opérée afin de ne retenir que les sujets de race pure. Un livre de pedigree fut établi avec une généalogie pour les sujets de race pure, et une autre pour les hybrides avec la race caucasienne. A l’heure actuelle le bison est, avec le cheval de Prjewalski et le cerf du Père David, le seul animal sauvage à posséder son livre de pedigree. Le 13 septembre 1952, des bisons nés en captivité ont été libérés dans la réserve de Bialowieza afin d’éviter la domestication de l’espèce et pour tenter de lui faire reprendre son mode de vie ancestral. A la fin de 1959, il y avait 28 sujets en liberté qui se reproduisaient normalement. Plus de 300 bisons vivants ont été recensés dans le monde, dont 132 en Pologne et 95 en U.R.S.S. L’espèce semble sauvée. Il ne reste plus qu’à obtenir que le bison d’Europe redevienne un véritable animal sauvage, s’intégrant de nouveau à la faune des forêts primitives qui constituaient son milieu naturel.
- Roger Dajoz,
- Agrégé de l’Université.
- 382
- p.382 - vue 386/551
-
-
-
- LES MINES CÉVENOLES fourniront à nouveau plomb, zinc, argent
- Un revirement se dessine dans la politique adoptée par les sociétés minières : alors que, pendant les cinquante dernières années, de nombreux gisements de la France métropolitaine avaient été successivement délaissés, ces mêmes gisements et les terrains avoisinants font aujourd’hui l’objet de recherches. Une activité nouvelle semble devoir renaître autour de minerais que, pour des raisons diverses, on avait renoncé à exploiter.
- On peut se demander si, dans la période précédente, les sociétés n’ont pas été séduites par des gisements situés sur d’autres continents, en raison peut-être de leur richesse, sans doute aussi de l’existence d’une main-d’œuvre peu exigeante. Le bouleversement récent des structures politiques, notamment en Afrique et en Asie, semble avoir agi en sens inverse. Il se peut également que les équipements modernisés et l’apparition de besoins accrus aient contribué à changer les données du problème.
- C’est là très probablement ce qui explique le regain d’intérêt qui se manifeste à l’égard du bassin minier des Cévennes auquel M. V. Charrin a consacré un intéressant article dans Le Génie civil du 15 avril 1962.
- *
- * *
- Les Cévennes sont une entité géographique et géologique assez mal définie. Un fait cependant intéresse l’industrie minière : c’est la présence d’une zone qui s’étend en longueur de Saint-Péray en Ardèche (à la même latitude que Valence) jusqu’à Sumène dans le Gard. Cette bande de terrains carbonifères, triasiques, basiques et en de rares endroits jurassiques avait précédemment reçu le nom de « grande faille des Cévennes ». Actuellement, l’interprétation tectonique est devenue plus complexe et l’on admet plutôt qu’il s’agit d’une zone de plissements, entrecoupée de tout un réseau de failles. Quoi qu’il en soit, de nombreux gisements métallifères y apparaissent, principalement parmi les calcaires, grès et argiles.
- Ces gisements sont aujourd’hui considérés sous deux angles très différents, celui d’abord de leur importance et de leur valeur intrinsèque, celui ensuite de l’intérêt économique qu’ils présentent. Il est à noter, par exemple, que pour tous ceux où dominent les minerais de fer il est par avance entendu qu’aucune exploitation ne sera envisagée.
- C’est le cas des mines anciennes de Sumène et des environs d’Alès qui eurent naguère une certaine envergure et qui alimentaient les hauts fourneaux d’Alès et de Bessèges. En différents endroits de cette même région, on exploitait encore récemment des pyrites de fer, non pas pour le métal mais pour le soufre qui, extrait dans des conditions techniques difficiles, a cessé d’être recherché en détail depuis qu’il est produit massivement à Lacq.
- M. Charrin n’exclut pas la possibilité de l’existence d’autres gisements importants dans cette zone évidemment riche en fer, mais aucun effort ne sera fait pour les explorer et les délimiter, car l’industrie sidérurgique est désormais concentrée en d’autres points du territoire : économique-
- ment parlant, le minerai de fer ne tolère pas les transports terrestres à longue distance. C’est pour la même raison qu’à l’autre extrémité des Cévennes le gisement de La Voulte, bien que livrant un excellent minerai et ayant eu son heure de célébrité, est voué à un sommeil prolongé.
- *
- * *
- Tout autre apparaît le destin des gisements qui recèlent des métaux non ferreux. Plusieurs mines de plomb (souvent argentifère) et de zinc qui avaient été abandonnées vont sans doute revivre et s’étendre à brève échéance.
- L’une d’elles, située aux Malines, non loin des limites du Gard et de l’Hérault, est restée en activité de 1884 à 1932. Au cours de cette période, elle produisit 400 000 t de zinc, ce métal étant extrait d’une calamine, contenue dans des calcaires dolomitiques, et d’une blende, extraite de calcaires basiques et triasiques. Il est fort probable que cette mine n’est pas épuisée et qu’elle se prolonge par des gisements encore inexplorés. Sa remise en activité serait envisagée pour une date prochaine.
- Il en est de même pour la mine de Carnoulès, au sud-ouest d’Alès, où l’exploitation fut tour à tour abandonnée et reprise. Le minerai, une galène argentifère, disséminé dans un banc d’arkose quartzifère (roche résultant de la décomposition du granité) ne peut être extrait qu’au prix d’un broyage qui n’était guère à la portée des appareils anciens. Cet obstacle est aujourd’hui surmonté et les nouveaux exploitants ont estimé les réserves de minerai à 3 000 000 t. La teneur en plomb serait de 4 à 6 pour 100 et chaque tonne de ce métal fournirait 1 500 g d’argent.
- C’est au même niveau géologique que se situe une mine de l’Ardèche, dont le nom (Largentière) est significatif. Cette mine daterait de l’époque gallo-romaine, mais sa principale période d’exploitation a été la fin du 19e siècle. La teneur en argent (incorporé au plomb) serait quatre fois plus élevée qu’à Carnoulès.
- Non loin de Privas se trouvent deux gisements de fer qui, pour les raisons exposées ci-dessus, seront laissés de côté. On examine par contre des couches triasiques où le plomb pourrait être présent.
- On explore enfin avec attention différents gîtes, répartis autour de Flaviac : des filons anciennement connus, d’autres récemment prospectés contiendraient à la fois du zinc, du plomb et du cuivre, à quoi s’ajoutent d’importantes quantités d’argent. Les sociétés minières paraissent fonder d’assez grands espoirs sur ces gisements de Flaviac.
- Comme on a pu le constater, c’est le plomb qui constitue la plus grande richesse minière des Cévennes, tout au moins selon les critères actuels. Or il apparaît que la production de la France (18 200 t en i960) est faible, en regard des pays voisins : Allemagne 51 000 t, Italie 49 700 t, Espagne 73 300 t. Situation qui peut être due davantage à un manque de persévérance des exploitants qu’à une réelle « infériorité géologique». Il est vrai (et ceci expbque peut-être cela) que la Métropole a pu longtemps compter sur l’appoint
- 383
- p.383 - vue 387/551
-
-
-
- du plomb algérien (io 500 t) et surtout marocain (94 800 t). On doit également tenir compte, dans la renaissance des mines cévenoles, du fait que le plomb est un matériau stratégique, susceptible d’atteindre des cours élevés en période de tension internationale. Ce fut le cas, par exemple, en 1951.
- Signalons, pour terminer, qu’à côté des métaux, les Cévennes offrent au moins un gisement d’orthose, feldspath
- potassique, couramment utilisé en céramique et en verrerie. Jusqu’ici, ce feldspath était presque entièrement importé de Scandinavie. La mise en exploitation du gisement cévenol, dans la haute vallée de l’Ardèche, évitera sans doute à la France d’être tributaire de l’étranger pour cette matière première que l’on trouve assez rarement à l’état pur.
- Y.M.
- A propos d’une drogue tératogène
- On sait que de graves malformations congénitales ont été imputées, surtout en Allemagne fédérale, à un médicament tranquillisant par ailleurs fort peu toxique, la thalidomide ou contergan (a-phtalimidoglutarimide). Des enfants étant nés avec des bras monstrueusement raccourcis (phocomélie) ou même sans bras et avec diverses autres anomalies, notamment du cœur et du tube digestif, une enquête fut menée sur les antécédents médicaux de leurs mères et il fut révélé que nombre de ces femmes avaient absorbé le médicament pendant leur grossesse. Cependant, plusieurs femmes qui avaient également pris de la thalidomide avaient eu des enfants normaux et d’autre part des malformations analogues paraissaient sans rapport avec ce tranquillisant. Un doute pouvait donc subsister.
- Pour lever ce doute, MM. A. Giroud, H. Tuchmann-Duplessis et Mme L. Mercier-Parot, au Laboratoire d’Embryologie de la Faculté de Médecine de Paris, ont fait une série d’expériences sur des animaux, rats, souris et lapins. Leurs résultats, présentés le 15 mai 1962 à l’Académie de Médecine, confirment les effets tératogènes de la thalidomide, mais avec des restrictions qui ne les rendent que plus instructifs.
- Dans une première série d’expériences, la thalidomide a été mélangée à la nourriture de rates gestantes à raison de 250 mg par kilo d’animal, à diverses périodes de la gestation. Les résultats ont été à peu près les mêmes dans tous les cas : la moitié environ des fœtus se sont résorbés, mais ceux qui sont arrivés à terme ont donné des nouveau-nés sans aucune anomalie décelable.
- Les résultats ont été tout autres avec les souris et les
- Commande automatique des phares de voiture
- Une firme britannique vient de mettre au point un dispositif électronique simple qui permet de mettre automatiquement les phares en « code » lorsque la voiture en croise une autre, puis à nouveau en « route » lorsque le croisement est accompli. Deux cellules photoélectriques fixées au pare-brise par des ventouses, réagissent au faisceau lumineux émis par les véhicules qui viennent en sens contraire. Lorsque ces derniers sont en « route », les cellules de mise en code fonctionnent à une distance de 270 à 370 mètres; s’ils sont en code, ce n’est qu’à une distance de 180 à 270 mètres que le dispositif entre en fonctionnement. Les cellules photoélectriques sont orientables, et l’organe de commande, miniaturisé, se place sans difficulté sous le tableau de bord. {Service de presse de VAmbassade de Grande-Bretagne').
- lapins. Chez les souris, pour les doses de 125 à 500 mg/kg, les résorptions sont allées de 44 à 95 pour xoo, et 5 à 11 pour 100 des souriceaux survivants ont montré des anomalies : bec-de-lièvre, fissure du palais, malformations des paupières ou de la queue. Chez les lapins des doses de 125 à 250 mg/kg ont suffi pour provoquer 14 pour 100 de résorptions complètes et 45 pour 100 de résorptions partielles. En outre, les nouveau-nés subsistants montraient des anomalies plus graves, principalement des membres et du cerveau.
- Il est donc confirmé que la thalidomide absorbée par la mère est susceptible de perturber gravement le développement du fœtus. Il est remarquable que chez le rat ce développement peut être arrêté, mais sans aucune action tératologique sur les survivants. On voit par là combien il est important de ne pas se borner à une seule espèce animale dans l’étude des médicaments..
- L’action tératogène de la thalidomide par l’intermédiaire de la mère rappelle celle de certaines substances administrées directement à l’embryon dans les études de tératologie expérimentale. L’ypérite azotée, notamment, provoque des raccourcissements des membres chez l’embryon de souris, et Mlle B. Salzgeber, dans une note récente à l’Académie des Sciences, a rendu compte d’effets analogues sur l’embryon de poulet. Injectée à des embryons de 3 à 4 jours, l’ypérite azotée provoque des malformations des membres antérieurs et postérieurs qui consistent surtout, comme la phocomélie, en la suppression de portions de squelette.
- J. G.
- Atropine et adrénaline contre le « réflexe du noyé »
- Selon le Dr H. J. H. Colebatch, de l’Université de Sydney, l’asphyxie par noyade est causée non par le simple blocage physique des voies respiratoires mais par un réflexe des poumons qui déclenche l’obturation des conduits d’air. L’emploi de médicaments à base d’atropine et d’adrénaline, en arrêtant ce réflexe, permet de libérer immédiatement les conduits d’air et rétablit une respiration normale. Sans vouloir remplacer la respiration artificielle qui reste la meilleure méthode pour combattre l’asphyxie par noyade, le Dr Colebatch préconise un traitement médical fondé sur les propriétés de l’atropine et de l’adrénaline, notamment lorsque la pénétration d’une substance étrangère dans les poumons est à l’origine des troubles respiratoires. {Information de l'Ambassade d’Australie).
- 384
- p.384 - vue 388/551
-
-
-
- La Génétique au service de P amélior ation des plantes
- La Génétique, qui n’a certainement pas pris encore en France toute la place qu’elle mériterait parmi les sciences biologiques, règne pourtant en maîtresse incontestée dans un domaine très pratique, celui de l’amélioration des espèces, principalement des plantes cultivées. Les bases en sont naturellement enseignées dans nos écoles supérieures d’agriculture. On peut donc s’étonner que sur ce sujet nous ne disposions guère que d’un ouvrage déjà ancien, paru en 1936. Un livre récent de M. Georges Valdey-ron, professeur à l’Institut national agronomique, comble cette lacune (1).
- Les méthodes générales d’amélioration des espèces peuvent se résumer en deux mots : sélection, hybridation. Cela n’est pas nouveau. Mais ce qui est nouveau, c’est le fait que ces opérations reposent sur la connaissance des mécanismes de l’hérédité et de l’évolution des populations que nous apporte la Génétique, ainsi que sur une expérimentation rigoureusement conduite.
- A la notion vague d’atavisme, la Génétique a substitué celle de génotype, opposé au phénotype. Le phénotype, c’est l’individu dans sa réalisation effective, anatomique et physiologique. Le génotype, c’est la collection des gènes que contiennent ses chromosomes. Le génotype gouverne étroitement la réalisation du phénotype, mais il recèle aussi des possibilités qui ne s’actualisent que dans certaines conditions.
- Chaque individu, dans chacune de ses cellules, possède chacun de ses chromosomes en double exemplaire, l’un reçu du père, l’autre de la mère. Dans une lignée absolument pure, les deux chromosomes de chaque paire sont réellement semblables. Mais dans une population naturelle il n’en est jamais ainsi. A la suite de mutations, les deux chromosomes de chaque paire diffèrent très souvent par un ou plusieurs de leurs gènes, et on doit parler, non plus de chromosomes semblables, mais de paires de chromosomes homologues.
- Chaque gène est situé en un endroit particulier d’un chromosome, les généticiens disent : en un locus. Si au même locus, deux chromosomes homologues diffèrent par la nature du gène qui s’y trouve, ces gènes différents qui se correspondent sont appelés des allélomorphes. Selon le hasard des distributions, un individu peut alors posséder sur les deux chromosomes de la paire le même allélomorphe, ou bien des allélomorphes différents. Dans ce dernier cas il est hybride pour le gène en question.
- En général, l’un des allélomorphes est dominant sur l’autre, c’est-à-dire que sa présence sur un seul des deux chromosomes homologues suffit à faire apparaître le caractère phénotypique qu’il gouverne; par exemple, la couleur grise du poil chez une souris est dominante sur le poil blanc : une hybride de grise et de blanche sera toujours grise. L’autre allélomorphe (ici le gène poil blanc) est dit récessif; le caractère qu’il gouverne n’apparaît que s’il est
- 1. Génétique et amélioration des plantes, par Georges Valdeyron. 1 vol. 15,5X24, 374 p., 56 fig. Nouvelle Encyclopédie agricole. J.-B. Baillière et fils, Paris, 1961. Prix : 45 NF.
- présent dans les deux chromosomes, donc s’il est hérité à la fois du père et de la mère.
- Quelquefois le double gène récessif entraîne la mort de l’individu; on dit qu’il est létal. Si un gène dominant était létal ou seulement très défavorable, il serait très vite éliminé de la population par la sélection naturelle, puisque tous les individus qui le portent, en simple comme en double, seraient alors éliminés. Au contraire un gène récessif, même très défavorable à l’état double, peut être longtemps conservé dans une population, et même indéfiniment s’il est introduit par des mutations continues, puisqu’il n’entraîne pas d’inconvénient pour les individus hybrides. Il peut être aussi protégé de la disparition par le fait très fréquent que les hybrides, portant les deux allélomorphes, sont plus vigoureux que ceux qui portent en double l’allélomorphe dominant. C’est le fameux phénomène de la vigueur des hybrides sur lequel Darwin a tant insisté.
- Utilité des gènes récessifs
- Les gènes récessifs, même défavorables ou indifférents, sont très importants pour l’évolution, car ils constituent une réserve de variabilité ; tel gène défavorable dans certaines conditions pourra devenir favorable si les conditions changent, ou bien, associé à d’autres gènes par la suite, il pourra être la souche d’une race nouvelle, voire d’une espèce, aux qualités entièrement originales.
- De toute façon, on comprend que les individus portent en eux des caractères que l’on peut dire potentiels, qui ne se révéleront que dans leurs descendants, et le choix d’un géniteur ne peut se faire d’après ses seuls caractères apparents. On ne connaît sa vraie valeur que par sa descendance. Toutes les opérations de sélection doivent d’abord s’inspirer de ce principe.
- En même temps le sélectionneur doit se garder d’agir trop brutalement. Pour isoler des qualités auxquelles il attribue une grande importance, il est souvent conduit à chercher des lignées pures, dénuées de toute hybridité. Pour cela il unit entre eux des individus proches parents, en les recroisant sur plusieurs générations. Mais ces lignées consanguines, outre qu’elles sont généralement de vigueur diminuée, sont appauvries dans leur réserve de variabilité. C’est ce que M. Valdeyron appelle le paradoxe de la sélection. Même des gènes en apparence défavorables peuvent ne l’être que dans l’immédiat. La sélection doit donc être conduite avec prudence et l’on doit garder sous la main, si l’on peut dire, certains produits que l’on a éliminés dans un premier temps, pour s’en servir éventuellement dans la suite des opérations. Entre parenthèses, on voit par là combien il serait désastreux de détruire toutes les espèces et variétés sauvages, qui constituent un réservoir naturel de gènes dont l’utilité est imprévisible.
- L’agronome ne peut se contenter de sélectionner une plante, un Blé par exemple, pour une seule qualité, disons la qualité du grain ou le nombre de grains par épi, qui
- 385
- p.385 - vue 389/551
-
-
-
- conditionne le rendement. On lui réclame en outre un Blé résistant aux diverses maladies, à la verse, à la sécheresse ou au froid selon les régions. Les qualités que l’on réclame correspondent à des gènes ou à des allélomorphes présents dans des espèces ou des variétés différentes. Il faut donc les hybrider, en effectuant artificiellement la pollinisation, puisque dans l’exemple choisi, la plante est autogame, c’est-à-dire qu’en général chaque fleur se féconde elle-même. Si les gènes recherchés sont situés, dans l’une et l’autre espèce, sur des chromosomes de paires différentes, l’hybridation, suivie de sélection, peut réussir à grouper ces chromosomes sur des individus qui finalement donneront une lignée pure qui se reproduira pareille à elle-même. Mais certains des caractères recherchés correspondent aussi à des gènes qui sont situés sur des chromosomes homologues, c’est-à-dire de la même paire. Dans ce cas, ces caractères ne seront réunis que sur des hybrides qui diffèrent au moins par un gène. Et dans une population d’espèce autogame, le nombre des hybrides diminue très vite. Dans les semis que l’on obtiendra, les caractères qu’on aura réunis se sépareront donc de nouveau.
- Toutefois, s’il s’agit de gènes qui sur les chromosomes homologues sont situés à une certaine distance l’un de l’autre, il y a de grandes chances qu’il puisse se produire entre les chromosomes un échange de morceaux qui tôt ou tard réunira ces gènes. C’est le phénomène que les généticiens ont appelé crossing-over. On n’est pas maître de le provoquer, on est seulement en mesure d’en profiter quand il se produit, si toutefois on peut le déceler. Le problème est en effet très ardu. Pour juger des qualités de la plante obtenue il faudrait pouvoir la placer (et placer sa descendance) dans toutes les conditions les plus variées, et en outre vérifier que l’hybride est bien fixé, c’est-à-dire que tous ses descendants sont identiques. Il est hors de question de pouvoir réaliser de telles expériences sur toutes les combinaisons obtenues, qui sont en nombre énorme. A lui seul le choix des expériences et de leur ordre d’exécution justifie de longues discussions.
- Hybrides non fixables
- Nous avons déjà fait allusion à la vigueur des hybrides. La vigueur est naturellement une qualité à laquelle on tient beaucoup. Il peut arriver qu’elle soit réalisée suffisamment par la réunion de gènes différents dans un hybride qu’on a réussi à fixer comme nous venons de le voir pour
- Ambulance volante
- On a récemment présenté, au cours d’un congrès à Hanovre, une ambulance chirurgicale volante dénommée « Clinocoptère ». Constituée par une cabine d’environ 6 m de long, 3 m de large et 3 m de haut, elle est aménagée en deux salles de pansements et d’opérations comportant toutes les installations et instruments nécessaires aux traitements et interventions chirurgicales. Cette ambulance est transportée, avec le personnel médical, par un hélicoptère de moyenne puissance et peut ainsi être amenée à tout endroit désiré ; l’hélicoptère se charge ensuite, si nécessaire, du transport à l’hôpital des personnes ayant reçu les soins d’urgence. Elle peut servir aussi de station volante de: vaccination. (Bulletin d’information du Gouvernement fédéral, Bonn).
- le Blé. Mais il arrive aussi qu’une vigueur satisfaisante ne puisse être obtenue que par la réunion de deux gènes allélomorphes, c’est-à-dire comme nous l’avons vu, situés au même locus de deux chromosomes homologues. Dans ce cas aucune fixation n’est possible. L’hybride donnera toujours des produits dont une grande partie verront les deux allélomorphes se séparer. Autrement dit, le nombre des hybrides tendra à diminuer dans les générations successives, et les individus vigoureux se raréfieront dans les récoltes.
- On ne peut évidemment s’accommoder d’une telle situation, et il n’existe alors qu’une solution, c’est de trouver un moyen de fournir constamment des semences qui soient toutes hybrides. Une telle fourniture ne peut être faite que par des entreprises spécialisées et l’agriculteur renonce à produire lui-même ses semences. C’est ce qui a lieu, par exemple, pour la Betterave et pour le Maïs, qui à la différence du Blé sont des plantes allogames, c’est-à-dire dont les fleurs ne se fécondent pas elles-mêmes.
- Prenons l’exemple du Maïs. Sur un pied de Maïs les fleurs mâles et les fleurs femelles sont groupées en épis distincts. Lorsqu’on désire obtenir exclusivement des semences hybrides de deux variétés, il suffit de les cultiver en lignes parallèles et alternées, et de supprimer toutes les inflorescences mâles de l’une des variétés. On obtiendra donc sur ces plants privés de leurs fleurs mâles des graines uniquement fécondées par le pollen de l’autre variété. Cette opération est naturellement coûteuse. Elle peut être évitée par le fait qu’on connaît des maïs dont les fleurs mâles sont naturellement stériles. Il faut donc, dans une première série d’opérations, obtenir un hybride où la stérilité des fleurs mâles soit unie aux autres qualités que l’on désire voir apportées par le géniteur femelle. Quand cela est possible, il suffit ensuite de planter cet hybride en alternance avec la variété qu’on a choisie comme géniteur mâle. Bien entendu, ici encore, le choix des géniteurs n’est fait qu’après une série d’opérations de sélection qui présentent les difficultés habituelles.
- Chaque espèce dont on poursuit l’amélioration pose des problèmes particuliers, souvent plus complexes que ceux qui viennent d’être évoqués. Retenons-en deux notions : d’abord que la génétique est désormais la base de toute action humaine sur les êtres vivants ; ensuite que les populations naturelles constituent un réservoir de richesses inconnues, où la science ne pourra puiser que si l’on n’a pas la sottise de le détruire.
- J. G.
- Contre la pollution de la mer
- On sait tout le mal que font aux organismes vivants marins la pollution de l’eau qui résulte du rejet des résidus pétroliers, principalement par les navires. Une conférence internationale, réunie récemment à Londres, a révisé la convention établie à ce sujet en 1954 et a étendu les zones où ce rejet est interdit. L’interdiction s’étend maintenant à tout point de la mer situé à moins de 50 milles des côtes et à des zones beaucoup plus larges dans l’Atlantique et la Méditerranée (jusqu’à 100 milles dans cette mer ainsi qu’en vue du Canada et de la Norvège). La mer du Nord et la Baltique sont interdites en .totalité. L’interdiction qui frappait les navires-citernes d’au moins 500 t s’étend maintenant jusqu’à ceux de 150 t.
- 386
- p.386 - vue 390/551
-
-
-
- Les auxines ou phytohormones de croissance
- par Jean Grive
- L’étude des hormones végétales, ou phytohormones, est devenue depuis un quart de siècle un des chapitres les plus importants de la physiologie végétale. Les succès de l’endocrinologie animale y ont certainement été pour quelque chose. Chez les animaux et chez l’homme, on a établi l’existence de toute une série d’hormones qui jouent un rôle capital dans le développement des divers organes puis dans leur fonctionnement et dans l’équilibre de toutes les fonctions vitales, et l’on peut dire que toute la physiologie animale est sous la dépendance étroite de deux grands systèmes : le système nerveux et le système des glandes endocrines. Encouragés par cet exemple, les botanistes ont eu l’espoir de pouvoir expliquer toutes les grandes fonctions de la vie des plantes par un système hormonal analogue, qui prenait d’ailleurs d’autant plus d’importance que les plantes sont privées de système nerveux.
- On a découvert d’abord, effectivement, des hormones de croissance qui influent sur l’élongation des extrémités des tiges; puis on a cru déceler des substances qui agissent sur la formation des racines, d’autres sur la formation des fleurs, etc. Les premières ont été baptisées auxines, et ce nom leur est resté. Les autres ont reçu également des noms mais, semble-t-il, prématurément. Car les hormones particulières aux racines et aux fleurs n’ont pu être mises clairement en évidence, et finalement on peut même douter de leur existence. L’endocrinologie végétale se réduit donc à peu près, pour l’instant, à l’étude des auxines ou hormones de croissance, science dont on peut dire que le fondateur a été le Hollandais Went, bien connu pour avoir créé en Californie le premier phytotron (voir La Nature, septembre 1953, p. 272-278). C’est ainsi qu’un des grands spécialistes actuels de cette science, le professeur Paul-Emile Pilet, de Lausanne, qui a publié récemment un traité sur les hormones végétales, a intitulé son livre Les phytohormones de croissance (1).
- Des expériences déjà anciennes de Went, qui ont été répétées et modifiées de toutes les façons imaginables, fournissent à la fois la preuve de l’existence d’une hormone de croissance (ou auxine) et un moyen de la doser (fig. 1). Si l’on coupe la coléoptile, c’est-à-dire l’extrémité d’une tigelle très jeune, par exemple d’avoine, en cours de germination, la croissance de la tigelle s’arrête. Si l’on replace la coléoptile sur la tigelle, celle-ci recommence à s’allonger. Si l’on place la coléoptile sur un côté de la section, la tigelle s’allonge seulement de ce côté, de sorte qu’elle croît en se courbant du côté opposé. Tout se passe donc comme si la coléoptile sécrétait une substance qui
- 1. Les phytohormones de croissance. Méthodes, chimie, biochimie, physiologie, applications pratiques, par Paul-Emile Pilet, professeur à l’Université de Lausanne. 1 vol. 17 X 25, 293 fig. Masson, Paris, 1961. Prix, relié: 110 NF.
- provoque l’élongation des cellules. Preuve supplémentaire : on place la coléoptile sur un petit bloc d’agar qui absorbe l’hormone. Dès lors on peut faire toutes les expériences avec le petit bloc d’agar et elles ont les mêmes résultats qu’avec la coléoptile elle-même. Cette méthode, convenablement adaptée, est une de celles que l’on peut employer pour doser la quantité ou l’activité de l’auxine, ou d’une substance quelconque qui agit sur la croissance : on en imprègne l’agar d’une quantité déterminée et on place l’agar sur une tigelle d’avoine fraîchement sectionnée, dont on mesure ensuite l’élongation ou, selon le cas, la courbure.
- Des expériences analogues permettent de constater et d’interpréter l’action de la lumière ou de la pesanteur sur la croissance végétale. Si l’on éclaire d’un seul côté une tigelle, c’est le côté non éclairé qui s’allonge le plus et on peut constater que, du côté de la lumière, les tissus de la plante contiennent beaucoup moins d’hormone. La lumière a pour effet de dégrader l’auxine ou de l’inactiver et on peut montrer que cette inactivation est causée par une enzyme, qui elle-même est activée par la lumière. Cette inactivation de l’auxine exige d’autre part la présence d’oxygène et elle semble en rapport avec la respiration des cellules.
- Fig. 1. — Représentation schématique des premières expériences de Went avec des tigelles d’avoine.
- En a, tigelle intacte; en b, la coléoptile a été sectionnée, la croissance s’est arrêtée; en c, si l’on replace la coléoptile sur la tigelle, la croissance reprend. En d, des coléoptiles sont placées pendant 2 heures sur un bloc d’agar, qui est ensuite découpé. En e, un petit cube d’agar provenant de ce bloc est placé sur la section de la tigelle dont la croissance reprend alors (/). Et la croissance est plus active du côté où l’on a placé l’agar.
- Si maintenant la tigelle d’avoine est placée horizontalement, on sait qu’elle se redresse. Or il est facile de constater que l’auxine s’est concentrée sur la face de la tige tournée vers le bas; c’est donc l’auxine qui provoque l’élongation des cellules situées de ce côté et par conséquent le redressement de la tige.
- 387
- p.387 - vue 391/551
-
-
-
- 6 6 A
- La même expérience faite sur une racine a, comme on le sait, un résultat opposé. Une racine placée horizontalement se courbe vers la terre. L’explication, ici, est plus complexe et a donné lieu à des discussions. Comme dans une tige, l’hormone diffuse vers le bas et s’accumule donc dans le côté placé inférieurement. Le résultat semble dû au fait que la sensibilité de la racine à l’hormone est très différente de celle de la tige. Elle ne stimule l’élongation des cellules qu’aux très faibles concentrations et elle l’empêche au contraire quand elle est plus concentrée. Ce sont donc les cellules placées supérieurement qui s’allongent, et la racine se courbe vers le bas.
- D’une façon générale d’ailleurs, on constate qu’une petite dose d’auxine provoque la formation de racines puis qu’en s’accumulant l’hormone arrête leur croissance. Comme dans un végétal l’auxine diffuse constamment des parties supérieures où elle se forme vers les parties inférieures, on peut peut-être expliquer ainsi que les racines ont une croissance extrêmement lente dans une plante âgée, bien qu’il s’en forme toujours de nouvelles. L’auxine doit d’ailleurs être en partie utilisée, en partie détruite, au cours de cette migration vers les racines.
- Structure chimique et activité
- Un des chapitres les plus intéressants de l’étude des phytohormones est celle de leur chimie et de leur biochimie. Et d’abord quelle est la structure chimique d’une auxine ?
- L’auxine la plus courante, la phytohormone qui existe sans doute dans toutes les plantes, est un acide faible, que l’on appelle en France acide indole-acétique et qui doit, plus correctement, être appelé acide bêta-indolyl-acétique. Conformément à un usage maintenant courant pour désigner des substances importantes, le professeur Pilet en réunit les initiales pour le nommer ABIA.
- L’ABIA n’est pas un corps extrêmement complexe. Il est formé d’un noyau à huit atomes de carbone et un atome d’azote (noyau indole) dont deux carbones opposés sont réunis par une double liaison, et d’autre part d’une chaîne latérale greffée sur le carbone bêta, chaîne très courte d’ailleurs, qui se termine par un groupe carboxyle, COOH (fig. 2 et 3) On comprendra l’importance de ces indications si l’on sait que quantité de substances, soit naturelles, soit artificielles, ont sur les plantes une action analogue à celle de l’ABIA, et que toutes ces substances ont une structure analogue. On a donc pu établir des
- noyau indole chaîne latérale
- (4)
- (3; 3)
- (5) CH C------------CH------CH2-C00H
- (6) CH C
- ^CH^ (7)
- CH
- NH^&oc)
- Fig. 2. — Formule de l’ABIA (acide ^-indolyl-acétique). Nombre de molécules de structure analogue sont plus ou moins actives. Une double liaison au moins dans le noyau cyclique est nécessaire à l’activité de la molécule comme substance de croissance.
- 0
- C H
- Fig. — Structure spatiale de la molécule d’ABIA (D’après P.-E. Pilet, Les phytohormones de croissance, Masson, Paris).
- rapports assez étroits entre la structure chimique de ces substances dites de croissance et leur activité biologique. Il faut que leur molécule comprenne d’une part un noyau cyclique, c’est-à-dire fermé, avec une double liaison entre deux atomes de carbone, et d’autre part une chaîne latérale terminée par un groupe carboxyle. Mais cela ne suffit pas. Il faut encore que le noyau soit de dimensions appropriées et que la chaîne latérale puisse se placer dans un plan qui fasse un certain angle avec le plan du noyau.
- En effet, il est vraisemblable que pour être active, une substance de croissance doit pouvoir s’insérer d’une façon bien déterminée dans le substrat que lui offre la cellule. On ne sait exactement quel est ce substrat dans le cytoplasme mais on pense que c’est le noyau de l’auxine qui s’y loge, et qui s’y loge de façon que la chaîne latérale en émerge selon un angle bien déterminé. Des hypothèses diverses ont été énoncées sur la façon dont se ferait cette fixation, sur la façon aussi dont agit l’auxine. En même temps on cherche déj à, à l’aide de modèles microchimiques, à comprendre pourquoi certaines substances renforcent l’action de l’auxine (substances synergistes) ou au contraire la contrarient (substances antagonistes). On a imaginé par exemple (fig. 4) que dans le substrat cellulaire se trouvent pour ainsi dire des logements qui peuvent être de plusieurs formes, disons pour simplifier de deux formes, l’une des deux formes étant plus exactement convenable à la molécule d’auxine (logements A), l’autre plus conforme à la molécule de la substance synergiste (logements S). On admet que la molécule d’auxine n’est active que si elle occupe un logement A.
- Si l’on donne au végétal de l’auxine seule, ses molécules iront occuper, les unes des logements A, les autres des logements S ; seules les premières seront actives et il y aura « gaspillage » d’auxine (fig. 4,1). Si l’on donne la substance synergiste seule, elle occupera aussi tous les logements (II). Si l’on donne enfin l’auxine en même temps que la synergiste, les molécules d’auxine se fixeront électivement dans les logements A et la synergiste dans les logements S (III). Pour une concentration équivalente à celle du cas I, l’effet de l’auxine sera plus grand, car toutes les molécules en seront actives.
- Quelle est l’origine de l’auxine, principalement de l’ABIA, dans les tissus des plantes ? Depuis longtemps
- 388
- p.388 - vue 392/551
-
-
-
- on a constaté que de l’auxine pouvait être extraite de certains champignons et il a été prouvé que cette auxine n’était autre que l’ABIA. On a en même temps établi que le champignon sécrétait davantage d’auxine si on lui fournissait en abondance du tryptophane, c’est-à-dire un acide
- Fig. 4. — Schéma montrant le mécanisme possible de l’influence d’une substance synergiste sur l’action de l’auxine.
- Explications dans le texte.
- (D’après P.-E. Pilet, Les phytohormones de croissance, Masson, Paris).
- aminé très important dans le métabolisme de tous les êtres vivants. Il semble bien établi maintenant que le tryptophane est le précurseur habituel de l’ABIA, et on a pu reconstituer plusieurs cycles chimiques qui peuvent le transformer en auxine.
- Physiologie de l’auxine
- Quant à la façon dont l’auxine déclenche l’élongation des cellules, elle paraît extrêmement complexe. Elle agit d’abord incontestablement sur les membranes des cellules, peut-être en provoquant une certaine dissociation des fibres et, par là, leur extension, mais le mécanisme de cette action est controversé. Pendant longtemps on a cru en tout cas que les auxines n’agissaient que sur la taille des cellules. On sait maintenant qu’elles agissent aussi sur leur division et par conséquent sur l’activité du noyau cellulaire. On a constaté qu’une application de substances de croissance est immédiatement suivie d’une augmentation appréciable de la concentration des acides nucléiques, dont on sait qu’ils règlent tout le métabolisme cellulaire et notamment la synthèse des protéines, ainsi que la division des cellules. Les auxines agissent encore, plus ou moins directement, sur l’absorption de l’eau. Elles accéléreraient d’abord les processus respiratoires, puis l’absorption des sels, et la concentration des sels dans la cellule provoquerait alors une absorption d’eau, augmentant par là le volume de la cellule.
- Ainsi que Went le soupçonnait déjà il y a vingt-cinq ans, le vieillissement d’une plante peut être mis en relation avec une raréfaction des auxines dans les tissus, ou avec une augmentation de substances antagonistes. Ce qui est vrai de la plante entière l’est également de ses diverses parties.
- Ainsi on a montré que la chute des feuilles est en relation avec la raréfaction de l’auxine à l’automne. Cependant, si un traitement à l’auxine, loin du point d’attache de la feuille, retarde la chute, cette chute est au contraire accélérée si l’application d’auxine se fait dans la région même du point d’attache. On peut aussi, par une application convenable d’auxine, retarder la chute des fruits.
- Les auxines sont à la base de certaines manifestations pathologiques. Certaines tumeurs végétales, causées par des bactéries, sont dues au fait que ces bactéries produisent des substances de croissance, auxines ou corps analogues. Un excès d’auxine peut produire diverses malformations, notamment dans les fleurs. Expérimentalement on a pu, en employant des substances de croissance, transformer des pièces florales en feuilles, ce qui est d’ailleurs considéré comme une preuve nouvelle que les pièces florales sont des feuilles transformées.
- *
- * *
- Les auxines naturelles et surtout les substances de croissance obtenues par synthèse ont déjà permis des applications diverses en agriculture. C’est ainsi qu’on peut, par exemple, provoquer la formation de racines pour faciliter le bouturage. Mais l’application la plus courante en est faite pour le désherbage, car l’action de telle ou telle substance est très différente selon les espèces végétales. On sait par exemple que l’on détruit ainsi facilement les plantes indésirables des champs de céréales sans détruire les céréales elles-mêmes. Cependant l’utilisation de ces substances est toujours délicat et l’abus pourrait entraîner des conséquences que l’on n’a pas souhaitées.
- Les auxines, ou phytohormones de croissance, jouent donc dans la vie de la plante un rôle considérable et complexe, qui dispense peut-être d’imaginer l’existence d’autres hormones plus spécialisées, car selon les circonstances et le point où s’exerce leur action, elles ont des effets extrêmement différents, stimulateurs ou inhibiteurs. Il ne faut d’ailleurs pas s’en étonner, car ce qui distingue sans doute le plus la plante supérieure de l’animal, c’est qu’elle ne constitue pas à proprement parler un individu, un système clos, où des équilibres complexes doivent être rigoureusement maintenus, mais un système beaucoup plus ouvert qui s’ajoute constamment des parties nouvelles toujours de même nature, et on peut dire par conséquent que la principale activité de la plante, la seule même, c’est de croître.
- Jean Grive.
- Pour Inefficacité des herbicides
- Les services de recherche du département de l’agriculture des Etats-Unis ont constaté qu’un produit chimique, l’éthyl-N-N-bis-n-propyl-thiocarbamate améliore l’efficacité des herbicides destinés à la suppression des mauvaises herbes, en réduisant la formation de la couche de cire qui se crée habituellement à la surface des feuilles et empêche l’absorption de l’herbicide. Dans le cas du chou, choisi pour les expériences préliminaires en raison de l’épaisse couche de cire qui en recouvre les feuilles, la formation de cette cire s’est trouvée réduite de 90 pour ïoo. Toutefois, le nouveau produit n’agit que lorsqu’il est appliqué sur les feuilles encore en bourgeon et perd son efficacité lorsque les feuilles sont totalement formées avant le traitement. (U.S J.S.).
- 389
- p.389 - vue 393/551
-
-
-
- L’arganeraie du Sud Marocain
- relique du tertiaire
- et providence des populations par Paul Wagret
- Curieux arbre que cet arganier, à peu près ignoré du grand public, et dont l’étude est réservée aux botanistes et aux forestiers S Providence en vérité pour les populations du Sud Marocain, auxquelles il fournit, directement ou indirectement, une bonne part de leurs moyens d’existence.
- L’arganier {Argania spinosa) appartient à une famille tropicale, celle des Sapotacées. Mais il n’est plus connu qu’au Maroc, où il constitue une sorte de spécimen résiduel de la flore de l’ère tertiaire, ce que les botanistes appellent « enclave macaronésienne ».
- Encore son aire d’extension actuelle semble-t-elle s’être considérablement rétrécie au sein même de l’Empire chérifien : on trouve en effet des reliques d’arganeraies en quelques endroits isolés tels que l’Oued Grou (Meseta marocaine) et la basse-Moulouya (Beni-Snassen, à l’Ouest d’Oudjda), ou encore en lisière du Sahara, dans la région du Draa. L’évaluation de l’aire actuelle d’extension de l’arganier est comprise entre 600 000 et 700 000 ha ; Emberger donne en 1938 le chiffre de 650 000, tandis que Métro, dans le récent Atlas du Maroc, avance celui de 700 000, ce qui représente un sixième de la superficie forestière du pays.
- Quoi qu’il en soit, le domaine de l’arganier, c’est par excellence la région du Sous, entre Haut-Atlas au Nord et Anti-Atlas au Sud ; on trouve également des arganeraies étendues dans la région de Goulimime et Bou-Izakarn, ainsi que le long de la côte entre Agadir et Mogador (fig. 1) ; quelques taches isolées se rencontrent dans l’arrière-pays de Mogador et en direction de Safi.
- L’arganier apparaît comme un arbre de belle taille pouvant atteindre 8 et 10 mètres de haut, à la cîme parfois largement étalée (fig. 2). Son tronc court est souvent multiple et tourmenté, ses racines plongent très profondément dans le sol. La longévité de l’arbre est discutée, car son bois ne possède pas de cernes annuels nettement caractérisés : on estime qu’elle va normalement de 100 à 200 ans. En tout cas, il repousse de souche très vigoureusement, comme en témoignent les rejets observés après une coupe (et en l’absence de troupeaux).
- Le caractère polymorphe de l’arganier est très accusé : on trouve des formes extrêmement variées selon les secteurs et le stade de développement de l’arbre. Tantôt il présente l’apparence majestueuse d’un chêne, tantôt son tronc noueux et ses multiples rameaux le font ressembler à un gros olivier. Sur le littoral, il se couche sous l’effet du vent de mer et pourrait ressembler, vu de loin, à un buisson de tamaris. Sous la dent des chèvres il peut se « modeler » et présenter des formes diverses. Une variété curieuse d’arga-nier est un type d’arbre « pleureur » évoquant le saule
- pleureur de nos régions d’Europe, et beaucoup moins épineux que l’arganier normal.
- Comme l’indique en effet son nom scientifique Argania spinosa, l’arganier possède un feuillage généralement épineux ; ses feuilles sont « subpersistantes », pour reprendre l’expression d’Emberger, c’est-à-dire que le plus souvent elles tombent au moment de l’apparition des nouveaux bourgeons, mais qu’en certaines circonstances elles peuvent échapper à ce cycle : par exemple en cas de forte sécheresse, la défense contre l’évaporation se traduit par une défoliation complète. « L’extension de ce phénomène varie suivant la station et la saison, mais elle peut être générale : l’été 1945, été particulièrement chaud qui avait
- Fig. 1. — L’atganeraie du Sud Marocain.
- (D’après Emberger et Métro ('Atlas du Maroc).
- vpn Aire d'extension AÙJ (je l’arganier
- mmm Peuplements principaux
- (?) Tizrarine
- f (N) Mekhnafa
- Marrakech „ A T 1 A S
- 100 Km
- SAHARA
- 10° 0.
- 390
- p.390 - vue 394/551
-
-
-
- succédé à un printemps exceptionnellement sec, l’arga-neraie était entièrement défeuillée, mis à part certains arbres dans de rares fonds de vallée où se maintenait un peu d’humidité. L’on avait l’impression curieuse, en plein été marocain, de traverser une forêt aussi dénudée qu’une forêt feuillue de l’Est de la France en hiver. » (J.P. Challot).
- Ce feuillage épineux permet à l’arganier de résister au climat particulièrement aride du Sud-Marocain, où la moyenne annuelle de pluviosité se tient au-dessous de 400 mm (Tiznit 154). Des peuplements d’arganiers couvrent les pentes des Atlas jusqu’aux environs de 1 500 m, c’est-à-dire jusqu’à la limite inférieure approximative des neiges d’hiver. Rappelons que l’Anti-Atlas s’élève jusqu’à 2 500 m et lè Haut-Atlas jusqu’à plus de 4 000.
- La nature du sol semble n’avoir aucune influence sur l’arbre, qui pousse aussi bien en terrain calcaire que cristallin ou volcanique. Sans doute l’influence climatique est-elle essentielle, et explique-t-elle que l’arganier se soit finalement cantonné dans la région la plus favorable. Mais il faut ajouter l’influence « anthropique » : l’arganier a reculé devant les abus des hommes et de leurs troupeaux. La surpâture a entraîné la dégradation de la forêt et l’érosion des sols devenus squelettiques.
- La forêt d’arganiers se présente en effet à l’heure actuelle comme une forêt très claire, ressemblant davantage à un bois d’oliviers qu’à la forêt classique dont nous gardons l’image en pays tempéré. Jamais les cimes ne se rejoignent et ne forment un couvert continu.
- Il est d’autre part exceptionnel de trouver une arganeraie intacte, à l’état naturel, en raison de la provende qu’y
- Fig.
- Chèvres au pacage en forêt de Nekhnafa.
- p.391 - vue 395/551
-
-
-
- trouvent les caprins, ovins et camélidés... Le plus souvent il s’agit d’une formation dégradée, comportant des arga-niers à différents stades de développement, mais tous abroutis par les animaux (fig. 4) : cas en particulier des pentes trop fortes, où il ne serait pas possible de cultiver des champs, même en terrasses.
- Ailleurs on rencontre une arganeraie cultivée, où les arbres s’espacent au milieu des terres labourées et ensemencées (en orge, le plus fréquemment). Par ses racines, par son rôle de coupe-vent, l’arganier protège le sol contre l’érosion pluviale ou éolienne.
- De plus son feuillage condense la nuit l’humidité venue de la mer ; il n’est pas rare de voir au matin des arganiers dégouttants de rosée. « Toute une végétation, herbacée et même buissonnante, profite de cette aubaine... D’autres plantes peuvent croître, des animaux peuvent creuser leurs terriers dans le sol ameubli : petits rongeurs, lézards, serpents. Lorsque le pâturage n’est pas intensif, le couvert épais des buissons peut donner asile à la grande faune : sangliers, panthères même...» (M.C. Saint-Girons).
- Fig. 4. — Chèvres broutant dans une arganeraie du Sous.
- Le rôle économique de l’arganier est considérable : il constitue la principale ressource, avec la culture sèche des céréales, de populations berbères du Sous, les Chleuh.
- Le fruit de l’arganier, la noix d’argan, est une sorte de baie verdâtre à la forme variable, ressemblant à l’olive en un peu plus gros. Par écrasement de l’amande (généralement opération effectuée par les femmes, à l’aide de pierres) contenue dans le noyau, on prépare une huile comestible très fruitée dont le goût se rapproche de l’huile de noix. Les Chleuh sont très friands de cette huile et la font venir de leur tribu, lorsque la recherche du travail les a conduits ailleurs : aux mines de Zellidja, aux exploitations de phosphate de Kouribga, à Casablanca, en France même.
- Il ne saurait être question de préparer en grand une huile comme l’huile d’argan : le rendement en effet est extrêmement faible et interdit toute commercialisation au stade industriel. On estime que 100 kg de noix d’argan donnent 5 o kg de fruits séchés (au soleil),, et après dépulpage seulement 25 kg de noyaux dont on ne retire que 3 kg d’amandes; en fin de compte on obtient un kg d’huile, ou à peu près.
- Certes il faut compter les sous-produits dont le rôle n’est pas négligeable : la pulpe et les tourteaux résiduels sont utilisés pour la nourriture du bétail. Mais la fabrication ne peut être que familiale, car une dizaine d’heures de travail total sont nécessaires pour l’obtention d’un seul kilogramme d’huile. D’ailleurs la préparation ne se fait qu’au fur et à mesure des besoins.
- Détail pittoresque : afin de récupérer les fruits mangés par les chèvres, les indigènes vont chercher les noyaux dans les déjections de rumination. Mais ce procédé ne porte que sur une faible partie de la récolte.
- Outre cette utilisation alimentaire directe par les hommes sous la forme d’huile de noix d’argan, l’arganier procure aux chèvres, moutons, ânes, chameaux, un fourrage précieux. La vision est fréquente dans le Sous de troupeaux de chèvres pâturant dans l’arganeraie, souvent grimpées dans les arbres : l’arganier a ainsi mérité le surnom de « pâturage suspendu» et il n’est pas contestable qu’il fournisse aux troupeaux, essentiellement caprins, la plus grande part de leur ration alimentaire. On note même (Challot) un curieux étagement de l’abroutissement. : les moutons se contentent des rejets et basses branches, les chameaux tondent le bas des cîmes, tandis que les chèvres, parfois avec l’aide des bergers d’ailleurs, grimpent dans la ramure.
- Les « parasites » de l’arganier appartiennent aussi au monde des insectes, telle la mouche du fruit Ceratitis
- 392
- p.392 - vue 396/551
-
-
-
- capitata qui cause parfois de véritables ravages. Mais, pas plus que des animaux de plus grande taille, l’espèce ne paraît en souffrir jusqu’à en mourir.
- Un dernier usage relatif à l’arganier concerne l’utilisation de son bois comme bois de chauffage ou pour la préparation du charbon de bois. A vrai dire, cet usage a surtout été répandu au moment des deux guerres mondiales qui ont entraîné une pénurie grave de bois ; il subsiste toutefois grâce aux coupes effectuées parmi les forêts d’arga-niers déjà âgés.
- *
- * *
- Le caractère particulier de l’utilisation de l’arganeraie, son rôle économique et pastoral expliquent le statut original dont elle jouit au point de vue juridique et forestier.
- Aux débuts du protectorat, des discussions s’étaient élevées entre administrateurs et représentants des Eaux et Forêts. Les premiers voyaient dans l’arganier une sorte d’arbre fruitier, propriété privée ou collective des tribus ; ce raisonnement était renforcé par l’aspect clairsemé des arganeraies, les faisant assimiler à des vergers, et par le rôle important des fruits dans l’utilisation de l’arbre.
- Cette conception prévalut dans les premiers temps de l’administration française ; elle rend compte en particulier des importantes coupes effectuées dans les arganeraies de la région de Mogador pendant la crise de combustible qui sévit dans les villes marocaines en 1914-1918 : bien des indigènes vendaient les fonds dont ils se croyaient propriétaires à des marchands de bois et de charbon de bois. En quelques années, les troupeaux achevèrent de ruiner l’ancienne forêt en dévorant tous les rejets.
- La thèse des forestiers, selon laquelle les indigènes ne jouissaient que d’un droit d’usage, certes étendu, mais
- Une pendule
- Les horlogers de la Salle des Armures du Kremlin, à Moscou, sont parvenus à remettre en état une pendule d’un modèle unique au monde, qui marche, au sens propre du terme, et peut parcourir 12 m par jour, nous apprend le Bureau soviétique d’information. La pendule marchait jadis dans les appartements du tsar, émerveillant ses invités.
- Baptisée « Bacchus », cette pendule représente le dieu du vin, allongé, ivre, et sur la tête duquel une poule est venue couver ses œufs. Il sommeille dans son char attelé à un éléphant sous la protection de ses gardes. Tout dort... soudain, lorsque vient une heure, on entend sonner une cloche; les gardes se réveillent et se tournent,
- très différent d’un droit de propriété, se fondait sur le fait que l’arganier était bel et bien une production végétale spontanée ; l’homme n’intervenant ni pour semer ni pour greffer ni pour soigner l’arbre.
- C’est seulement après de longues années, et grâce à l’intervention du maréchal Lyautey, que la thèse des Eaux et Forêts finit par prévaloir ; le dahir du 4 mars 1925 réglementa la protection et la délimitation des forêts d’arga-niers, en les rattachant implicitement au domaine public mais en maintenant et en définissant les droits d’usufruit accordés aux tribus. Celles-ci conservaient leurs droits coutumiers relatifs au pacage des bêtes, à la récolte des fruits (mais sans gaulage), et à l’utilisation du sol ; mais elles n’avaient pas le droit de coupe, ni le droit de céder les récoltes à des étrangers non bénéficiaires des droits d’usage traditionnels. Enfin, en cas de coupe par l’Etat, celui-ci ristournerait aux usagers un cinquième du produit de la vente du bois (c’est ce qui a eu lieu pendant la guerre de 1939-45, où une nouvelle crise d’approvisionnement en combustible a amené la coupe d’arganeraies anciennes ; les rejets ont pris avec vigueur, et la régénération, en quelque dix années, a donné naissance à une forêt plus dense qu’avant l’opération).
- A condition que soit maintenue l’œuvre de protection ainsi entreprise et défendue depuis 3 5 ans, l’arganeraie marocaine conservera sa fonction précieuse de providence des populations locales.
- Paul Wagret,
- Nous devons des remerciements à M. André, de l’Institut scientifique marocain, et à M. Claudot, de la Station de Recherches forestières de Rabat. M. Claudot nous a aimablement communiqué les photos des figures 2 et 3 ; la photo de la figure 4 est de l’auteur de l’article.
- qui ... marche
- scrutant l’espace environnant. Le cocher lève son fouet, les yeux de l’éléphant tournent dans leurs orbites et il se met à avancer. Bacchus se réveille, il ouvre lentement les paupières et porte une coupe à ses lèvres; mécontente, la poule lui donne un coup de bec sur le front; elle est inquiète pour son nid.
- La pendule « marchante » fut confectionnée voici trois siècles par un horloger anonyme. Depuis 200 ans, elle ne fonctionnait plus. Certaines pièces étaient brisées, d’autres avaient souffert de la rouille, et les réparateurs reculaient devant la complexité du mécanisme. Elle est désormais restaurée grâce au travail délicat de trois horlogers qui remplacèrent les pièces défaillantes.
- Cratère présumé de météorite en Sibérie méridionale
- La revue soviétique Priroda (mars 1962) signale l’existence en Sibérie méridionale, dans la région des monts Saïansk, d’une cuvette qui pourrait avoir été creusée par la chute d’une météorite. Cette dépression affecte en effet la forme d’une ellipse dont le grand axe, orienté nord-sud, atteint environ 400 m, le petit axe étant de l’ordre de 250 m.
- Le centre est occupé par un petit lac, également elliptique, de 45 X 25 m. Le reste du terrain est couvert par une forêt de bouleaux. Un renflement qui circonscrit ce terrain présente, dans les parties
- où il s’est bien conservé, une pente intérieure de 30° et une pente extérieure de 12 à 150.
- On retrouve donc la forme générale constatée pour la plupart des cratères de météorites (voir La Nature-Science Progrès, septembre 1961, p. 381-389). Des recherches sont en cours en vue de confirmer cette interprétation. Jusqu’ici il n’est fait mention d’aucun débris météo-ritique non plus que de récits ou de légendes locales faisant allusion à la chute d’un bolide. On estime cependant que cette chute aurait eu lieu dans une période relativement récente.
- 393
- p.393 - vue 397/551
-
-
-
- L’ACTUALITÉ INSTRUMENTALE
- Coulomètre automatique
- Fig. I. — Le coulomètre automatique modèle 85 A de la firme Electronic Instruments Limited.
- Les dimensions du meuble sont; 188 cm de hauteur, 61 cm de largeur, 54 cm de profondeur. Poids total : 204 kg.
- (Photo Layton, aimablement communiquée par P Ambassade de Grande-Bretagne).
- La firme anglaise Electronic Instruments Limited propose depuis peu un coulomètre automatique qui n’a pas, à notre connaissance, d’équivalent tant en France que dans les autres pays. Conçu sous l’égide de la Commission britannique de l’Energie atomique par le Donnreay Experimental Reactor Establishment, il s’agit en réalité d’un appareil qui permet de réaliser de nombreux dosages en utilisant des méthodes d’analyse électrochimique variées.
- La première application est le dosage coulométrique selon la méthode de Booman que nous allons rappeler maintenant. Supposons, par exemple, que l’on veuille doser une solution de fer ferreux. On sait que le Fer (II) est oxydable en fer ferrique ou Fer (III) et l’on peut tracer la courbe intensité-potentiel correspondant à la réaction électrochimique :
- Fe2+ — e -> Fe3+
- A tout potentiel compris entre E0 et Ei on obtient une oxydation complète des ions Fe2f. Par contre, à un potentiel supérieur à E[ on réalise à la fois l’oxydation des ions ferreux et l’oxydation de l’eau : le rendement en courant n’est plus de 100 pour 100 pour Fe2+. Afin de s’affranchir de ce phénomène, l’électrolyse est réalisée d’abord avec un courant constant de valeur iQ. Le potentiel de l’anode est alors Au fur et à mesure de la disparition des ions Fe2+, la hauteur du palier de la courbe intensité-potentiel diminue; lorsque cette hauteur devient égale à 4, le potentiel de l’anode prend la valeur E[. C’est alors que le circuit détecteur de l’appareil intervient. Dès que le potentiel de l’anode prend la valeur JB/, le courant d’électrolyse est réduit de moitié et ainsi de suite jusqu’à ce qu’à nouveau le potentiel de l’anode prenne la valeur Eh ce qui entraîne une nouvelle diminution de moitié du courant d’électrolyse. Ce processus se poursuit jusqu’à ce que l’électrolyse soit terminée. L’intégration de la quantité d’électricité utilisée pour réduire le fer ferreux est
- Fig. 2. — Courbe intensité-potentiel relative à l’oxydation du Fer (II).
- Explications dans le texte.
- 394
- p.394 - vue 398/551
-
-
-
- cssez simple puisque le courant est constant au cours de chacune des étapes de l’électrolyse.
- Cette méthode présente des avantages certains : l’intégration de la quantité d’électricité est beaucoup plus précise qu’en utilisant la coulométrie traditionnelle à potentiel constant dans laquelle l’intensité du courant décroît de manière exponentielle. Par ailleurs, on dispose encore dans cette méthode de la sélectivité due au choix du potentiel qui permet de réaliser la réaction recherchée même en présence d’autres corps. La sensibilité reste évidemment limitée par l’importance et la reproductibilité du courant résiduel.
- En dehors des circuits fondamentaux, l’appareil comprend un certain nombre de dispositifs qui rendent son utilisation plus commode : on peut, par exemple, préoxyder ou pré-réduire la solution en utilisant la technique traditionnelle à potentiel constant pour éliminer les ions gênants. Le démarrage de l’analyse peut ne commencer qu’après le temps nécessaire au dégazage de la solution. On peut aussi enregistrer le potentiel de l’électrode active au cours de la coulométrie, etc.
- Colonne à distiller
- Parmi les méthodes de séparation ou de purification, la distillation occupe une place de choix. Toutefois, l’efficacité de la méthode dépend pour une grande part de la conception de l’appareil utilisé. Si une simple colonne à pointes ou à remplissage permet de séparer des corps dont les points d’ébullition sont notablement différents, on est obligé de s’adresser à des colonnes spéciales dès l’instant où l’on a affaire à des corps de points d’ébullition très voisins. Les colonnes à bande tournante en sont un exemple et il nous a paru intéressant de décrire ici la colonne de Cadiot maintenant fabriquée en série par la Société Prolabo.
- Le corps de la colonne est formé d’un tube fisse de 50 cm de longueur entouré d’une double enveloppe isolante et surmonté d’un réfrigérant à reflux. La colonne est traversée par un ruban d’acier inoxydable en rotation rapide. La phase liquide, finement pulvérisée au contact de la bande tournante, présente avec la phase vapeur une grande surface d’échange constamment renouvelée. Par suite, l’efficacité est environ deux fois plus grande que celle d’une colonne de même hauteur et de 35 mm de diamètre garnie d’anneaux de verre. Par ailleurs, la quantité totale de liquide retenue dans la colonne est très réduite : il est donc possible de travailler sur de très petits échantillons (10 ml par exemple) sans en perdre beaucoup, ce qui n’est pas le cas avec les colonnes traditionnelles.
- La figure 3 représente schématiquement la colonne de Cadiot. A la base, on distingue un ballon à fond pointu qui présente l’intérêt de pouvoir chauffer avec régularité de faibles volumes de liquide. Le tube porte-capillaire est utilisé pour les travaux sous vide. Le liquide condensé dans le réfrigérant, s’écoule vers le robinet EL 1 ; en ouvrant plus ou moins ce robinet, on règle le taux de reflux dans la colonne. Le liquide recueilli en R 1 est dirigé vers un répartiteur à quatre bras monté sur rodage. En faisant tourner ce répartiteur autour de son rodage, on présente sous le
- Seize intensités de courant sont utilisables et couvrent la gamme de 512 mA à 15 625 pA. On peut évidemment faire commencer l’électrolyse à n’importe quelle valeur choisie dans cette gamme. Enfin, l’appareil est entièrement automatique en ce sens qu’il suffit, une fois déterminées les conditions du dosage, d’afficher les valeurs correspondantes. L’appareil effectue alors l’analyse sans surveillance aucune et sé contente de prévenir lorsqu’elle est terminée. Le nombre de coulombs est lu directement sur le tableau.
- En raison de sa conception même, l’appareil peut être utilisé pour mettre en œuvre les nombreuses méthodes électrochimiques d’analyse qui s’offrent au chimiste : coulométrie directe ou indirecte, électrogravimétrie, séparations ou préparations par électrolyse à potentiel contrôlé, titrages chronopotentiométriques même avec des temps de transition de 100 millisecondes au moins en utilisant une technique oscillographique.
- Par la méthode de Booman, la précision que l’on peut espérer est de 0,2 à 0,6 pour 100. Cela a été vérifié lors du dosage de nombreux produits dont l’uranium, le cuivre, le cadmium, le fer, etc.
- à bande tournante
- Moteur
- Garniture d'étanchéité
- Prise de vide
- Atmosphère
- Thermomètre
- Répartiteur à 4 bras
- Colonne
- Tube gradué
- Thermomètre
- Porte capillaire.
- Tube porte-thermomètre
- Ballon
- Fig. j. — Colonne à distiller à bande tournante de Cadiot. Explications dans le texte.
- 395
- p.395 - vue 399/551
-
-
-
- MULTIMESUREUR E.R.I.C
- appareil universel à hautes performances pour laboratoires
- Galvanomètre de 165, épreuve des surcharges.
- CARACTÉRISTIQUES DE BASE :
- Résistance d'entrée : loi-* rr.
- Courant-grille: 10-13A Dérive du zéro :
- 15 mV par 10 heures Précision : 1 à 2 % classe 0,5. - Robustesse à toute
- MESURE :
- directement ou par adjonction d'organes de référence : e : 0,5 mV â 35 kV r : 20 Q, à 1()12 D,
- i : 10-î à 10-ii A c : 10 pF à 10.000 pF
- q : 10 pico coulombs à 10 mC Fluctuations de tension : AV = 1 V/1.000 V Champs : depuis 1 œrsted
- Tensions : pièzo-électriques; électro-statiques ; d'hystérésis, de corrosion, pH, rH.
- Intègre au sens mathématique du terme depuis 1 seconde à 60 minutes.
- Documentation et démonstrations sur demande
- es Fournisseur de 1.900 laboratoires T français et étrangers
- ÏEMOUZY.
- FONDE EN 1915
- 63 RUE DE CHARENTONr PARIS lî» DID. OT-74
- ABSORPTIOMÈTRE
- (PHOTO-COLORIMÈTRE)
- “ SPEKKER-HILGER ”
- — Pour les dosages colorimétriques rapides et précis.
- — S’emploie également pour les mesures opacimé-
- triques et néphélométriques et, par l’adjonction d’un dispositif auxiliaire, pour la fluorimétrie.
- Éts F. C. DANNATT
- 198, Rue Saint-Jacques, PARIS 5e
- —
- Transformez votre Microscope en un
- MICROSCOPE INTERFËREINTIEL
- pour la mesure et le contrôle des Etats de Surface
- à l'aide de
- l OBJECTIF INTERFËREINTIEL DE WATSON
- Applications : Métaux, Semiconducteurs,
- Peintures, etc.
- LES PROCÉDÉS MARCEL LQCQUIN
- 20, Avenue Rapp - PARIS 7* - 1NV. 96-53
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'Ëtat — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Pari$-7e
- Documentation : 5, quai aux Fleurs, Parîs-4e — ODE 54-83
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d'Etat. Brevets de Techniciens d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir Section d'enseignement " s domicile "
- (Joindre timbre pour notice)
- 'WÊÊÊÊÊÊÊÊÊÊÊÊKÊÊÊiÊÊÊÊÊÊÊÊÊÊ^IÊIÊÊÊÊÊÊÊiÊÊÊÊÊKÊÊÊÊÊÊÊÊÊtÊÊIÊÊÊÊÊM
- DICTIONNAIRES POLYGLOTTES ELSEVIER
- DICTIONNAIRE DE LA MESURE, DU CALCUL
- ET
- DU RÉGLAGE ÉLECTRONIQUES i
- j
- en six langues : anglais-américain, français, s espagnol, italien, hollandais, allemand j
- PRÉPARÉ ET CLASSÉ D'APRÈS L'ORDRE ALPHABÉTIQUE |
- DES MOTS ANGLAIS
- PAR |
- W.E. CLASON !
- |
- VIII-848 pages I6 x 23. 1961. Relié toile sous jaquette. 105 NF ji
- |
- En vente dans toutes les bonnes librairies et chez |
- Éditeur, 92, rue Bonaparte, Paris-6®, DAN 99-15 ij
- 396
- p.396 - vue 400/551
-
-
-
- tube d’écoulement l’un ou l’autre des quatre tubes récepteurs gradués montés sur rodages eux aussi.
- La colonne peut fonctionner sous pression réduite, jusqu’à 0,1 mm de mercure. A cet effet, le haut du réfrigérant est relié à la prise de vide par un robinet K. 3. La même canalisation est branchée sur le répartiteur par l’intermédiaire d’un robinet à deux voies qui est destiné à relier le répartiteur soit avec l’atmosphère, soit avec la prise de vide. On peut ainsi isoler et mettre en communication avec l’atmosphère le répartiteur sans casser le vide dans la colonne, pour procéder par exemple au démontage et à l’échange des tubes récepteurs. Par ailleurs, l’étanchéité au passage de la bande est assurée par un capillaire que traverse le fil d’acier tenant le ruban. Le haut du capillaire est évasé en entonnoir pour recevoir une petite quantité de graisse. L’interstice entre le fil et le capillaire est assez petit pour que la pénétration de la graisse soit pratiquement
- Les cours scientifiques d’été de l’O.T.A.N. pour 1963
- Nous avons reçu de la Division des Affaires scientifiques de l’O.T.A.N. le communiqué suivant :
- Parmi les programmes scientifiques dont l’O.T.A.N. assure le financement figurent des cours organisés pendant la saison d’été, suivant plusieurs sessions successives d’une durée de trois semaines environ. Ces cours traitent de sujets scientifiques à un niveau élevé, au stade de la recherche la plus avancée; les professeurs comme les élèves proviennent de différents pays. Les subventions de l’O.T.A.N. peuvent couvrir aussi bien les dépenses administratives de ces écoles que la publication de rapports scientifiques sur les sujets traités dans les cours, et les dépenses occasionnées aux visiteurs étrangers pour venir assister aux cours. Aucune discipline scientifique n’est exclue dans les programmes qui peuvent être subventionnés, parmi lesquels nous pouvons citer les mathématiques, l’astronomie, la physique, la chimie, la biologie, etc. Les écoles sont équipées pour permettre non seulement aux professeurs d’organiser des conférences ou de diriger des discussions, mais aussi des travaux pratiques.
- Le Programme, qui subventionne cette année vingt-sept cours, continuera en 1963 à condition qu’il soit confirmé par les autorités appropriées.
- Les personnes qui s’intéressent à l’organisation de tels cours et désirent une aide financière de l’O.T.A.N. sont priées de s’adresser, aussitôt que possible et de toute façon avant le Ier décembre 1962, à la Division des Affaires Scientifiques, O.T.A.N., place eu Maréchal-de-Lattre-de-Tassigny, Paris (16e).
- Verre collé pour remplacer le mica
- On connaît le rôle important joué par le mica dans différentes branches de l’industrie en raison de ses excellentes propriétés isolantes jointes au fait qu’on peut le cliver en lames très minces et cependant assez solides. Mais les ressources mondiales de mica sont loin d’être suffisantes en raison des besoins croissants de la technique de sorte que le prix des pièces en mica est souvent très élevé. Des chercheurs soviétiques seraient parvenus à le remplacer de façon satisfaisante par du verre. Ce dernier n’était pas utilisé pour l’instant en raison de sa fragilité, alors que le mica possède une certaine souplesse. La technique utilisée a consisté à coller ensemble, au moyen d’une laque spéciale, de très minces feuilles de verre jusqu’à obtenir une épaisseur de quelques microns. Le nouveau matériau aurait des propriétés isolantes quatre fois supérieures à celles du mica tandis que son prix serait cinq fois moins élevé. (Bulletin soviétique d’information).
- nulle. Cette garniture simple est étanche sous pression réduite jusqu’à 0,1 mm de mercure.
- Enfin, disons que la bande tournante est entraînée par un moteur électrique synchrone tournant à 2 800 tr/mn. On a montré en effet que des vitesses supérieures ne procuraient pas de gain appréciable en efficacité.
- Outre la haute efficacité de cette colonne et le fait qu’elle puisse travailler avec de petits échantillons de substance, la perte de charge est peu élevée. La différence des pressions régnant à l’entrée et à la sortie est de l’ordre de 5 à 10 mm d’eau, alors qu’on rencontre couramment des pertes de charge de 15 à 30 mm d’eau sur les colonnes à remplissage. Enfin, l’appareil est peu encombrant : sa hauteur totale est de 85 cm, sa largeur de 20 cm. Il trouve donc sa place facilement sur une paillasse de laboratoire. De plus son montage et sa mise en œuvre sont simples et rapides. R. R.
- Supraconducteurs et électroaimants
- De nombreux laboratoires de par le monde s’intéressent activement à la recherche de nouveaux matériaux supraconducteurs. On a mis au point récemment des alliages qui restent supraconducteurs même dans des champs magnétiques élevés. Ces alliages ouvrent la voie vers la construction d’électroaimants qui permettront d’obtenir des champs très élevés (100 000 gauss et plus) presque sans consommer d’énergie. Dans un électroaimant ordinaire, c’est en effet la résistance des bobinages qui en dissipe la plus grande partie. Une fois lancé dans un bobinage fait avec les nouveaux alliages, le courant électrique qui crée le champ y circule indéfiniment tant que la température est suffisamment basse pour que le métal reste supraconducteur. En utilisant un alliage de niobium et d’étain, un champ de 60 000 gauss a pu être obtenu dans une bobine de quelques centimètres de section, refroidie à quelques degrés au-dessus du zéro absolu.
- Poursuivant leurs recherches de nouveaux matériaux, les chercheurs des Bell Laboratories ont pu montrer que le molybdène devenait lui aussi supraconducteur vers la température de 1 degré absolu. C’est faute de disposer de molybdène suffisamment pur qu’on ne s’en était pas aperçu jusqu’à présent.'Cette découverte ouvre de nouvelles perspectives aux théories de la supraconductivité et permet d’espérer que de nouveaux et intéressants matériaux pourront bientôt, être utilisés dans les applications.
- Chercheurs français dans les Centres d’études nucléaires soviétiques
- A la suite d’un accord intervenu entre le Commissariat à l’Energie atomique et des responsables russes, trois spécialistes français vont se rendre en Union soviétique pour y effectuer des stages de six mois : l’un d’entre eux participera aux recherches sur la fusion thermonucléaire contrôlée au centre de Soukoumi, le second participera aux travaux menés grâce à la pile-piscine du Centre de Tiflis, tandis que le troisième travaillera auprès du Cyclotron du Centre de Kiev.
- Méthylacétylène pour chalumeau
- La Dow Chemical Company vient de lancer sur le marché américain des bouteilles de méthylacétylène stabilisé, destinées à alimenter les chalumeaux utilisés pour découper les métaux. Produit industriellement, ce gaz reviendrait de 15 à 45 pour xoo moins cher que ceux qui sont habituellement employés, comme l’acétylène et le propane, et il permettrait des vitesses de coupe beaucoup plus élevées (30 fois plus grandes qu’avec le propane).
- 397
- p.397 - vue 401/551
-
-
-
- Le Ciel en Octobre 1962
- SOLEIL : du Ier octobre au Ier novembre (à oh) sa déclinaison décroît de — 2°5 5' à — I4°i2' et la durée du jour de 11I139™ à 9h5 5m ; diamètre app. le Ier (à oh) == $z'o",o, le 31 (à 24h) == 32'i6",8. — LUNE : Phases : P. Q. le 6 à 191*55™, P. L. le 13 à 121133™, D. Q. le 20 à 81148™, N. L. le 28 à 131*5™; périgée le 13 à 3b, diamètre app.
- 3 3 '29" ; apogée le 26 à 4I1, diamètre app. 2g/24". — Principales conjonctions : avec Neptune le Ier à 2oh, à 3°29'N; avec Vénus le 2 à cjh, à io°45' N; avec Saturne le 8 à nh, à o°54' N; avec Jupiter le 10 à nh, à o°59' S; avec Mars le 21 à ih, à i°2o' S; avec Uranus le 23 à ioh, à i°47' N; avec Mercure le 26 à zih, à 2°48' N; avec Neptune le 29 à 4b, à 3°23' N. Principales occultations : le 9, de 0 Capricorne (mag. 3,0) immersion à 171120™,7 et émersion à i8h6™,8; le 14, de [jl Balance (mag. 4,4) immersion à 22h6™,3 et émersion à 22^*56™^ ; le 18, de 1110 B. D. -b 190 (mag. 6,0) émersion à 41*40™,! ; le 21, de 0 Cancer (mag. 5,6) émersion à ohig™,2. — PLANÈTES : Mercure, bien visible le matin après le 12, se lève le 24 à 4I140™, soit 11*45™ avant le Soleil', Vénus, encore étoile du soir au début du mois, puis disparaît dans les brumes crépusculaires ; Mars, dans le Cancer, se lève avant 23b, le 16 : mag. 1,0; Jupiter, dans le Verseau, brille encore la majeure partie de la nuit, le 16, diamètre pol. app. 43",o et mag. —2,3 ; Saturne, dans le Capricorne, est visible le soir, le 16, coucher à 23I17™, diamètre pol. app. 15",4, axes de Panneau: 3 8"8' et -f- 13",2, mag. 0,7 ; Uranus, au N-O de 0 Lion, est bien visible le matin, le 16, position : ioh24™ et + io°45', diamètre app. 3"6;
- Neptune, n’est pas observable. — ÉTOILES VARIABLES :
- minima observables CAlgol (2™,2-3™,5) le 8 à 2h,6, le 10 à 23b*,5, le 13 à 2oh,2; minima de Lyre (3™,4-4™,3) le 6 à I9h4, le 19 à I7h7; maxima de S Cêphée (3™,7-4™,6) le 5 à nh,2, le 10 à 20b,o, le 16 à 4b,8, le 21 à 13b,6, le 26 à 22^4; maxima dev) Aigle (3™,7-4™,4) le 5 à 17b,3, le 12 à 2ih,5, le 20 à ih,7, le 27 à 6h,o; maxima de R Lion (5™,4-10™,5) le 20, de R Vierge (6™,2-12™,1) le 31. —TEMPS SIDÉRAL : au méridien de Paris à oh (T. U.) : le Ier : oh46™20s, le 11 : ih25™46s, le 21 : 2h5™ns, le 31 : 2h44™37s.
- Phénomènes intéressants : Surveiller les groupes de taches à la surface du Soleil. — Du 21 au 26, lumière cendrée de la Lune, le matin. — La planète Mercure est à rechercher le matin, à l’œil nu à partir du 12, plus grande élongation le 22 à 2h, à i8°i2' W du Soleil, à la même heure la planète est à o°58' S de l’étoile y Vierge. — Vénus à son plus grand éclat du soir le 8 à 2 2h, mais basse sur l’horizon S-O et se rapproche du Soleil. — Le 9, ne pas manquer l’observation de l’étoile 0 Capricorne, occultée dans la soirée. — Etoiles filantes: Le 9, Draconides, radiant j- Dragon; du 16 au 22, Orionides (maximum le 19), radiant v Orion. — Au début de la nuit on peut encore observer les riches régions de la Voie lactée du Sagittaire au Cygne.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- LES L I V
- Les éclipses, par Paul Couderc, astronome titulaire à l’Observatoire de Paris. 1 vol. 11,5 X 17,5, 128 p., 38 fig. Collection Que sais-je ?. Presses Universitaires de France, Paris, 1961. Prix : 2,50 NF.
- Sur un sujet classique mais qui s’enrichit encore tous les jours, l’érudition et la science de l’auteur, jointes à son grand talent de vulgarisateur, nous valent un petit livre parfait. Les premiers chapitres, après les descriptions préliminaires, expliquent le mécanisme des éclipses, leur rythme semestriel, leur périodicité. Un chapitre est consacré à leur intérêt scientifique, tant dans le passé que dans le présent et l’avenir, un autre à leur histoire d’après les annales humaines. Un tableau des éclipses jusqu’en 1980 incitera les amateurs et les profanes à des observations intéressantes.
- Method of least squares and principles of the theory of observations, par Yu. V. Linnik. Traduit du russe par Regina C. Elandt. i vol. 13,5 x 22, xn-360 p., 12 fig. Pergamon Press Ltd., Oxford, Londres, New York et Paris,
- 1961. Prix, relié : 84 sh.
- La méthode des moindres carrés est largement utilisée dans le traitement des résultats expérimentaux tant en physique qu’en biologie, astronomie, géodésie, etc. L’auteur traite en détail de cette méthode de valeur à la lumière des développements mathématiques récents. Les notions de statistique indispensables à la compréhension de l’ouvrage sont rappelées. Nombreux exemples d’applications numériques.
- Linear Programming, par George F. Hadley. i vcl. 15,5 X 23,5, xiv-520 p., nomb. fig. Addison-Wesley Publishing Company, Reading (Mass.),
- 1962. Prix, relié : 9,75 dollars.
- Parmi les techniques de la recherche opérationnelle, c’est sans conteste la programmation linéaire qui est la plus au point et la plus rigoureuse.
- A condition que l’on puisse définir les contraintes que doit respecter un système par un ensemble d’inéquations et que l’on puisse définir mathématiquement la quantité à maximiser (profil, production ou autre), les techniques de la programmation linéaire donnent une solution quantitative et
- R E S NO
- exacte du problème. On trouvera ici, en plus du traitement classique, une analyse nouvelle des problèmes de transport. Les exemples sont nombreux, pris dans la pratique industrielle et économique. L’ouvrage traite aussi des méthodes de calcul et confient de nombreux problèmes. La lecture de cet ouvrage nécessite des connaissances assez solides d’algèbre linéaire.
- Linear Algebra, par George F. Hadley. i vol. 15,5 X 23,5 290 p., Addison-Wesley Publishing Company, Reading (Mass.), 1961. Prix, relié toile : 6,75 dollars.
- Voici une introduction à l’algèbre linéaire expressément destinée aux économistes et aux chercheurs opérationnels. Ce livre donne toutes les bases nécessaires à une bonne compréhension des techniques de la programmation linéaire. Il n’est certainement pas à conseiller à ceux que l’algèbre linéaire intéresse en tant que branche des mathématiques. Par contre sa conception très
- ------ A NOS LECTEURS -----------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- est à la disposition des lecteurs de LA NATURE - SCIENCE PROGRÈS pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d'une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- U V E A U X
- concrète des espaces vectoriels sera plus facilement assimilée par ceux qui n’y voient qu’un outil de travail. L’ouvrage est du même auteur que le livre de programmation linéaire (voir ci-dessus) de la même collection et lui sert de base mathématique. Les connaissances nécessaires sont réduites : algèbre de niveau secondaire et un peu de géométrie analytique.
- Cours de physique, par Marc Jouguet. Tome I : Chaleur, Thermodynamique, Acoustique, i vol. 16 X 25, 192 p., 58 fig. Eyrolles, Paris, 1961. Prix : 17 NF.
- Leçons professées à l’école nationale des Ponts et Chaussées et à l’Ecole nationale supérieure des Télécommunications. Ce premier tome comprend l’étude de la propagation de la chaleur et l’exposé complet des principes de la thermodynamique avec des considérations détaillées sur les notions de potentiel thermodynamique et d’énergie utilisable. Il expose l’essentiel des théories de la propagation du son, des cordes vibrantes et des résonateurs ainsi que des notions sur les ultrasons. Ouvrage très classique avec parfois une pointe de modernisme, par exemple dans les considérations sur l’hélium liquide ou les applications des ultrasons.
- Etude théorique et pratique de l’état solide,
- par Maurice J. Sinnott. Traduit de l’anglais par Roger Lassaigüe. i vol. 16 X 25, XII-584 p., 238 fig., 41 tableaux. Eyrolles, Paris, 1961. Prix : 82 NF.
- L’ouvrage expose les principes fondamentaux qui expliquent les propriétés des solides et les enseignements pratiques qui en découlent poulie choix des matériaux. Il s’adresse aux étudiants et aux ingénieurs de formations diverses, même à ceux qui n’ont pas une culture mathématique approfondie. Après l’étude de la structure atomique et moléculaire des solides, donnant lieu notamment à un développement important sur les liaisons, l’auteur expose la question des dislocations et la théorie des zones de Brilloin, puis passe systématiquement en revue les propriétés mécaniques, thermiques, électroniques, magnétiques, diélectriques et optiques des solides. Problèmes explicatifs, Bibliographie étendue.
- 398
- p.398 - vue 402/551
-
-
-
- Reports on Progress in Physics. Vol. XXIV
- (1961). 1 vol. 17,5 X 25, 424 p., fig., pl. h. t.
- The Institute of Physics and the Physical
- Society, Londres, 1961.
- Cette collection présente toujours des textes qui font chacun le point d’une question à l’ordre du jour. Le niveau est évidemment fort élevé mais le non-spécialiste peut ainsi relativement facilement se mettre au courant d’un nouveau sujet. Les questions traitées cette année sont les suivantes : théorie de la superconductivité ; décharges à haute intensité dans les gaz; les ondes radioélectriques d’origine cosmique et leur interprétation; les domaines magnétiques; les intensificateurs électroniques d’images ; le ferrimagnétisme; théorie et applications de la matrice de densité ; dynamique des plasmas à haute température.
- Propriétés statistiques du bruit de fond, par
- A. Blanc-Lapierre et B. Pianbono. i vol.
- 16,5 X 24,5, 104 p., 48 fig. Masson, Paris, 1961.
- Prix : zo NF.
- Les deux tiers de cet ouvrage sont consacrés à la théorie mathématique du phénomène tandis que le dernier chapitre est un exemple d’application des théories précédentes à la détection d’un signal dans un bruit. Assez concis, l’ouvrage sera utile aux ingénieurs qui désirent aborder ce problème très important de la physique moderne qu’est le bruit de fond. Toutefois, il nous semble qu’un exemple précis, accompagné d’applications numériques, aurait été le bienvenu pour le physicien qui a un problème concret à résoudre. — R.R.
- Mécanique expérimentale des fluides, par R.
- Comolet. Tome I : Statique et dynamique des
- fluides non visqueux. 1 vol. 16,5 X 24,5, 244 p.,
- 221 fig. Masson, Paris, 1961. Prix, cartonné :
- 38 NF.
- Cet ouvrage, qui rassemble les leçons données par l’auteur à la Faculté des Sciences de Nancy, est principalement destiné aux étudiants préparant les certificats de mécanique des fluides I et II ainsi qu’aux élèves des Ecoles d’ingénieurs. Dans le
- premier tome, l’auteur précise les bases fondamentales de la mécanique des fluides et établit les principales lois relatives à la théorie des fluides parfaits, c’est-à-dire non visqueux. Sans s’attarder à la théorie des écoulements à potentiels, il montre comment les lois classiques dérivent des grands principes de mécanique et de physique. Ouvrage traditionnel donc, mais dont on doit souligner la clarté d’exposition. Les chapitres consacrés aux ondes de choc et aux coups de bélier sont particulièrement bien traités. Le tome II sera consacré à la dynamique des fluides réels et sera donc d’origine beaucoup plus expérimentale.
- Techniques for électron microscopy, édité par Desmond Kay. i vol. 16 x 25, xvm-331 p., nombr. fig. Blackwell Scientific Publications, Oxford, 1961. Prix, relié: 63 sh.
- Ce livre, auquel ont contribué sept spécialistes, rassemble la totalité des techniques très diverses qui ont été développées en microscopie électronique : mise en œuvre des appareils, préparation des échantillons, ombrages, coupes fines, techniques particulières à la métallographie, à la biologie, diffraction électronique, microscope à réflexion, etc. Présentation excellente et nombreuses photographies souvent d’une rare beauté.
- Collection of problems in physical chemistry,
- par Jiri Bares, Cestmir Cerny, Vojtech Fried, Jiri Pick. Traduit du tchèque par Helena Watney. i vol. 15,5 X 23,5, xvni-608 p., 68 fig. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1961. Prix, relié : 70 sh.
- Voici, avec leurs solutions, plusieurs centaines de problèmes de chimie physique. Les domaines suivants sont abordés : structure de l’atome et mécanique quantique, thermodynamique, différents états de la matière, équilibres, électrochimie, cinétique des réactions chimiques, phénomènes de surface et colloïdes, structure moléculaire, etc. L’ouvrage, dont il ne semble pas y avoir d’équivalent en France (tout au moins aussi moderne), devrait servir de base aux étudiants et aux cher-
- cheurs qui s’intéressent aux multiples domaines de la chimie physique.
- Théorie électronique de la catalyse sur les semi-conducteurs, par Th. Wolkenstein. 1 vol. 16,5 X 24,5, 150 p., 75 fig. Masson, Paris, 1961. Prix : 30 NF.
- En dépit du rôle primordial joué par les catalyseurs dans les synthèses de nombreux produits chimiques essentiels, il n’existait pas, il y a encore peu de temps, de théorie satisfaisante des phénomènes catalytiques. Le développement de la théorie électronique de la catalyse a modifié profondément la situation. L’auteur, professeur à l’Université de Moscou, est un des premiers physicochimistes qui aient bâti cette théorie moderne. Invité, à ce titre, par la Faculté des Sciences de Paris, il a fait en i960 un cours très remarqué dans lequel il a exposé, à la lumière de faits expérimentaux variés, les principes fondamentaux de cette théorie intéressant les semi-conducteurs qui constituent la classe la plus importante des catalyseurs. On trouve ici ce cours dont l’intérêt est incontestable pour tous ceux qui s’intéressent au mécanisme des réactions chimiques et aux propriétés des solides. — R.R.
- Les hautes températures, par Jacques La-CHNITT. I vol. 11,5 X 17,5, 128 p., 17 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, 1961. Prix : 2,50 NF.
- Les hautes températures sont envisagées sous différents aspects. Le comportement de la matière sous les températures élevées est tout d’abord décrit. Viennent ensuite les notions qui intéressent plus particulièrement les ingénieurs, à savoir la production des hautes températures, les matériaux réfractaires et différentes applications industrielles.
- Vistas in Astronauti.es - i960. Volume III. 1 vol. 21,5 X 28,5, vi-266 p., nombr. illustr. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1961. Prix, relié: 55 sh.
- Textes présentés en octobre i960 à un sympo-
- MASSON et Cie
- ANATOMIE ET BIOLOGIE
- DES RHINOGRADES
- Un nouvel ordre de mammifères
- par
- le Professeur D. Harold STÜMPKE
- Préface de P. P. GRASSÉ Post-face de G. STEINER Traduction par R. WEIL
- Découverte...
- ou
- Récréation ?
- 88 pages, 12 figures, 15 planches (15,5x22). 18 NF
- ÉDITEURS - 120 Bd St-Germain - PARIS VI»
- ___ VIENT DE PARAITRE __________
- MANIPULATIONS
- DE
- BOTANIQUE
- PAR
- L. GENEVÈS
- Maître de Conférences à la Faculté des Sciences de Paris.
- PRÉFACE DE L. PLANTEFOL
- Membre de l’Institut.
- XXVI-442 pages 16 x 25, avec 128 figures et I planche de 4 pages hors-texte. 1962. Broché . 28 NF
- En vente dans toutes les bonnes librairies et chez
- J3XJISI01> Éditeur, 92, rue Bonaparte, Paris-6e. DAN 99-15.
- 399
- p.399 - vue 403/551
-
-
-
- sium d’astronautique organisé par le bureau de la recherche scientifique de l’Armée de l’Air américaine. Les six sessions furent respectivement consacrées aux véhicules astronautiques, à la propulsion astronautique, aux effets biologiques, aux conditions rencontrées dans les espaces sidéraux, aux communications et au guidage des véhicules.
- Recommandations relatives à l’éclairage extérieur, rédigées par l’Association française de l’Eclairage, i vol. 13,5 X 21, 88 p., 25 fig. A.F.E., 33, rue de Naples, Paris (8e), 1961. Prix : 4 NF.
- Tenant compte des récents progrès des sources lumineuses, des spécialistes fournissent un guide détaillé pour l’éclairage des routes, ponts, tunnels, parcs, jardins, statues, monuments, grands espaces, etc. Etude sommaire des sources et appareils, budget d’entretien, établissement d’un projet.
- Géologie générale et Pétrographie, par N. Théobald et A. Gama. ze édition entièrement refondue. 1 vol. 15 x 21, 530 p., 191 fig-, 16 planches hors texte. Collection Géologie publiée sous la direction de M. Albert Obré. Gaston Doin et Cie, Paris, 1961. Prix : 50 NF.
- Ce traité, qui couvre la plupart des phénomènes géologiques et comporte la description sommaire des minéraux et des roches, est le type de l’ouvrage d’enseignement où les étudiants de plusieurs branches trouvent l’essentiel des notions à acquérir en vue de divers examens ou concours. Par la suite, il pourra servir d’aide-mémoire aux enseignants et chercheurs scientifiques.
- Oiseaux de l’Afrique tropicale (Deuxième partie), par le docteur Georges Bouet, associé du Muséum, membre de l’Académie des Sciences d’outre-mer. 1 vol. 19 X 28, 380 p. Vol. XVII de la Faune tropicale. Office de la recherche scientifique et technique Outre-Mer, et Librairie Larose, Paris, 1961.
- L’auteur, mort en 1957, n’avait pu mener à bien l’édition de la 2e partie de cet important ouvrage, dont la ire avait paru en 1955. Outre les descriptions des espèces (à l’exclusion des Passereaux) on y trouve une foule de renseignements écologiques et éthologiques. Bibliographie jusqu’en 1956.
- Alimentation et équilibre biologique, par
- Raymond Ferrando, professeur à l’Ecole nationale vétérinaire d’Alfort. 1 vol. 13 X 19, 234 p. Bibliothèque de philosophie scientifique, Flammarion, Paris, 1961. Prix : 8,50 NF. L’auteur, zootechnicien, pose des principes généraux qui sont valables aussi bien pour l’organisme végétal que pour l’animal et pour l’homme, et il en fournit des exemples nombreux qui s’ordonnent autour d’une idée centrale : l’équilibre dans la nutrition. Cet équilibre doit être réalisé à plusieurs niveaux, d’abord entre les protides et les aliments énergétiques (glucides et lipides), puis entre les différents acides aminés qui constituent les protéines, et par exemple, pour les lipides, entre les acides gras saturés et insaturés. Toute variation dans l’un des éléments retentit sur les besoins en autres éléments. Naturellement les vitamines entrent aussi dans cet équilibre, de même que les éléments minéraux et en particulier les oligo-éléments. L’agronomie et l’élevage doivent s’inspirer davantage de ces principes et aussi la diététique humaine. Le professeur Ferrando fait certainement œuvre utile en bataillant pour ces vérités encore trop méconnues.
- Autorévolution : s’assurer la santé et le bonheur, conserver la jeunesse, c’est très simple, par André L. Dumont, i vol. 16 X 24, 380 p. Le Soleil levant (17, rue N.-D.-de-Bon-Secours, Com-piègne, Oise), 1961. Prix : 16,50 NF + t.l.
- Il est dommage que ce livre se présente sous un titre d’allure un peu publicitaire qui le dessert
- sans doute auprès de nombre de lecteurs pondérés. Mais peut-être d’autres seront-ils attirés... En tout cas, l’ouvrage représente un effort digne de louanges pour présenter toutes les notions qui peuvent aider l’homme à se maintenir en bonne santé. Après un chapitre qui montre les possibilités d’un esprit conscient, le 2e chapitre est un petit résumé de biologie et de physiologie, et le 3e développe une notion extrêmement utile, celle de l’équilibre alimentaire. Ensuite sont exposés les bienfaits de l’hygiène physique dans ses plus diverses modalités. Les méfaits de l’alcool, du tabac, du « nervosisme » sont exposés avec mesure mais résolument. Un copieux chapitre envisage les éléments moraux et psychologiques de la santé et le dernier, non sans prudence, traite des différentes « jouvences » qui nous ont été proposées. L’autorévolution que l’auteur préconise n’est en somme qu’une exploitation personnelle judicieuse des connaissances scientifiques les plus modernes, avec une bonne dose de sagesse traditionnelle.
- Carnets d’un naturaliste, par Niko Tinbergen. Texte français d’André Michel, i vol. 14,5 X 21, 298 p., 32 pl. hors-texte. Hachette, Paris, 1961. Prix, cartonné toile: 25 NF.
- Le nom de Tinbergen évoque pour tous les naturalistes et psychologues de pénétrantes observations sur le comportement des animaux, en particulier des oiseaux. Ces récits, qui évoquent tantôt de simples promenades, tantôt de véritables expéditions sous les climats les plus rudes, montrent au travail le savant soucieux de saisir dans toute sa complexité le comportement naturel. Les oiseaux y tiennent une large place, mais aussi nombre d’insectes. Chemin faisant le néophyte apprendra comment se pose et comment se résout maint problème de biologie et de psychologie. Mais les naturalistes accomplis liront aussi avec plaisir des pages où l’exposé d’une expérience n’est pas réduit à une sèche démonstration.
- Simba : vie et mœurs du Lion, par C.A.W. Gug-gisberg, attaché à l’Institut de recherches médicales de Nairobi (Kenya). Préface du Dr F. Bourlière, professeur à la Faculté de Médecine de Paris, vice-président de l’U.I.C. N.R. 1 vol. 14 X 22,5, 368 p., 1 carte, 30 photos hors-texte. Payot, Paris, 1961. Prix: 21 NF.
- La vie des lions a été l’objet de plus de légendes et de récits plus ou moins fantaisistes que d’études réellement objectives. L’auteur, que nous présente le grand mammalogiste qu’est le Dr Bourlière, donne à cet égard toutes garanties : « Naturaliste passionné qui sait allier le goût des observations sur le terrain à la rigoureuse méthode du laboratoire... ». En effet l’étude sur le terrain est indispensable, malgré toutes ses difficultés. L’auteur, qui a fait d’innombrables notations, a suivi en particulier des lions pendant de longues périodes. On apprend ainsi sur le roi de la brousse bien des choses nouvelles : le lion n’est pas naturellement monogame, il est à l’occasion cannibale (et non par faim), etc. L’auteur est .aussi un excellent photographe. Cette belle étude d’éthologie se complète par une riche documentation sur le lion dans l’histoire et les croyances, le lion en captivité, le lion dans l’art. Une véritable monographie.
- Inde, par Jean Filliozat. i vol. 22 X 28, 272 p., 260 photographies, dont 20 pl. en coul., 10 cartes. Horizons de France, Paris, 1961. Prix, relié toile : 75 NF.
- Le sous-titre de cette excellente monographie, Nation et traditions, en révèle le plan. Dans une première partie sont étudiés la géographie de l’Inde stricto sensu (c’est-à-dire Pakistan exclu), les groupes ethniques et leurs langues, la société, le travail, la culture; la nation indienne s’y trouve présentée dans tous ses aspects humains et naturels. La seconde partie aborde le temps à rebours, et passe successivement en revue la période britannique, l’Inde hindoue et musulmane, le monde indien avant l’Islam, Cette encyclopédie, de lecture aisée, est marquée au coin de la sûreté de
- l’information et de la précision; texte et illustration contribuent également à sa valeur. Le choix des photographies, parmi lesquelles de nombreuses reproductions d’œuvres d’art, leur qualité, leur abondance, satisferont les difficiles.
- Assainissement agricole, par Maurice Poirée et Charles Ollier, i vol. 16 x 25, 440 p., 166 fig., 53 tableaux, 6 abaques. Eyrolles, Paris, 1962. Prix: 50 NF.
- Le drainage est le complément nécessaire de l’irrigation. Les ingénieurs agronomes et les entrepreneurs de travaux publics se doivent de connaître les principes et les techniques de l’assainissement des sols. Ils les trouveront, méthodiquement exposés, dans l’ouvrage de Poirée et Ollier qui reprend, en les développant, les cours professés ' par ces deux auteurs à l’Ecole des Travaux publics et au Conservatoire national des Arts et Métiers.
- Théorie générale de l’invention, par René Boirel. i vol. 14 X 22,5, 408 p. Bibliothèque de Philosophie contemporaine. Presses Universitaires de France, Paris, 1961. Prix : 16 NF.
- Un premier chapitre est consacré à 1 ’eidétique-de l’invention, c’est-à-dire aux impulsions motrices qui dirigent l’esprit vers la recherche d’une solution. « A l’origine, la conscience inventive est conscience d’une insatisfaction en présence du donné ou, plus généralement, de l’acquis ». Sur ce point de départ se construit toute une théorie dynamique de l’invention, dans les divers secteurs de l’activité humaine. Les secteurs technique, scientifique et particulièrement mathématique tiennent une place prédominante. Et il est hors de doute que de nombreux chercheurs ou inventeurs occasionnels reconnaîtront, dans plusieurs pages de ce livre de philosophie, des démarches familières de leur « équipement cérébral ».
- De l’accrochage à l’accident grave, par P. Ose-nat et V. Le Montagner. i vol. 13,5 X 21,5, 114 p., 9 fig. Dunod, Paris, 1962. Prix: 7 NF.
- Une sorte de bible pratique de l’automobiliste, rédigée par un médecin et un juriste. Se reporter aux préceptes contenus dans ce livre est déjà une sécurité. En cas, malgré tout, d’accident, les conseils de secourisme et défense juridique seront de la plus grande utilité.
- La brousse est ma patrie, par Joy Adams on.
- 1 vol. 17 x 24, 136 p., 72 planches de photos hors-texte. Hachette, Paris, 1961. Prix : 12 NF. L’auteur et son mari, conservateur d’une réserve de chasse au Kenya, ont élevé une lionne, capturée alors qu’elle n’avait que quelques jours. Rendue à la liberté quand elle fut devenue adulte, elle conserva son affection à ses parents adoptifs. Ses faits et gestes, sa psychologie n’intéresseront pas seulement les profanes mais aussi les zoologistes.
- Applications biologiques : exposé d’une méthode, par Georges Delarche. i vol. 14 X 21, 140 p. La Colombe, Paris, 1961. Prix : 7,5° NF.
- Partant de la philosophie antique et résumant à sa façon la physique et la chimie moderne, l’auteur aboutit à une « méthode » (qui fait l’objet d’un brevet d’invention) pour « traitement, conservation et production industrielle de produits organiques et biologiques nouveaux » destinés à la nutrition des sols, des plantes et animaux, en physiologie et thérapeutique. Le lecteur moyen suit difficilement.
- PETITES ANNONCES
- (3 NF la ligne: taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Le Gérant : F. Dunod. — DUNOD, Éditeur, Paris. — Dépôt légal : 3e trimestre 1962, N° 3957. — Imprimé en France. Imprimerie Bayeusaine, 6-8, rue Royale, Bayeux (Calvados), N° 3344. — 9-1962.
- 400
- p.400 - vue 404/551
-
-
-
- Les ions atmosphériques et la vie
- Des « petits ions » négatifs bénéfiques aux « gros ions » positifs malfaisants
- B~ EA'KeQüP de gens ignorent que l’air que nous respirons contient des particules électrisées appelées « ions atmosphériques » et que de la nature, du nombre et des proportions relatives de ces ions dépend non seulement notre impression de bien-être mais aussi notre santé, notre vie même.
- Aussitôt après la découverte de l’électricité atmosphérique par Benjamin Franklin au 18e siècle, l’importance de cette électricité ambiante, dont on ignorait la nature et l’origine, avait été pressentie avec hardiesse. De Saussure, avec son électromètre portatif, cherchait à en déceler le signe. « Peut-on douter, déclarait-il, que la douce et continuelle électrisation que subit un homme qui se promène au grand air, dans un heu élevé et découvert, n’influe sur ses organes, sur la circulation du sang, sur la sécrétion de ses humeurs ? Avec ces petits électromètres on pourra choisir les sites les plus avantageux. » A la même époque
- par André JLangevin
- Bertholon écrivait : « L’hygiène électrique, la pathologie et la thérapeutique électriques sont des sciences nouvelles dont l’importance ne peut plus être mise en doute. »
- C’était en 1780. Il a fallu près de deux siècles pour mettre en évidence la vérité de telles affirmations. Les grandes découvertes de la physique de la fin du 19e siècle et du début du 20e ont permis de déceler l’origine et la nature des particules électrisées qui donnent à l’air sa conductibilité. Aux électromètres rudimentaires de de Saussure se sont substitués des appareils de mesure précis. On sait maintenant produire artificiellement, avec le dosage désiré, des ions identiques aux ions naturels de l’air atmosphérique. Des physiologistes, des médecins ont pu, grâce à l’aéroionisation artificielle, étudier l’action des aéro-ions positifs et négatifs sur l’organisme humain.
- Les résultats obtenus permettent d’expliquer les malaises provoqués par l’approche des orages et par certains vents
- Fig. 1. — Un appareil enregistreur de l’ionisation atmosphérique.
- Cet appareil construit par Larex effectue deux enregistrements toutes les minutes : valeur et signe de la charge électrique de l’air, valeur de la conductibilité. Il est conçu pour capter séparément les gros et les petits ions (voir La Nature, juin 1955, p. 220).
- 401
- p.401 - vue 405/551
-
-
-
- tels que le fœhn à Davos, les troubles éprouvés dans les locaux surpeuplés et dans l’air conditionné de certains grands immeubles ou, au contraire, la sensation de bien-être que procure l’air des montagnes et celui de nombreux lieux de cure. Ces résultats permettent aussi de commencer à utiliser l’aéro-ionisation artificielle négative dans le traitement d’un certain nombre de maladies où elle se montre souvent d’une efficacité remarquable. Dans le magazine international The Rotarian d’octobre i960, Robert O’Brien n’hésite pas à appeler les ions de l’air des « ions magiques » et apporte en témoignage les résultats obtenus par des médecins tels que le docteur Hausell, de la R.C.A., le docteur Igho H. Kornblueh, de l’Institut américain de climatologie médicale.
- Aux Etats-Unis, en U.R.S.S., les services d’hygiène et d’urbanisme se préoccupent de l’état électrique de l’air des locaux habités et l’opinion publique est informée de l’importance de cette question. En France, des études théoriques et pratiques se poursuivent depuis de nombreuses années, mais la grande presse et même les revues scientifiques sont jusqu’ici restées presque muettes sur les résultats obtenus dans cette question qui présente pourtant pour l’amélioration de nos conditions de vie et pour la santé publique un intérêt incontestable.
- L’ionisation naturelle de l’air
- La connaissance de la structure de la matière permet maintenant d’affirmer que les particules électrisées contenues dans l’air sont dues à l’arrachement d’un ou plusieurs électrons aux atomes dont sont formés les différents gaz de l’air, c’est-à-dire aux atomes dont sont constituées les molécules d’oxygène, d’azote, de gaz carbonique, etc.
- Tout atome contient en effet, en son centre, un noyau de charge positive et tout autour des électrons négatifs qui sont animés de mouvements rapides et correspondent chacun à un niveau bien défini d’énergie, les électrons de la couche extérieure étant les moins solidement attirés par le noyau. Chaque espèce d’atome est caractérisée par la charge de son noyau et par suite par le nombre de ses électrons quand l’ensemble est neutre, c’est-à-dire quand l’atome est « à l’état fondamental».
- Si on apporte de l’énergie à un tel atome, soit par élévation de température, soit par bombardement avec des particules animées d’une vitesse suffisante, soit encore par un rayonnement assez énergique, c’est-à-dire de fréquence assez élevée, l’atome passe du niveau fondamental à un niveau d’énergie supérieure dit « état excité ». Cette excitation modifie d’abord l’énergie de l’électron de la couche extérieure le moins lié à l’atome. Si l’apport d’énergie est suffisant pour arracher l’électron à l’attraction du noyau, cet électron devient « libre ».
- L’atome privé de ses électrons possède alors une charge positive égale et de signe contraire à la charge de l’électron, c’est-à-dire la charge élémentaire e — 1,6. io~19 coulomb. Il devient un ion positif. C’est ainsi que tout atome peut, par une excitation suffisante, devenir un ion positif. L’électron négatif libéré et l’atome devenu positif forment ensemble ce qu’on appelle une paire d’ions.
- Inversement, par capture d’un électron libre, un atome peut se transformer en ion négatif. Mais cette capture n’est pas possible également pour tous les atomes. Elle est
- d’autant plus aisée que l’atome a plus de tendance à compléter sa couche externe pour avoir les 8 électrons extérieurs qui caractérisent les gaz rares. Les atomes d’azote et d’oxygène ont tous deux une tendance à capturer les électrons libres, mais la force d’attachement de l’électron libre est considérablement moins grande sur l’atome d’azote que sur celui d’oxygène, si bien que les ions négatifs stables susceptibles de se former dans l’air sont des ions d’oxygène. Ce fait, établi par des physiciens tels que M. Laporte, est, comme nous le verrons, fondamental pour expliquer le rôle biologique des ions négatifs de l’air.
- Avant d’examiner ce que deviennent dans l’air ces atomes ionisés, il nous faut rapidement passer en revue les causes naturelles qui produisent l’ionisation de l’air, c’est-à-dire qui apportent l’énergie nécessaire à la libération d’électrons dans un certain nombre d’atomes.
- Le facteur d’ionisation le plus important est sans conteste l’existence dans l’air de rayonnements d’origines diverses.
- Les rayonnements radioactifs. — Les premiers rayonnements ionisants décelés sont ceux des radioéléments qui existent à l’état de traces dans l’air et dans le sol et qu’Elster et Geitel mirent en évidence en 1902.
- Sans que nous nous en doutions, l’air qui nous entoure contient des gaz radioactifs, tels le radon, dont la désintégration produit dans l’air des rayonnements ionisants, a, [3, y.
- Les rayonnements de particules a, c’est-à-dire de noyaux d’hélium lancés en ligne droite à une vitesse voisine du dixième de la vitesse de la lumière, sont rapidement absorbés par le milieu extérieur. Mais dans les 3 à 9 cm d’air que traversent ces particules on peut observer la formation de 190 à 250 000 paires d’ions.
- Les rayonnements de particules p, c’est-à-dire d’électrons lancés à des vitesses voisines de celle de la lumière (300 000 km/s) sont malgré leur vitesse moins ionisants que les rayonnements a, par suite de la masse infime des électrons. Sur un parcours moyen de plusieurs mètres, ils forment cependant 20 à 25 000 paires d’ions.
- Quant aux rayons y qui sont des rayons X très pénétrants et qui peuvent parcourir dans l’air plusieurs dizaines de mètres, ils ont, en raison de leur faible longueur d’onde, une énergie supérieure à celle des rayons ultraviolets et des rayons X et sont capables de former sur leur parcours 30 000 paires d’ions.
- Les radioéléments qui donnent naissance à de tels rayonnements n’existent que dans les couches d’air situées au-dessus des continents, car ils sont eux-mêmes les produits de désintégration de radioéléments contenus dans le sol terrestre à l’état de traces dans les roches (radium io~12 g; thorium 10- 5 g; uranium io~e g en moyenne par gramme de minerai). Leurs désintégrations donnent naissance à des émanations gazeuses radioactives, le radon, le thoron, l’actinon; mais seul le radon (période 3,8 jours) a une vie assez longue pour passer dans l’air des capillaires du sol et de là pénétrer dans l’air extérieur. Par une sorte de « respiration du sol » qui résulte soit d’une baisse de la pression atmosphérique, soit d’un vent qui balaie le sol, soit d’une variation de température, l’air du sol est comme aspiré par l’extérieur et avec lui les ions qu’il contient et aussi l’émanation du radium et les produits gazeux radioactifs provenant des désintégrations successives des émanations.
- 402
- p.402 - vue 406/551
-
-
-
- Fig. 2. — Une atmosphère où l’on n’enregistre que de petits ions :
- Audressein (Ariège).
- {Photo Lapie, Photothèque française).
- Les rayonnements a et (3 qui accompagnent ces désintégrations sont trop peu pénétrants pour sortir de terre, mais par contre le rayonnement y des radioéléments du sol pénètre loin dans l’air extérieur et constitue un puissant facteur d’ionisation de l’atmosphère.
- Le tableau suivant établi par Gish et cité par Dauvillier dans -Les rayons cosmiques (Dunod, 1954) permet de se rendre compte de l’importance relative des divers rayonnements radioactifs en ce qui concerne la formation des ions dans l’air au voisinage du sol, par an et par seconde.
- Nombre total
- Rayonnements de
- a ^ y paires d’ions cm3/s
- Radioactivité du sol .... o 0,1 3 3,1
- Radioactivité de l’air .. 4,6 0,2 0,15 4,9
- Ces nombres montrent que sur les continents le nombre de paires d’ions engendrées par cm3 et par seconde est voisin de 8. Ils correspondent à une teneur moyenne en
- minerais radioactifs dans le sol et par suite à une valeur moyenne de la concentration en émanation de l’air extérieur. Dans le cas où le sol est particulièrement radioactif, l’ionisation de l’air peut atteindre des valeurs considérables, ce qui met en lumière l’importance de ce facteur pour l’ionisation des couches d’air voisines du sol.
- Pour les couches d’air situées à plus de 1 km d’altitude, la radioactivité du sol est sans action. Il en est de même pour les régions où une épaisse couche de neige ou de glace empêche les rayons y produits dans le sol d’agir sur les gaz de l’air et l’émanation de sortir du sol.
- L’action des rayonnements radioactifs est également inexistante dans le cas des couches d’air situées au-dessus des océans, car l’eau de mer ne contient qu’une quantité infime de radioéléments (2,1 o-14 g de radium et io~19 g de thorium par cm3) et l’air marin ne contient que 2,5 pour 100 de l’émanation contenue dans l’air au-dessus des continents.
- Et pourtant l’air à haute altitude, l’air des régions polaires, l’air au-dessus des océans, tout comme l’air au-dessus des continents, contiennent eux aussi des ions.
- L’existence de ces ions a posé aux savants un problème dont la découverte des rayons cosmiques a fourni la solution.
- 403
- p.403 - vue 407/551
-
-
-
- Les rayons cosmiques. — Le rayonnement cosmique, dont l’existence prévue dès 1902 par C.T.R. Wilson ne fut expérimentalement prouvée qu’après 30 années de recherches, est, comme son nom l’indique, un rayonnement qui vient de l’espace cosmique et qui pénètre jusqu’à nous à travers les différentes couches de l’atmosphère. Ce rayonnement très pénétrant présente, comme l’ont montré les travaux de P. Auger, Blackett et Leprince-Ringuet, une nature très complexe. Les récents perfectionnements des chambres de détente, des compteurs de particules et des méthodes photographiques ont permis de prouver que les rayons cosmiques qui arrivent dans les couches d’air voisines du sol constituent un rayonnement secondaire ayant pour origine l’action d’un rayonnement primaire sur les hautes couches de l’atmosphère.
- Au niveau de la mer, sur les océans comme sur les continents, on a pu déceler l’arrivée de particules mille fois plus énergiques que celles des rayonnements radioactifs dont nous venons de parler. Ces particules de nature diverse (électrons, positons, mésons, protons) sont relativement peu nombreuses en comparaison de celles qui sont émises par une source radioactive même faible (notre corps en un jour en reçoit environ 2 millions alors qu’un millicurie de radium expulse en une seconde 30 millions de particules). Mais ce rayonnement cosmique de direction voisine de la verticale, de cadence régulière, indépendante, pour une même altitude, du lieu, de l’heure, de la saison, contient des particules à pouvoir pénétrant considérable qui peuvent pénétrer profondément dans le sol et traverser les murs des immeubles. Il contient aussi des particules un peu moins pénétrantes, dont le nombre augmente à mesure qu’on s’élève au-dessus du niveau de la mer.
- Il est clair que toutes ces particules, qu’il s’agisse du rayonnement très pénétrant (le rayonnement dur) ou du moins pénétrant (le rayonnement mou) sont douées d’une énergie considérable et contribuent à ioniser les atomes des gaz de l’air qui se trouvent sur leur passage, leur pouvoir d’ionisation étant fonction du nombre de chocs, c’est-à-dire du nombre de particules cosmiques et aussi du nombre des atomes contenus dans 1 cm3 d’air.
- Au niveau de la mer, l’action ionisante des rayons cosmiques a été trouvée égale à 1,5 - 1,8 paires d’ions par cm3 et par seconde. Elle constitue le facteur essentiel de l’ionisation de l’air au-dessus des océans et des calottes glaciaires, alors qu’elle passe au second plan dans le cas des couches d’air voisines du sol.
- L’influence relative des deux principaux facteurs d’ionisation naturelle des basses couches de l’atmosphère est mise en relief par le tableau suivant dû à Israël et où sont indiqués les nombres de paires d’ions formés par cm3 et par seconde.
- Radioactivité Rayons du soi de l’air cosmiques
- Couches d’air voisines de la terre ... 4 4,6 1,5 à 1,8
- Couches d’air voisines de l’océan ... — — 1,5 à 1,7
- Quand on s’élève au-dessus du niveau de la mer, l’action ionisante des rayons cosmiques s’accroît en raison de l’augmentation du nombre de rayons mous, et sur les hautes montagnes l’ionisation due aux rayons cosmiques prend une très grande importance.
- Dans l’atmosphère libre, au delà de 1 000 m d’altitude,
- l’ionisation est due entièrement aux rayons cosmiques (à 5 000 m, 7,04 paires d’ions par cm3 et par seconde), et aux rayons ultraviolets dont le pouvoir ionisant, négligeable au sol, augmente à mesure qu’on s’élève.
- Facteurs secondaires d’ionisation. — Aux facteurs principaux d’ionisation naturelle de l’air des basses couches de l’atmosphère que sont les radioéléments et les rayons cosmiques, il faut ajouter des facteurs qui sont dans l’ensemble secondaires, mais qui, localement, peuvent prendre une très grande importance et parfois même la première place.
- C’est ainsi que 1’ « effet Lénard » observé lors de la pulvérisation et de la dispersion des gouttes d’eau, par exemple dans les cascades lors des fortes pluies, ou encore à la surface de la mer lors du déferlement des vagues et des phénomènes du flux et du reflux des marées, produit dans l’air ambiant des ions en nombre parfois considérable. Ces ions transportés par les vents peuvent faire varier notablement le coefficient d’ionisation de l’air des régions voisines, en particulier celui de l’air des bords de mer.
- Les réactions chimiques multiples qui se produisent à la surface de la terre et qui, par élévation de température par exemple, apportent aux molécules contenues dans l’air un surcroît d’énergie peuvent aussi contribuer localement à l’ionisation de l’air. C’est ainsi que des incendies de forêts accroissent momentanément le nombre des ions dans l’air ambiant.
- Enfin, par temps d’orage, les champs électriques intenses dus aux formations nuageuses, les effluves et les décharges entre la terre et les nuages ou entre les nuages accroissent aussi dans de grandes proportions mais temporairement et localement l’ionisation de la basse atmosphère.
- Pour toutes ces causes, des électrons sont arrachés continuellement à un plus ou moins grand nombre d’atomes et des ions positifs et négatifs sont sans cesse formés dans l’air.
- Que deviennent ces ions ? Restent-ils à l’état monomoléculaire, c’est-à-dire l’atome ionisé reste-t-il dans la molécule où il se trouvait avant l’arrachement de l’électron, la transformant aussi en molécule ionisée ? Telle est la question qui se pose à nous et qui trouve sa réponse dans la mise en évidence des « petits ions » et des « gros ions » de l’atmosphère.
- « Petits ions » et « gros ions » atmosphériques
- Les ions positifs d’azote, d’oxygène, de gaz carbonique, etc., et les ions négatifs d’oxygène, ne restent à l’état monomoléculaire dans l’air à la pression atmosphérique que pendant un temps très court. Dès leur formation, grâce à l’agitation moléculaire et aux attractions électrostatiques, plusieurs molécules voisines (de 10 à 30) se joignent à eux. Les édifices moléculaires complexes ainsi formés, porteurs d’une charge élémentaire -j- e ou — e, constituent des « petits ions » positifs ou négatifs de l’atmosphère ou encore des « aéro-ions » légers.
- Ces « petits ions », comme nous l’avons vu, se forment par paires, les « petits ions » négatifs stables étant porteurs d’ions négatifs d’oxygène.
- Dans les résultats numériques que nous avons donnés,
- 404
- p.404 - vue 408/551
-
-
-
- Fig. 7. — La fumée des usines charge l’atmosphère en gros ions : Homécourt (Meurthe-et-Moselle).
- (Photo Lapie, Photothèque française).
- c’est de ces petits ions positifs ou négatifs formés par paires qu’il s’agissait. Leur rayon est de l’ordre de io~8 cm. Ils sont caractérisés par une grande mobilité, c’est-à-dire par leur faculté de se déplacer sous l’influence du champ électrique de l’atmosphère, champ vertical dirigé dans 89 pour 100 des cas de haut en bas.
- En raison de cette mobilité (1,5 cm/s environ dans un champ de 1 V/cm) et aussi en raison des forces d’attraction mutuelle, les petits ions des deux signes entrent fréquemment en collision et se neutralisent. Leur concentration, dans un air parfaitement pur et sec, résulte d’un équilibre entre la vitesse de formation et la vitesse de recombinaison de ces ions. Soit 1 400 paires en moyenne par cm3. Ce nombre est purement théorique.
- Dans un air humide ou chargé de poussières, le nombre des petits ions décelés dans l’atmosphère est en effet considérablement inférieur. Dans l’air pur des campagnes on trouve en moyenne 700 à 800 petits ions par cm3. Dans
- l’air pollué des villes ce nombre peut tomber à 200, et même plus bas encore par temps brumeux.
- Cette diminution du nombre des aéro-ions légers s’accompagne de l’apparition dans l’atmosphère de particules électrisées, 1 000 à 3 000 fois moins mobiles qu’eux et de masse 1 000 à 2 000 fois plus grande, découvertes par P. Langevin en 1905 et qu’on appelle «gros ions» ou encore « ions Langevin ».
- Ces « gros ions » résultent de la fixation d’un ou plusieurs « petits ions » sur les particules solides ou liquides extrêmement fines contenues en plus ou moins grand nombre dans l’air atmosphérique (suies, fumées, produits d’érosion des roches, gouttelettes d’eau microscopiques). Dans les régions industrielles, dans les villes à circulation automobile intense, l’air contient une forte proportion de gaz toxiques (anhydride sulfureux, sulfurique, tétra-éthyle de plomb, etc.). Ceux-ci se dissolvent dans les minuscules gouttelettes d’eau porteuses de charges positives ou négatives à la suite de la capture d’ions légers, et ils transforment ces gros ions en un véritable cocktail d’autant plus dangereux pour l’organisme qui le respire qu’il est chargé. Sa durée de vie moyenne est considérablement supérieure à celle des petits ions, en raison même de la faible mobilité des gros
- 405
- p.405 - vue 409/551
-
-
-
- Fig. 4. — Schéma du mode de formation des petits et gros ions.
- Rayonnement Ultraviolet de courte longueur d'onde ou Rayons a,P ou Y ou
- Rayons
- cosmiques
- Groupe
- d'atomes
- Grosse
- particule
- neutre
- Petit ion’
- Molécule
- ionisée
- Molécule
- neutre
- Particule 1 Recombi naison neutre Q éventuelle
- Grosse
- particule
- neutre
- Electron
- Molécule j -2) ionisée !
- Petit ion
- Molécule
- neutre
- Groupe
- d’atomes
- Grosse
- particule
- neutre
- Gros ion positif
- Recombinaison
- éventuelle
- Gros ion négatif
- ions. C’est ainsi qu’un gros ion peut subsister dans l’air une heure et même plus alors qu’un petit ion disparaît au bout de 30 secondes dans l’air pollué.
- Parallèlement à la formation de ces gros ions par fixation des petits sur les impuretés de l’air, donc par disparition de ces « petits ions » en tant que tels, on observe en effet la neutralisation d’un certain nombre d’entre eux chaque fois que des gros ions de signe opposé entrent en collision.
- Un régime d’équilibre se produit ainsi en chaque Heu entre les petits ions, les gros ions et les particules non chargées que contient l’air (fig. 4). Cet état d’équilibre dépend non seulement des facteurs d’ionisation naturels locaux, mais aussi des conditions météorologiques journalières (humidité, température, vents, orages, etc.) et du degré de pollution de l’atmosphère.
- On appelle « indice de pollution » de l’atmosphère le rapport du nombre de gros ions au nombre de petits ions contenus dans un cm3 d’air. Si ce rapport atteint ou dépasse 50, l’air est dit pollué, et l’alerte est donnée par les services d’hygiène. La présence des ions atmosphériques, leur nature, leur proportion donnent ainsi un moyen pratique de mesure de cette pollution de l’air qui constitue pour nos grandes villes et pour Paris en particulier un danger réel et croissant. Mais le rôle des ions ne se borne pas, comme on semble le croire, à celui d’indicateur. Les charges portées par les impuretés rendent ces impuretés plus nocives et les gros ions positifs, toujours plus nombreux que les négatifs, jouent en particulier un rôle très important dans la nocivité de l’air pollué.
- Les effets biologiques des ions de l’atmosphère
- De nombreuses observations réafisées par des médecins, des biologistes, des physiciens, tels que Tchijevski, Sokolov, Vasiliev, Minkh (U.R.S.S.), Dessaver, Strasburger (Francfort), Happel (Hambourg), Asiba, Okada (Japon), Dorner (Davos), Kornblüch, Griffin, Hansell, Beckett, Yaglou (U.S.A.), Denier, Pech, Chaize, Vlès (France), permettent d’affirmer l’importance de l’ionisation de l’atmosphère sur le fonctionnement de notre organisme.
- On peut considérer maintenant comme établi avec certitude que le degré de salubrité d’un climat est déterminé par la proportion des aéro-ions négatifs, c’est-à-dire des aéro-ions d’oxygène, dans l’air, ces aéro-ions exerçant une
- influence stimulante et normalisante sur les différents organes. Il est aussi établi que les aéro-ions positifs, en particulier les gros ions positifs de l’air pollué, agissent comme facteur défavorable sur notre activité vitale.
- Le bien-être ressenti après un orage ou une forte pluie, au voisinage des chutes d’eau, dans certaines stations de cure telles que Biarritz, s’expfique par la prédominance des aéro-ions négatifs sur les positifs et par leur grand nombre (20 à 85 000 près de certaines chutes d’eau en U.R.S.S. classées comme lieux d’électrocure).
- Au contraire, c’est l’excès des aéro-ions positifs dans l’air extérieur tel celui observé à l’approche des orages, lors de certains vents comme le fœhn ou lors d’une pollution élevée de l’atmosphère, qui provoque l’impression de fatigue, la gêne respiratoire et les malaises observés depuis fort longtemps mais restés sans explication valable jusqu’à l’établissement de l’action biologique des aéro-ions (%• 5)-
- Heures
- Fig. j. — Influence de l’orage sur l’ionisation de l’atmosphère.
- La courbe en pointillé montre la prédominance des ions positifs à l’approche de l’orage, la courbe en trait plein celles des ions négatifs après la pluie d’orage
- (D’après Tchijevski).
- L’étude systématique qui a permis de mettre en évidence cette action biologique utilise non pas les aéro-ions naturels dont la concentration est variable, souvent mal définie et faible, mais des aéro-ions artificiels identiques aux aéroions naturels et produits à volonté par des appareils appelés aéro-ionificateurs.
- Ces appareils de types divers utilisent comme facteur d’ionification de l’air un des facteurs naturels que nous avons signalés, ionisation par rayonnement d’une source
- 406
- p.406 - vue 410/551
-
-
-
- radioactive (appareil de Verigo et Steinbeck), par électroeffluves (appareil de Tchijevski ou de Reynet et Pruller), par effet Lénard (buse hydrodynamique de Chernowsky et Pouslegin ou autres types plus récents). Les deux premiers types d’aéro-ionificateurs donnent des petits ions d’un seul signe (positifs ou négatifs) très mobiles et de vie très courte comme les petits ions de l’air libre. Le troisième type fournit des gros ions aqueux mais dépourvus des impuretés nocives des gros ions atmosphériques. Les gros ions négatifs qu’ils donnent en grand nombre sont de très fines gouttelettes d’eau chargées de petits ions d’oxygène, analogues à ceux fournis par les chutes d’eau et de vie beaucoup plus longue que les petits ions.
- Grâce à l’aéro-ionisation artificielle de l’air, l’influence du signe, du nombre des ions par cm3, la durée du séjour dans l’air ionisé et aussi le mécanisme de leur action ont pu être étudiés dans de bonnes conditions.
- Des deux modes d’action possibles, par la peau et par les poumons, le deuxième a été prouvé expérimentalement sans contredit le plus efficace. Pénétrant dans les alvéoles pulmonaires, les aéro-ions, par suite de leur charge, exercent sur les terminaisons nerveuses sensorielles des alvéoles une excitation qui est transmise par les nerfs vagotoniques au système nerveux central. De plus le sang, qui n’est séparé de l’air des alvéoles que par une paroi extrêmement mince, subit de la part des aéro-ions une action directe qui se manifeste en particulier par la variation de la charge des globules rouges et des colloïdes qu’il contient en suspension. Ces modifications du sang agissent par voie humorale sur l’organisme dans son entier. Si bien que l’action des aéro-ions ne se limite pas à un effet biologique local mais intéresse l’ensemble des fonctions vitales, l’action des ions négatifs étant en général favorable, celle des ions positifs nocive.
- C’est ainsi que les aéro-ions négatifs provoquent une augmentation de la charge négative naturelle des globules rouges et augmentent leur stabilité, et que les aéro-ions positifs diminuent cette charge. La diminution de la vitesse de sédimentation du sang dans le cas de l’aéro-ionisation négative et son augmentation dans le cas de l’aéro-ionisation positive en apportent une preuve incontestable.
- De même les aéro-ions négatifs accroissent la stabilité des colloïdes du sang et des tissus en augmentant leur charge négative naturelle alors que les positifs exercent l’action contraire. Ces faits solidement établis sont parti-
- culièrement importants en ce qui concerne la lutte contre le vieillissement de l’organisme puisque, d’après les travaux de Ylès (1932), les modifications qui correspondent à la vieillesse ou à l’usure prématurée seraient précisément un abaissement des charges électriques portées par les particules colloïdales des tissus et du sang.
- En même temps qu’ils stabilisent les éléments figurés et les colloïdes du sang, les aéro-ions négatifs élèvent le pH du sang, c’est-à-dire diminuent son acidité, tandis que les positifs l’abaissent. Ces variations, très faibles chez les personnes qui ont un pH normal, peuvent être importantes dans le cas d’un pH trop élevé ou trop bas, et l’aéro-ionisation négative peut être appliquée avec succès au traitement des alcaloses ou des acidoses.
- Régulateurs du pH du sang, les aéro-ions négatifs le sont aussi pour la quantité de cholestérol du sang, pour les proportions de calcium et de potassium du sérum sanguin, pour la pression artérielle.
- Les aéro-ions négatifs abaissent en effet d’une façon durable la pression artérielle des hypertendus (fig. 6), élèvent celle des hypotendus, sont pratiquement sans effet sur les tensions normales. Ils exercent aussi une action régulatrice sur l’arythmie cardiaque, sur l’arythmie respiratoire.
- Ces actions sur le système cardio-vasculaire sont liées à l’action sur la musculature lisse des bronches et des vaisseaux, c’est-à-dire à l’action des aéro-ions sur le système nerveux.
- Les aéro-ions influent en effet, soit par voie directe, soit par voie humorale sur l’état fonctionnel du système nerveux. Alors que les aéro-ions positifs provoquent l’abattement, une diminution de l’excitabilité des muscles, c’est-à-dire une augmentation de la chronaxie, les aéro-ions négatifs élèvent le tonus, diminuent la chronaxie. De plus ils normalisent les réflexes fonctionnels pathologiquement altérés, diminuent la sensibilité de l’organisme aux chocs anaphylactiques et augmentent sa résistance aux maladies infectieuses. Cette dernière et importante propriété serait due, d’après Vassiliev, à l’action des aéro-ions négatifs sur le cortex cérébral, action calmante qui expliquerait que des insomnies dues à une surexcitation nerveuse sont guéries par 1’ « aéro-ionothérapie négative ».
- Des observations relatives à l’action des aéro-ions négatifs sur le fonctionnement des glandes endocrines, en particulier sur la thyroïde et sur l’ovaire, montrent qu’ils
- Après la séance Avant la séance
- > 170
- E 110
- « 100
- séances
- 0 1 2 3 4 5 6 7 8 9 10 12 14 15
- Après la séance Avant la séance
- * 160 -
- séances
- 1 2 3 4 5 6 7 8 9 10 12 14
- malade de 52 ans
- Fig 6 — Influence des ions
- négatifs sur la pression artérielle.
- Courbes de'5, la pression artérielle d’un malade de 65 ans (à gauche) et d’un malade de 52 ans (à droite). En abscisses, le nombre de séances d’aéroionisation; en ordonnées, la pression artérielle (minimums et maximums). En pointillé, les valeurs de la pression artérielle avant chaque séance; en trait continu, après chaque séance.
- (D’après Ivanov).
- 407
- p.407 - vue 411/551
-
-
-
- exercent là encore un rôle régulateur et que les résultats obtenus sont d’autant plus importants que l’activité fonctionnelle des glandes est plus basse.
- Il est impossible de citer ici toutes les actions biologiques des aéro-ions déjà mises en évidence. Il faut toutefois encore indiquer l’influence favorable très nette des aéroions négatifs sur l’accroissement des échanges gazeux avec l’extérieur et sur l’ensemble des réactions chimiques qui s’effectuent dans l’organisme. L’augmentation du métabolisme et de la croissance du poids en sont la preuve. L’oxygène ionisé apporté par les aéro-ions négatifs de l’air, qu’ils soient naturels ou artificiels, agit d’une façon particulièrement active sur les phénomènes physico-chimiques de l’organisme. Etant donné la proportion extraordinairement faible d’ions oxygène, même dans le cas de l’aéro-ionification artificielle, par rapport à l’ensemble des molécules neutres contenues dans l’air (io8 par cm3 pour 2,7 X io19 molécules), ces ions semblent jouer un rôle de catalyseur. Ce catalyseur serait même indispensable à la vie.
- Des expériences nombreuses, faites en particulier depuis plus de 30 ans dans les Instituts d’aéro-ionification en U.R.S.S. sous la direction de Tchijevski, ont en effet établi que l’air privé d’ions oxygène est incapable d’entretenir la vie, même s’il contient la quantité d’oxygène normale. L’observation anatomique et histologique des organes des animaux ayant péri dans l’air privé d’ions montre les changements profonds subis par eux par suite de processus d’oxydation incomplets.
- Nouvelle thérapeutique : Fionisation négative artificielle
- Les résultats positifs relatifs à l’action des aéro-ions négatifs sur l’organisme ont permis d’introduire progressivement et avec succès l’aéro-ionisation négative dans le traitement d’un certain nombre de maladies, en particulier en U.R.S.S. et aux Etats-Unis, et de compléter par suite l’étude de l’action biologique.
- C’est ainsi que le coryza, en particulier les cas les plus rebelles de coryza putrides, les grippes avec affection des voies respiratoires sont dans la grande majorité des cas guéris ou présentent une nette amélioration lors d’un traitement aux ions négatifs. Une certaine immunité contre les récidives de grippe serait même souvent observée.
- Les hypertensions, les troubles endocriniens (maux de tête, insomnies, œdème, cellulite) et dans certains cas les rhumatismes bénéficient aussi de la thérapeutique par les ions négatifs.
- Des guérisons définitives d’eczéma, d’urticaire avec œdème de Qwinck ont été constatées ainsi que la cicatrisation rapide d’ulcères variqueux ou de stomatites aphteuses.
- Dans tous les cas de traitement par aéro-ionisation négative, on constate une amélioration de l’état général (tonus, appétit, sommeil). Au traitement par inhalation d’air contenant de io5 à io8 aéro-ions par cm3, au cours de séances durant suivant les cas de 4 à 25 mn, on ajoute parfois, comme dans le cas des ulcères variqueux, de l’eczéma ou de la furonculose, un traitement local, c’est-à-dire le « bombardement » de la partie maladie par le flux d’ions.
- Ce traitement extérieur, combiné à l’inhalation, est aussi appliqué sur une grande échelle aux Etats-Unis dans
- certains hôpitaux (à Philadelphie par exemple), spécialisés dans le traitement des grands brûlés. Les malades sont exposés 30 mn trois fois par jour dans une pièce où un aéro-ionificateur produit 5 000 à 7 000 ions négatifs par cm3. Les douleurs se calment et souvent disparaissent. Dans 85 pour 100 des cas l’emploi des calmants est inutile. Les brûlures se guérissent plus vite en laissant moins de cicatrices.
- Les succès obtenus dans le traitement des brûlures ont encouragé les docteurs Karnbluech et Minehart à essayer l’aéro-ionisation négative pour soulager les douleurs postopératoires et la cicatrisation des plaies. Les essais faits jusqu’ici ont donné 57 pour 100 de succès. Cette thérapeutique est encore à l’étude; dans ce domaine, comme du reste dans un grand nombre d’autres (affections gastrointestinales, gynécologie, obstétrique), on essaie les meilleures méthodes d’utilisation des ions, le dosage des aéroions jouant un rôle très grand.
- Les résultats obtenus montrent dès à présent que l’aéro-ionification artificielle négative, sans être évidemment une panacée, est appelée à prendre une place importante en médecine.
- L’attention des hygiénistes commence aussi à se porter sur le rôle des ions négatifs dans le maintien en bonne santé des hommes qui vivent dans les villes, et qui passent la majeure partie de leur vie à l’intérieur des locaux dans un air insuffisamment pourvu des aéro-ions nécessaires.
- L’ « aéroionification » des locaux, problème de la vie moderne
- Tout un ensemble de mesures effectuées dans l’air à l’intérieur d’un local quelconque montrent que, par le simple fait de pénétrer dans une pièce, l’air extérieur perd environ la moitié de ses petits ions. Ceux-ci, très mobiles, se collent en effet aux parois, aux objets et disparaissent ou bien forment avec les impuretés de l’air des gros ions.
- Si des personnes entrent dans ce local, on constate au bout de très peu de temps la disparition de la presque totalité des petits ions dont le nombre tombe rapidement au minimum irréductible, 20 à 50 paires par cm3 dues à la radioactivité des radioéléments contenus dans les matériaux de construction et aussi au rayonnement cosmique. La figure 7 donne une idée de la chute des petits
- Fig. 7. — Variation du nombre des petits ions par cm3
- dans un local occupé de 16 m3 en fonction de la durée du séjour (6 personnes).
- (D’après Yaglou et Benjamin).
- Ions positifs
- .g 15 120
- Ions négatifs
- 10 20 30 40 50 60 70 80 90
- Temps en minutes
- 408
- p.408 - vue 412/551
-
-
-
- ions dans une chambre de 16 m3 sans communication avec l’air extérieur et occupée par six personnes. De 240 aéroions par cm3 on passe à 50 après 20 mn. La vitesse de diminution est très rapide pendant les vingt premières minutes pour les deux sortes d’ions, celle des ions négatifs étant supérieure à celle des positifs. Dans le même local inoccupé, le nombre des aéro-ions reste sans changement. Cette expérience, réalisée par Yaglou et Benjamin aux Etats-Unis, prouve donc que la présence de personnes dans une pièce fermée fait baisser en fonction du temps le nombre des aéro-ions.
- Une expérience analogue, faite par Tchijevski en U.R.S.S. dans une salle de 65,5 m3 occupée par seize personnes, portes et fenêtres fermées, donne une courbe à allure identique (fig. 8). Après deux heures le nombre des ions tombe à son minimum.
- • Ions positifs o Ions négatifs
- ^-o—
- —-o—
- Heures
- Fig. 8. — Variation du nombre des petits ions par cm3 dans un local occupé de 65,5 m3 en fonction de la durée du séjour
- (16 personnes).
- (D’après Tchijevski).
- Dans les deux expériences citées, toute communication avec l’extérieur était supprimée, et il était interdit de fumer. La figure 9 correspond à une expérience de Yaglou et de Benjamin réalisée dans les conditions de vie normale.
- /
- /
- o.* 250
- • Ions positifs
- o Ions négatifs
- 50U—-a-
- 10 heures n
- Fig. 9. — Chute du nombre des petits ions dans un local de 400 m3 en fonction du nombre des occupants et de la durée du séjour.
- Les chiffres portés sur les courbes indiquent le nombre des occupants.
- (D’après Yaglou et Benjamin).
- Un réfectoire de 400 m3 avec quatre larges fenêtres était occupé par trente-quatre personnes qui mangeaient et fumaient, ouvraient et fermaient les fenêtres et les portes, entraient ou sortaient. Malgré une ventilation suffisante pour empêcher la température de la salle de s’élever, on constate encore, dès que le nombre des occupants atteint vingt-six, une rapide diminution des aéro-ions qui en en 20 mn passent au minimum de 65 par cm3 et qui y restent jusqu’à ce que la presque totalité des occupants évacuent la salle. Il faut ensuite environ une heure pour que le nombre des petits ions reprenne sa valeur initiale.
- Parallèlement à la diminution des petits ions, se produit une augmentation des gros ions des deux signes, mais cette augmentation est beaucoup plus forte que celle qui correspond à la disparition des petits ions.
- Les figures 10 et 11, qui correspondent respectivement à la chute des petits ions et à l’augmentation des gros ions dans une salle de spectacle, avant, pendant et après la représentation, montrent avec clarté que si les petits ions passent de 250 à moins de 100 par cm3, les gros ions voient leur nombre passer de 2 000 à 8 et 9 000. Cet écart considérable est dû à un fait particulièrement important. A
- ho 250
- o 50
- ________1_________1_________1_______,_1_________1_______
- Avant 1er Acte 2° Acte 3® Acte Après le spectacle |e spectacle
- Fig. 10. — Variation du nombre des petits ions positifs et négatifs dans une salle de théâtre aux différentes phases du spectacle.
- (D’après Tchijevski).
- w 8 000-
- S.6 000
- y 5 000
- • Gros ions positifs o Gros ions négatifs
- S 3 000
- Z 2 000
- 1er Acte 2® Acte 3e Acte Après
- le spectacle
- Avant
- le spectacle
- Fig. 11. — Variation du nombre des gros ions positifs et négatifs dans la salle de spectacle de la figure 10.
- (D’après Tchijevski).
- 409
- p.409 - vue 413/551
-
-
-
- chaque respiration, l’air expiré apporte dans le local 3,0 x io8 aéro-ions lourds parmi lesquels prédominent les particules positives particulièrement nocives.
- Diminution des petits ions négatifs, augmentation des gros ions toxiques, rebut de l’organisme, telles sont les conclusions auxquelles sont arrivés les savants qui ont étudié l’aéro-ionisation des locaux habités. Une ventilation normale est insuffisante à changer cet état électrique de l’air néfaste pour la santé des personnes qui y vivent et qui éprouvent des malaises inexplicables par la seule variation de la composition chimique de l’air. Les maux de tête, la fatigue commencent à se faire sentir bien avant que le manque d’oxygène, l’excès de gaz carbonique ou de gaz toxique puissent en être la cause. Ces malaises doivent être attribués au nombre insuffisant d’ions oxygène négatifs.
- Dans les usines, les salles publiques, dans les locaux d’habitation, les métros, etc., les hommes vivent dans un milieu privé d’un facteur de vie important. Le nombre des petits ions négatifs abaissé au degré minimal et biologiquement insuffisant provoque chez les habitants des villes une fatigue anormale, une usure prématurée, une moindre résistance aux maladies.
- Il faut remédier à ce déficit énorme d’aéro-ions causés dans les locaux par la respiration et les poussières. Les
- meilleurs ventilateurs sont insuffisants. Du reste, l’air insufflé par ces ventilateurs, comme l’air conditionné qui alimente les grands immeubles, par le fait même de son passage dans les ventilateurs ou dans les canalisations, est privé en partie ou totalement de ses petits ions. Il est nécessaire d’introduire dans cet air conditionné des ions négatifs d’oxygène, soit sous forme de petits ions, soit sous forme de gros ions aqueux constitués par des gouttelettes d’eau pure chargées de petits ions oxygène.
- Déjà aux Etats-Unis et en U.R.S.S., ces aéro-ions négatifs sont introduits dans l’air conditionné des grands immeubles, de certains hôpitaux, de certaines écoles. Ces mesures devraient être largement étendues. Le problème de l’aéro-ionisation négative insuffisante des locaux, comme celui de la pollution de l’air des villes, est un grand problème de la vie moderne. Physiciens, chimistes, biologistes, médecins, climatologistes doivent intensifier leurs recherches, coordonner leurs efforts, pour étudier mieux encore le rôle de l’ionisation de l’air en biologie, pour mettre au point son utilisation en thérapeutique et procurer ainsi aux hommes de meilleures conditions de vie et des possibilités nouvelles de guérison.
- André Langevin,
- Ingénieur-Docteur,
- Chef de travaux à l’E.S.P.C.I
- Les lasers en progrès rapide passent dans le domaine pratique
- Le premier laser a fonctionné en i960 et déjà cet appareil est largement utilisé aussi bien dans les laboratoires que dans l’industrie. Rappelons que, de même que le maser est un amplificateur quantique d’ondes hyperfréquences, le laser est un amplificateur quantique d’ondes lumineuses (voir La Nature-Science Progrès, janvier 1962, p. 1-9). Utilisé comme oscillateur de fréquence optique, le laser fournit des ondes lumineuses dont les caractéristiques ont pu paraître extraordinaires. Elles sont d’abord hautement monochromatiques (raie spectrale très fine) et d’une grande stabilité de fréquence; elles sont cohérentes, c’est-à-dire qu’elles se propagent « en phase»; enfin le faisceau lumineux jouit d’une remarquable directivité : il peut être concentré optiquement, soit en une tache finale extrêmement réduite, soit en un faisceau parallèle dont la divergence est très faible (tache de moins de 60 m à 40 km de distance). Cette dernière propriété permet, soit de concentrer de fortes énergies sur d’infimes surfaces et d’y obtenir des températures très élevées, pour usiner par exemple avec précision des matériaux réfractaires, soit de faire parvenir toute l’énergie de l’instrument à de grandes distances.
- Il existe, comme on sait, des lasers à cristal et des lasers à gaz. Tout récemment encore les lasers à cristal, ou lasers solides, ne pouvaient fonctionner que par impulsions discontinues. Leur rendement était si faible qu’il fallait
- une énorme intensité de lumière blanche pour créer le faisceau de lumière monochromatique. De telles intensités ne pouvaient être fournies, avec une puissance raisonnable, que par des lampes à éclairs; d’où le fonctionnement discontinu du laser.
- En améliorant le rendement, on a pu obtenir des lasers solides à fonctionnement continu. L’amélioration a porté principalement sur le dispositif d’éclairement. Dans l’un des appareils, la lampe est placée à l’un des foyers d’un miroir elliptique dont l’autre foyer est occupé par le cristal (tungstate de calcium « dopé » au néodyme). Dans l’autre on utilise un cristal de rubis dont l’une des extrémités est en forme d’entonnoir, canalisant ainsi la lumière qui se réfléchit à l’autre extrémité avant de le traverser à nouveau. Ces lasers nécessitent environ 1 000 fois moins d’énergie pour fonctionner que ceux de la première génération. On se souvient qu’il existe un seuil que l’énergie excitatrice doit dépasser pour que le laser puisse fonctionner. Ce seuil a pu être ramené ici à 900 W et la puissance disponible est de 50 mW environ.
- On signale aussi des progrès dans le domaine des lasers à gaz. Le premier laser à gaz qui ait pu fonctionner de façon continue était le laser à hélium-néon. Dans cet appareil les atomes d’hélium, placés dans un état excité méta-stable par une décharge électrique, cèdent leur énergie
- 410
- p.410 - vue 414/551
-
-
-
- aux atomes de néon qui la restituent par « émission stimulée » sur un certain nombre de longueurs d’onde bien déterminées. Les laboratoires de la Bell Téléphoné Company ont fait fonctionner des lasers semblables mais où les gaz employés étaient des mélanges néon-oxygène et argon-oxygène. Dans ces mélanges les atomes du gaz rare portés à un état excité métastable par la décharge cèdent leur énergie aux molécules d’oxygène qui se dissocient en un atome d’oxygène excité et l’autre à l’état fondamental. On a donc ainsi créé une population d’atomes excités qui pourront restituer leur énergie sur des longueurs d’onde déterminées dès que leur émission aura été stimulée par des photons de même longueur d’onde. Les inventeurs de ce nouveau laser pensent qu’il sera beaucoup plus efficace que les précédents, probablement parce que les collisions utiles entre atomes de gaz rare et molécules d’oxygène sont plus nombreuses qu’entre atomes de néon et d’hélium.
- De l’industrie à la médecine et aux télécommunications
- Pour en revenir aux lasers à cristal, signalons que des firmes industrielles ont déjà commercialisé des lasers destinés à l’usinage de grande précision des matériaux durs ou réfractaires. On envisage de les utiliser pour souder des pièces très délicates comme des filaments de lampes, ce qui peut même se faire à l’intérieur d’enveloppes de verre sous vide. Remarquons que l’on emploie ici des lasers pulsés dont la puissance de pointe est très élevée (jusqu’à 14 MW) bien que leur puissance moyenne soit modeste. Grâce à l’extraordinaire concentration du faisceau, on obtient, pendant les très courtes impulsions, une grande élévation de température.
- On signale également le début des applications médicales.
- Récepteurs de
- Au sujet de l’utilisation des lasers pour les télécommunications, une information du Centre culturel américain fait état de travaux qui font espérer des progrès décisifs dans un proche avenir.
- On était parvenu déjà à utiliser une onde lumineuse comme onde porteuse de signaux hyperfréquence, mais on n’avait pas encore pu construire de dispositif de réception des signaux ainsi transmis. Or, le professeur Anthony E. Siegman, du Laboratoire d’électronique de l’Université de Stanford (Californie), a déclaré dans une conférence récente que deux nouveaux tubes avaient été expérimentés avec succès dans ce domaine, et qu’un troisième type était en cours de mise au point. Le premier, qu’il a fait fonctionner devant ses auditeurs, est un « tube à ondes progressives dont la cathode est photo-émissive ». Le deuxième tube récepteur est une « photodiode rapide à semi-conducteur, associée à un amplificateur». Le troisième est un « phototube discriminateur FM à hyperfréquence, destiné à recevoir les signaux lumineux FM». Ces appareils sont encore à un stade assez rudimentaire et M. Siegman les a comparés, quant à leur degré de perfectionnement, aux premiers récepteurs radio à galène.
- Un laser a été employé pour le traitement de tumeurs du système vasculaire de la rétine. On utilise d’habitude un fort faisceau lumineux que l’on concentre sur la rétine. Le traitement à l’aide du faisceau d’un laser permet d’obtenir mille fois plus rapidement la destruction des tissus visés, ce qui évite un échauffement dangereux des tissus avoisinants et diminue les risques de mouvement de l’œil.
- La mise au point de lasers continus relativement puissants ouvre aussi la voie vers les applications aux télécommunications. Le grand problème reste toujours celui de la modulation du faisceau qui est nécessaire pour y injecter l’information à transmettre. Des ' progrès ont cependant été réalisés dans cette direction. Signalons d’abord une expérience spectaculaire au cours de laquelle on a envoyé vers la Lune le faisceau d’un laser. On a pu recevoir et détecter, avec le retard de 2,6 s, correspondant aux 780 000 km parcourus, la lumière réfléchie par la surface de l’astre. On aura une idée de la directivité du faisceau quand on saura qu’un observateur placé sur la Lune au point d’impact du faisceau aurait vu la source avec une brillance comparable à celle de l’ampoule d’une lampe de poche. On a également pu moduler deux lasers de fréquences voisines l’un par l’autre, obtenant ainsi une fréquence somme des deux fréquences, ainsi qu’il est coutume de le faire dans les systèmes dits « hétérodynes » en radio. Les deux faisceaux traversaient un cristal de quartz. L’intensité du champ électromagnétique (10000 V/cm pour le champ électrique) y était suffisante pour que les propriétés du matériau cessent d’être linéaires, provoquant ainsi le mélange des fréquences.
- Ceci n’est évidemment qu’un premier pas vers l’utilisation du laser en télécommunications, mais considérant la rapidité avec laquelle cet instrument est passé du laboratoire aux applications industrielles, il est permis de penser qu’on ne tardera pas à voir des réalisaitons dans ce domaine.
- F. R.
- lumière modulée
- Dans sa démonstration, le professeur Siegman a utilisé une lampe à vapeur de mercure, mais il a indiqué que c’est pour la réception des faisceaux étroits et intenses de lumière cohérente émis par les lasers que ces récepteurs promettent d’être intéressants. Un obstacle principal doit être surmonté : l’énergie transportée par le faisceau lumineux issu du laser est énorme; il faut donc trouver des métaux qui puissent supporter ou détourner la chaleur, avant qu’il soit possible de mettre au point des tubes récepteurs pratiques. La lumière étant interceptée par les obstacles matériels, c’est surtout pour les communications dans l’espace que les lasers pourront servir utilement. Ces transmissions par ondes lumineuses porteuses seront en outre insensibles aux orages magnétiques.
- *
- * *
- L’information fait prévoir aussi une utilisation des lasers dans les ordinateurs de grandes dimensions, où les fils et certains éléments pourraient ainsi être remplacés par des « tubes de lumière », ce qui accroîtrait considérablement la rapidité de l’appareil.
- 411
- p.411 - vue 415/551
-
-
-
- L’essor extraordinaire de la sidérurgie japonaise
- Faible producteur d’acier avant la guerre, le Japon s’est hissé depuis quelques années au niveau des grands états sidérurgiques mondiaux. Aucun pays n’enregistre une aussi vertigineuse progression : plus de 300 pour 100 de 1954 à 1961! Autant dire que toutes les données qui datent de plus de quatre ou cinq ans sont ici totalement périmées.
- Avec 8 millions de tonnes en 1954, le Japon se classait loin derrière les Etats-Unis, l’U.R.S.S., la Grande-Bretagne, l’Allemagne fédérale ou la France. Or, il se place en 1961 au 4e rang mondial, après les Etats-Unis, l’U.R.S.S. et l’Allemagne occidentale. Il a dépassé la Grande-Bretagne elle-même. De 26 000 000 de tonnes l’année dernière, la production continuera à monter : on attend 50 millions en 1970.
- Il s’agit naturellement, étant donné ce caractère récent, d’une industrie ultra-moderne : fours électriques, affinage à l’oxygène, automatisation, etc. Comme dans bien d’autres domaines, les Nippons ont imité les procédés les plus perfectionnés de l’Occident.
- Le coke sidérurgique provient des Etats-Unis : la production japonaise de charbon est en effet relativement faible (51 000000 t en 1961) et surtout n’offre que des variétés médiocres de houille : c’est pourtant sur des gisements houillers, ceux du Nord de Kyushu, que s’est fixée la grande industrie avant 1939 (Yawata). Quant au
- Fig. 1. — Dans une aciérie de Yawata.
- p.412 - vue 416/551
-
-
-
- Fig. 2. — Un train de laminoirs à Yawata.
- (Photos aimablement communiquées par l’Ambassade du japon).
- minerai de fer (i 500 000 t en 1961), il est également produit en quantité insuffisante et doit être importé d’Amérique et des pays de l’océan Indien. A part le zinc, il doit en être de même des autres minerais, nécessaires aux ferro-alliages : le nickel, par exemple, vient de Nouvelle-Calédonie. Comme il s’agit d’une sidérurgie « sur l’eau », les frais de transport ne concernent qu’un transport massif par bateaux spécialisés, tout compte fait guère plus onéreux, malgré les distances, que des déplacements avec rupture de charge comme en Europe.
- Six grosses entreprises contrôlent 84 pour 100 de la production sidérurgique totale : la plus importante est la Yawata, qui produit 30 p. 100 de l’acier nippon et emploie 50000 personnes. Elle possède des usines à Yawata (Kyushu), Osaka et Tokyo, et construit près de cette dernière ville, à Kisaraza, une aciérie géante dont la capacité dépassera 10 000 000 de t annuellement. La
- Yawata arrive au 26e rang des firmes mondiales. A la seconde place arrive la Fuji, avec 20 p. 100 de la production totale et plus de 31 000 personnes. Ses établissements sont situés vers Kobé, Tokaï, ainsi qu’à proximité des bassins houillers du Nord de Honshu (Kamaïshi) et de l’île de Hokkaïdo. Viennent ensuite la Nippon, avec 12 p. 100 de la production totale (usines de Tokyo-Yokohama), la Kawasaki (10 p. 100, usines à Tokyo), la Sumitomo (7 p. 100, usine à Kobé), et enfin la Kobé (5 p. 100, usine également à Kobé).
- Le reste de l’acier japonais est produit par une multitude de petites entreprises à caractère souvent marginal, se limitant par force à la fabrication d’aciers courants. Ces entreprises ne subsistent qu’en raison du bas prix de la main-d’œuvre. Beaucoup d’entre elles seront sans nul doute absorbées au cours des prochaines années. Déjà il est fortement question de la fusion entre les deux géants Yawata et Fuji : ainsi serait créé un trust gigantesque dont la capacité atteindrait, en 1970, plus de 25 000000 t d’acier !
- D. Chambry.
- 413
- p.413 - vue 417/551
-
-
-
- A la recherche des Arabes sur les côtes du Nord-Mozambique
- par François Faisan
- Qu’on imagine la surprise de Vasco de Gama, ayant doublé le sud de l’Afrique et venant accoster le Ier mars 1498 l’îlot de Mozambique, lorsqu’il y trouva, installés, des Arabes... Rien que le nom du lieu provenait de celui d’un ancien occupant musulman, Moussa ben Biq.
- Et puis, sur le cap d’en face, à Cabaceira, un certain Xéqué (Sheik) Cacuéja était puissamment fortifié.
- Ne disposant que de trois vaisseaux de 125 tonneaux, bien armés en revanche, le descobridor approcha le Sheik, dont le pouvoir s’étendait sur toutes les côtes, au nom de son maître l’Imam de Mascate, roi de Kilwa. Il pensa l’avoir impressionné et se replia sur l’îlot où, le 3 mars, il reçut sa visite, ses présents et ses assurances de loyalisme.
- Mais quelques jours plus tard, Cacuéja attaquait les galions lusitaniens, mouillés près de son cap. Alors Gama le bombarda et le soumit par force. Et le 29 mars, il accepta le pilote qui lui était offert pour le guider au long des côtes, jusqu’à son point de départ en direction des Indes, son but.
- Le pilote était un traître, chargé de jeter la flotte portugaise dans un guet-apens : il fut châtié, abandonné, et Gama réussit à atteindre les Indes, le 20 mai. Durant son voyage de retour, il repassa à Mozambique le Ier février 1499. Stupéfaction pour Cacuéja, qui le croyait disparu à jamais... et qui mourut, de maladie subite ou d’émotion.
- Son successeur, Ibrahim, renonçant à ruser, s’inclina devant Gama qui ouvrit définitivement la route des Indes à sa patrie.
- Cette victoire était plus méritoire encore qu’en apparence : car elle se produisait après une longue série d’entreprises toutes dirigées vers ce côté oriental de l’Afrique et ignorées des Portugais.
- O
- Des côtes attractives
- Pour commencer par le début, il est probable, sinon certain, que YOphir de Salomon était situé au Monomotapa, à 500 km par piste de Sofala, et que les croisières triennales du roi juif venaient chercher l’or là, au 10e siècle avant J.C.
- Selon la Bible, tout ce qui était rapporté existait dans ces régions, sauf les paons : mais les scribes du texte sacre, qui Fig. 1. — Côtes du Mozambique et établissements arabes de Zanzibar.
- 414
- p.414 - vue 418/551
-
-
-
- ne connaissaient que cet oiseau asiatique capable de faire la roue, purent appliquer son nom à la grande outarde africaine dotée, elle aussi, de cette particularité.
- En tout cas, quelques siècles plus tard, les rois de l’encens sabéens, puis himyarites, envoyèrent certainement des bateaux de ce côté. Ptolémée dit que les Arabes du Sud se procuraient l’écaille, l’ivoire et des esclaves en Afrique orientale au Ier siècle après J.-C. : et les savants du King George V Memorial Muséum de Dar-es-Salam estiment que les Sabéens visitaient les parages « dès 500 avant J.-C. ».
- Vint l’heure des Grecs. Ceux-ci réussirent, au début de l’ère chrétienne, à passer en Mer rouge par la branche tanitique du Nil. Hippalos fut le premier à concurrencer le trafic terrestre, sud-arabe, de l’encens. Et, en 60 après J.-C., l’auteur hellène du Périple de la mer Erythrée (c’était le nom de l’océan Indien) fournit des précisions symptomatiques. Il appelle ausanitiques les rivages qui s’étendent de Zanzibar aux îles Lamou (qu’il nomme Pyralace) : or le royaume d'Autan était l’un des états de l’Arabie du Sud.
- Mais les flottes de Salomon, des Sabéens, des Himyarites, des Grecs n’ont pas dû laisser d’œuvres portuaires. Elles cabotaient. Elles passaient, sans bâtir. D’ailleurs trop de temps s’est écoulé depuis lors, trop d’occupants se sont succédé pour qu’on puisse espérer mettre à jour des vestiges lapidaires. Récemment, un yachtman anglais crut en retrouver dans une île de l’archipel Mafia : c’étaient des ruines arabes.
- L’époque arabe allait en effet venir, après le « sursaut » de l’Hégire. Dès 689, l’île de Patte était aux mains de maho-métans de nationalité indéterminée. En 740, des Persans de Chiraz arrivèrent sur le littoral. Et, selon la Chronique de Kilwa, le sultan Ali bin Hassan et ses fils, eux-mêmes chirazi, s’établirent au 10e siècle dans le pays de Z/y/(Zanzibar ). Vidal de la Blache mentionne (Géographie Universelle') une expédition chirazi lancée en 975 jusqu’au-delà du Zambèze à la recherche de l’or. Qui sait si la mystérieuse architecture de la citadelle de Zimbaboué, construite par des dynasties noires zambéziennes, ne reflète pas des conseils reçus de gens du Golfe Persique ? Les pierres de son couronnement, disposées en V, et la forme de ses tours me rappellent certains châteaux du Baloutchistan.
- Les Arabes de Mascate s’engagèrent à leur tour dans le circuit et, mieux équipés, finirent par s’imposer aux précurseurs persans. On a parlé d’une période de domination économique araho-persane ayant atteint son apogée entre le 12e et le 14e siècles.
- Les dernières années du 15e siècle nous ramènent à Vasco de Gama et marquent l’orée de la période portugaise. Celle-ci ne devait rester plénière que cent ans. Les rivalités anglaises, hollandaises, les ponctions de colonisateurs faites par Lisbonne au profit du Brésil, enfin le réveil de la puissance arabe de Zanzibar exercèreht peu à peu leurs effets. Et les 17e, 18e et même le 190 siècle virent rebondir l’activité mahométane.
- C’est d’alors que datent les villes mortes d’Au Gsarvin en Somalie, de Merka el Koua dans l’archipel Mafia, où fleurit la civilisation souahili (mot arabe qui désignait tout ce qui avait trait aux côtes orientales d’Afrique). Les archéologues anglais ont beaucoup travaillé. En plus des cités que je viens d’énumérer, ils en ont étudié de plus anciennes, de la première apogée musulmane : à Mogadis-cio, Mombassa, Kilwa, Songo Mnara, Gédi, Bandérini
- Fig. 2. — Bateaux à voiles des côtes du Mozambique.
- (mosquée du 15e siècle), Kaolé (mosquée de 1450), Mbwini (mosquée et cent tombes) et bien d’autres. Il semble qu’elles aient été habitées par des autochtones devenus musulmans : au 14e siècle, le voyageur IbnBatouta notait, à propos des gens de Kilwa, qu’ils étaient « noirs de jais » et avaient le « visage balafré ».
- Mais on n’avait pas encore poussé de recherches aux côtes du Mozambique. Aussi, à la fin de l’été 1959, arrivant à l’Océan Indien au terme d’une longue expédition menée à partir du lac Nyassa, je décide d’engager des prospections.
- Autour de Mozambique
- Avec un voilier piloté par des Makoua, je cingle vers Cabaceira où, on s’en souvient, résidait le Sheik Cacuéja lorsque Gama arriva. Des baleines, venues folâtrer en eaux basses, chaudes, nous accompagnent à moins de trente mètres. Quand elles plongent, leurs queues se dressent au-dessus du flot comme des arbres biscornus. Des algues splendides, des poissons multicolores enchantent le décor sous-marin. L’Océan se retire malheureusement loin des rivages, qui sont en pente imperceptible : et devant ancrer
- 415
- p.415 - vue 419/551
-
-
-
- Fig. 3. — Holothuries séchant au soleil. Les lunettes, au premier plan, donnent l’échelle.
- Fig. 4. — Citadelle arabe à Cabaceira.
- très au large, nous pataugeons en subissant les piqûres des oursins.
- Non moins désagréables au pied, ces molles holothuries (macajojo) : échinodermes à l’aspect de grosses bananes, qui se raidissent si on les empoigne et lâchent un long jet d’eau. Les pêcheurs en récoltent à profusion, les calcinent au soleil, les réduisent en poudre, et les vendent en cet état aux commerçants chinois, à destination des vieillards «fatigués» d’Extrême-Orient (fig. 3).
- Un indigène me guide sous la splendide cocoteraie de Cabaceira. Il est musulman, et ma curiosité pour les ruines islamiques le flatte. Hélas, la première mosquée qu’il me montre n’a conservé que son rectangle de murs, sa belle frise (à listel, cavet droit, platebande et baguette superposés), quelques baies ogivales, et six cases de prières. De la seconde, rien ne reste ! Du cimetière non plus. D’un château fort appelé China, parce qu’une factorerie chinoise s’y est nichée, seule l’enceinte subsiste. Mais une seconde citadelle demeure impressionnante, malgré ses destructions (fig- 4)-
- Tout l’intérieur est rasé; en revanche, les remparts gardent leur décoration architecturale. Dés pyramidaux, œilletons, étonnants contreforts externes. Les tours d’angle veillent toujours. Quoique rien ne permette une attestation infaillible, de sérieuses présomptions me donnent à croire que ce fut la résidence de Cacuéja, ébranlée par les boulets de Gama. Une admirable église, Notre-Dame des Remèdes, de 1540, avoisine ces ruines.
- Je gagne ensuite un autre point de la côte où les indices manquent même à des suppositions ! C’est Coulamo. Une seule certitude : des Arabes ont occupé le lieu à une époque proche de celle de Cacuéja. Peut-être y furent-ils attirés
- p.416 - vue 420/551
-
-
-
- par un littoral favorable à la création de salines, industrie dans laquelle ils ont toujours excellé. L’exploitation de celles-ci continue et, non loin derrière elles, se dresse une noble construction.
- Mêmes dés, mêmes œilletons qu’à Cabaceira et, en plus, un fronton à arcs infléchis. C’était une mosquée, à en juger par la niche du mollah de la grande salle. A l’extérieur, des tombes en pierres monolithes (contrairement aux coraux et mortier de toutes les constructions arabes d’Afrique orientale) (fig. 6). La plus belle sous un édicule où je photographie une inscription récente que le professeur David-Weill a bien voulu me traduire : « Culamo Musse /, mort le 13 du premier rabia 1332 (1914)». Ces quelques mots honorent la mémoire d’un Arabe ou d’un Noir enterré, il y a une cinquantaine d’années, à côté des vieux mausolées (%• 5)-
- D’Ibo et Quirimba à Ouamisi
- Quirimba, qui joua le rôle de capitale jusqu’en 1752, et sa riche voisine Ibo furent jadis très importantes, très occupées, et ne me réservent qu’une visite de ruines portugaises, d’ailleurs fort émouvantes. Je ne m’attarde pas dans ces eaux.
- Plus au nord, à Moçimbao de Praïa, qu’un cyclone allait raser trois mois après mon séjour, je frète un beau voilier dont l’équipage de Quimoëne est imprégné des plus pures traditions de la marine arabe. J’admire son adresse dans une violente tempête, comme dans les difficultés quotidiennes. Souvent, les fonds sont bas et l’abondancë des bancs corallifères rend les accostages périlleux par grand
- Fig. j. — Inscription funéraire à Coulamo.
- vent. Parfois, au contraire, nous sommes immobilisés par des calmes : alors les voiliers de pêche qui nous entourent mettent à l’eau leurs pirogues à balancier, de très ancienne inspiration malaise.
- Car, il y a plus de mille ans, les Malais fréquentèrent le Mozambique à partir de Madagascar et l’introduction du cocotier leur est parfois attribuée. En outre, un livre chinois daté de 860 après J.-C. dénote une pratique de plusieurs siècles du Tanganyika : il est indubitable que l’Extrême-Orient commerça de bonne heure ici, échangeant ses porcelaines contre l’or. Les influences ethniques d’Asie se sont donc conjuguées avec celles des Arabes pour affiner
- Fig. 6 et 7. — A Coulamo : tombes (à gauche)-, niche de prières à la mosquée (à droite).
- p.417 - vue 421/551
-
-
-
- Fig. 8. — Femme quimoëne de l’Ile d’Ouamisi, au visage enduit d’une pâte blanche.
- Fig. p. — Le vieil indigène d’Oumbouisi auprès du mystérieux « caisson».
- les types humains jusque dans le hinterland, comme je le constatai durant mon safari.
- Les rares habitants des îles où j’atterris en ont eux aussi bénéficié. Hommes élancés, jolies filles auxquelles la hantise de n’être pas blanches suggère une mode curieuse : elles s’enduisent le visage d’une pâte calcaire diluée à la sève de tf shirro (fig. 8).
- Personne n’est revenu dans l’archipel depuis les premiers conquistadores, qui y demeurèrent longtemps (ici, jusqu’au 19e siècle) avant d’oser prendre pied sur un continent particulièrement hostile. A défaut encore de ruines arabes, ce sont les leurs que je retrouve à Ouamisi, sous l’étau de la végétation : une ancienne église, un castel fortifié, avec ses baies à banquettes, un baptistère et deux puits.
- Découverte sur le cap Delgado
- Mais c’est à terre que la « vraie» chance me guette...
- Le 25 septembre 1959, avec un jeune compagnon portugais, Silva, et un excellent interprète noir, j’arrive à la cocoteraie d’Oumbouisi, sur le cap Delgado. Une petite population Makondé, convertie à l’Islam de longue date, vit paisiblement des noix et de la pêche. Les cases, quadran-gulaires, sont bâties de branches talochées d’argile. Les hommes présents réparent les filets, jouent au bao (boulier) ou ne font rien. Les femmes ne manquent pas de charme.
- La plage échelonne au large des coraux tarabiscotés, et dès que l’on quitte la lisière des arbres, une violente réverbération brouille la vue. Mais à dix mètres de l’eau, je
- p.418 - vue 422/551
-
-
-
- remarque un bloc de deux ou trois mètres cubes, complètement isolé. Il n’a l’air de rien. Il peut passer inaperçu... et pourtant, il «me dit quelque chose »... M’étant transporté jusqu’à lui, je découvre une construction de moellons madré-poriques, liés au mortier (fig. 9).
- Le « plat aux soleils ». — Les côtés sont enduits de chaux. Le dessus, brut, inégal, déborde, comme s’il avait fait partie d’un ancien plancher. Un plancher sur le toit d’un ouvrage aussi surbaissé ?
- Mais un étroit orifice existe au ras du sable, où je m’introduis de justesse. Sortant de l’aveuglante lumière, j’ai besoin d’une minute d’adaptation à l’obscurité. Intérieur cimenté à l’exception du sol, qui a l’aspect d’une matière poreuse. Mon attention se fixe à la voûte, légèrement concave, et surtout à une assiette scellée en son milieu : le centre a éclaté, la bordure subsiste, intacte, ornée de soleils bleus (fig. 10).
- ///
- Ornementation du « plat aux soleils » des Sultans d’Oman, découvert dans la citerne d’Oumbouisi.
- je reconnais /’« astern pattern plate», le « plat aux soleils» typique des établissements mahométans du 18e et du 19e siècles d’Afrique Orientale, et maintes fois trouvé au Tanganyika. L’engouement des navigateurs d’Oman pour cette faïence chinoise était tel qu’ils l’incrustaient dans leurs palais, leurs mosquées, leurs tombes. L’Europe finit par la copier à leur intention. Ici, la finesse de la pâte désigne une fabrication d’origine.
- je viens d’identifier un vestige de ruines arabes. Le moellonnage en coraux, identique à ceux de l’archipel Mafia, était déjà symptomatique : le plat aux soleils établit la certitude. Mais quel pouvait être l’usage de ce blockhaus, seul sauvé ?
- J’appelle les autochtones attelés à mes pas. Le chef reste bouche bée devant mes questions.
- — Tu es trop jeune, dis-je, pour connaître le passé... Il faudrait que tu ailles me chercher un vieillard : le plus âgé des vieillards d’Oumbouisi.
- Je me glisse encore une fois dans le caveau, pour en prendre les mesures internes. Longueur : 1,80 m; largeur : 0,90 m; hauteur : 1,05 m. Un corps y tiendrait juste, témoin... le mien. Les tombes du Tanganyika ont de petites portes
- comme celle-ci. Elles sont décorées d’astern pattern plates... (La ressemblance est surtout frappante avec les tombes corail-mortier de Kaolé, près de Bagamayo). Alors, pourquoi ne serais-je pas dans une tombe, vide ?
- « Sultan Moênendi». — Le vétéran requis nous rejoint sous la hutte où, ayant pris un repas frugal, je déguste le contenu de noix- de coco abattues à l’instant même. Il s’asseoit entre nous et le boy interprète.
- — D’où provient, à ton avis, la cellule maçonnée de la plage ?
- — Ah ! elle est bien ancienne...
- — Certes. Mais encore ?
- — Cela se passait du temps de mon arrière-grand-père...
- Calcul rapide à partir de son âge à lui : nous remontons
- environ à 1825. Se sentant écouté avec intérêt, il n’en met que plus de lenteur à continuer :
- — A ce moment arriva un sultan blanc...
- — Blanc : entends-tu « arabe » ?
- — Oui. Il fit édifier une résidence ici, afin de fonder commerce. Mais mon père, qui tenait ces choses de son aïeul, m’a dit qu’il repartit dès que le travail fut terminé, et qu’un sultan noir le remplaça.
- — De quelle race ?
- — Sultan Moênendi était makondé. Son nom est célèbre parmi nous...
- — Et à quoi dut-il sa célébrité ?
- — A l’importance qu’il donna à Oumbouisi. De nombreux trafics aboutissaient chez nous, des safari venaient de la terre, des bateaux de la mer...
- Je le crois volontiers : l’activité d’un négrier stimule bien d’autres affaires que celles de la traite ! Sous leur houlette, une côte prospère rapidement.
- — Comment tout cela cessa-t-il, un beau jour ?
- — Mon grand-père vivait encore : Moênendi partit... Aucun remplaçant ne lui succéda.
- On le devine sans peine : en 1887, les Portugais prenaient possession de Palma, créant un voisinage inconfortable pour des opérations plutôt illicites.
- — Mais les constructions restèrent, elles : or, on n’en voit plus que ce bloc détaché.
- -— Elles étaient tout près de l’eau : les grandes marées les minèrent, puis les abattirent, et en emportèrent chaque année un peu plus... L’élément dont tu me parles était le plus solide : les tempêtes se sont acharnées en vain cohtre lui. Quand j’étais petit, il était encore debout : depuis lors, il fut culbuté deux fois, si bien qu’il a maintenant la tête en bas...
- — Vraiment ? Viens l’examiner avec moi.
- Il lance un coup d’œil hostile au soleil, toujours près du zénith, et me suit sans enthousiasme. Appuyé à son épaule, j’embrasse de nouveau du regard le mystérieux caisson.
- — Ainsi, m’as-tu dit, il serait à l’envers ?
- — Oui. La première fois, les vagues l’ont retourné à moitié, la seconde fois complètement. Et maintenant, sa partie supérieure est enfouie sous le sable.
- En creusant un peu, je rencontre immédiatement un bandeau de pierre douce, blanche, sans joints, tout à fait différente des moellons de coraux. C’est du calcaire taillé, ressemblant assez à l’albâtre. A bout de bras, je n’arrive pas à glisser la main au-dessous.
- — Profond, n’est-ce pas ? fait le vieillard, qui m’indique, par gestes, une dimension équivalant à quatre vingts centi-
- 419
- p.419 - vue 423/551
-
-
-
- mètres, et d’ajouter : « Je le sais parce qu’enfant, je jouais dedans ».
- — Dedans ?
- — Oui : défait un bassin à ciel ouvert.
- Et de m’en fournir une preuve : juste à l’endroit où j’ai foui, il me montre un bouchon de fer doux obturant un canal à la naissance du cadre calcaire :
- — Vois la vidange ! déclare-t-il.
- Je repasse le buste par la petite échancrure et tâche de reconsidérer les choses. Le sol poreux aurait donc été en haut sous le couronnement calcaire. Et la voûte actuelle en bas, en guise de cuvette, avec l’astern pattern plate pour décoration de fond (fig. u). Je ressors la tête :
- — Jadis, tu voyais bien l’assiette à la partie inférieure ?
- — Je t’en donne ma parole...
- Son ton de sincérité est indubitable. La conclusion à laquelle j’arrive réfute entièrement ma première impression. Le bloc aurait été un réservoir à deux étages. Une auge calcaire recueillait la pluie. Son contenu filtrait par le tablier perméable et tombait dans la citerne proprement dite, décorée d’une belle faïence, à l’abri de l’évaporation. L’orifice, aujourd’hui à ras de sable, était situé au-dessus du liquide, et permettait de prendre la boisson fraîche.
- dement le sable, alentour, mériteraient que l’on ouvrît quelques tranchées.
- L’essentiel, c’est d’avoir localisé pour la première fois une ancienne base arabe sur ce littoral, où jamais un archéologue ne se promena... Et d’avoir découvert la délégation de pouvoirs d’un sultan noir, successeur de l’Arabe. La révélation de Moênendi et de son comptoir a bien plus d’intérêt que la juste étude de sa citerne. A la réflexion, ce récipient aurait aussi bien emmagasiné de la liqueur de noix de coco... Ou du vin de palme... Ou de l’huile... Ma foi, pourquoi l’une de ces hypothèses gratuites ne recèlerait-elle pas la vérité, aux temps de Moênendi ?
- Le vieillard est heureux que nous ayons apprécié une relique makondé et se félicite d’avoir été à la hauteur de mes questions. Je le gratifie d’une pièce et lui demande encore :
- — Le sultan blanc, le premier arrivant, venait-il d’Oman ?
- Il me fait répéter et hoche la tête négativement. Bonne
- note : écartant les fausses complaisances, il ne parle que de ce qu’il sait. Il ignore ce qu’est Oman : il le manifeste. Je risque alors :
- — Ou de Mascate ? (la capitale de ce pays).
- Le visage ridé s’éclaire :
- — Mais oui, c’est bien cela... Il était originaire de Mascate.
- Fig. II. — Culbutages successifs du caisson selon le vieil indigène d’Oumbouisi.
- p, astern pattern plate (plat aux soleils); v, trou de vidange, toujours visible.
- Position actuelle
- w/mmi
- Océan
- Thèse plausible. Les puits de la presqu’île ne valent rien, je m’en suis rendu compte en buvant sous la hutte. Moênendi a pu s’offrir le luxe d’une cave de deux mètres cubes de manne céleste. Cave bien faite. La qualité de sa maçonnerie la prédisposait à triompher seule de l’océan. En général les constructions arabes des côtes ou des îles africaines n’étaient pas aussi fortes : livrées sans entretien au fouet des vagues, elles devaient céder et disparaître dès que lâcheraient leurs fondations, dont on voit ici les affleurements, alentour.
- Je suis bien obligé de m’en tenir à la version déduite des dires du bonhomme. En effet, n’ayant pas sollicité, à Lourenço Marquès, une autorisation de fouilles —-m’attendais-je à en avoir besoin ? — je ne veux pas risquer de tout ébranler en bouleversant le terrain. Les indigènes n’ont d’ailleurs pas l’outillage nécessaire. Je laisse même l’assiette, ou ce qu’il en reste, en place. Mais les ruines des bâtiments qui englobèrent la citerne et percent timi-
- Mon grand-père nous l’avait souvent précisé.
- Avec les indigènes, il faut toujours chercher « le bon bout» d’un interrogatoire... Que l’on m’excuse, d’ailleurs, d’avoir narré cette découverte par le détail, simplement pour montrer comment, du hasard et d’un peu d’attention, peut résulter une assez importante trouvaille.
- *
- * *
- Le fruit de ces reconnaissances doit être ajouté sans commentaires prématurés aux relevés déjà exécutés au Tanganyika, pour Compléter la carte des anciennes échelles musulmanes. Souhaitons qu’il soit un jour possible d’étudier les bibliothèques encore interdites (à San’a, au Yémen, où à Habban, en Hadramaout, voire en Oman), et d’éclairer l’histoire de ces siècles d’intense rayonnement arabe.
- François Bals an.
- 420
- p.420 - vue 424/551
-
-
-
- Le projet Westford (aiguilles satellites) n’a pas été abandonné
- On se souvient qu’en octobre 1961, malgré d’énergiques protestations des milieux scientifiques internationaux, surtout des radioastronomes, l’Armée de l’Air américaine avait essayé de mettre sur orbite autour de la Terre une ceinture de très fines aiguilles (projet Westford) (voir L,a 'Nature-Science Progrès, décembre 1961, p. 533-534). Ces aiguilles, agissant après leur dispersion comme une ionosphère artificielle, devaient réfléchit les ondes radio de longueur d’onde centimétrique et permettre ainsi des communications à longue distance sur ondes ultra-courtes. Depuis les explosions nucléaires à haute altitude, les militaires américains craignent de voir leurs communications radioélectriques totalement perturbées par l’adversaire en cas de conflit, et cette ionosphère artificielle leur paraît du plus grand intérêt, car elle serait peu sujette à ces perturbations.
- L’essai d’octobre 1961 s’était soldé, en définitive, par un échec. Les aiguilles, de 1,77 cm de longueur sur 3 microns d’épaisseur, et au nombre de 350 millions, étaient incluses dans un bloc de naphtalène, qui devait tourner sur lui-même de façon à éjecter les aiguilles le long de sa trajectoire circulaire, à mesure que le naphtalène se vaporisait. Les techniciens pensent que le bloc ne tournait pas assez rapidement, ce qui fait que les aiguilles, au lieu de se disperser, se sont éparpillées seulement en paquets qui ont finalement pu être repérés par radar, après de multiples essais infructueux.
- Munie de ces informations, l’Armée de l’Air a préparé de nouvelles expériences en améliorant la technique. Un nouveau mécanisme plus efficace est prévu pour impartir à l’ensemble son mouvement de rotation et les aiguilles ne doivent être lâchées que si l’orbite du satellite lanceur est satisfaisante. On munit en outre le satellite d’un système de télémesure qui permet de le repérer en cas d’échec. Un tel système aurait rendu de grands services lors de la première expérience pour faciliter la recherche de paquets d’aiguilles par radar.
- Cette expérience n’a pas été annoncée officiellement et ne devait pas l’être avant que l’on soit assuré de son succès. Cette discrétion des services intéressés fait partie d’une nouvelle politique concernant les lancements de satellites à usages militaires, en particulier des satellites Samos de reconnaissance. Le satellite Westford pourrait d’ailleurs être lancé en même temps que l’un de ceux-ci. Les récents lancements militaires américains ont été très brièvement annoncés et aucune information n’a été donnée à leur sujet. Les Etats-Unis se contentent de signaler le lancement dans le catalogue ouvert à cet effet par l’Organisation des Nations Unies en donnant le minimum de renseignements sur l’orbite et en classant le satellite dans l’une des quatre catégories définies par les Nations Unies : étude des techniques de vol spatial; recherche et exploration spatiale; applications pratiques; objets «non fonctionnels».
- Du point de vue de l’administration américaine, cette nouvelle politique présente l’avantage de mieux garder les secrets militaires. Dans le cas du projet Westford elle évite aussi que se reproduise la levée de boucliers du monde scientifique à laquelle on a assisté lors du premier essai. Les astronomes craignent en particulier que leurs observations soient perturbées par l’absorption que ne manquera pas de causer cette nouvelle couche artificiellement ajoutée à l’atmosphère. Les radioastronomes pensent qu’en réfléchissant toutes sortes de signaux parasites provenant de la Terre, elle ne peut manquer de diminuer la sensibilité effective de leurs récepteurs. L’Administration, de son côté, persiste à affirmer que la ceinture d’aiguilles n’aura aucun effet notable sur les observations et disparaîtra en un an environ, repoussée vers la Terre par la pression des radiations solaires. En redescendant dans l’atmosphère les aiguilles doivent être échauffées par le frottement pour finalement se volatiliser. Mais les scientifiques sont-ils résignés à voir leurs observations troublées au moins pendant une longue période ?
- F. R.
- Les ressources minérales du Gabon
- La « Comilog » (Compagnie minière de l’Ogooué) poursuit activement les travaux en vue de la prochaine exploitation du gisement de manganèse de Moanda. Le matériel de concassage et les draglines sont en cours d’assemblage, le téléférique minier s’achève et comprendra 850 pylônes. Quant à la voie ferrée de raccordement au chemin de fer Congo-Océan, elle est déjà posée sur plus de la moitié de sa longueur (150 km sur 290). Les premières expéditions de manganèse étaient attendues dès cette année.
- D’autre part, les prospections se poursuivent en vue de la découverte de pétrole. Depuis 1957, date du début de l’exploitation, le Gabon a produit plus de 3 millions de t brut, correspondant au chargement de 160 bateaux-citernes (dirigés vers la France). Des forages sous-marins viennent d’être entrepris à une dizaine de km de la côte, entre Libreville et Port-Gentil : la durée prévue des recherches doit s’étendre sur une année et demie.
- Source thermale périssable
- En 1915, si l’on en croit les habitants du bassin houiller d’Irkoutsk, un incendie souterrain se déclara dans un des gisements, et ce gisement se trouvait au-dessous d’une nappe aquifère qui alimentait une des sources de la région.
- Depuis lors le feu souterrain a continué à couver : les roches qui le surmontent sont échauffées jusqu’à des températures qui peuvent atteindre 37 à 40 °C. Une vapeur, parfois mêlée de fumée, s’échappe par de nombreuses crevasses.
- Quant à la source, elle débitait en 1954 une eau à 38,5°. Très chargée en calcium et en divers sulfates, elle a été classée pour ses vertus médicinales, notamment contre l’arthritisme. Mais l’incendie souterrain décroît et, à l’été de i960, la température de la source était réduite à 31,6°. On estime que l’extinction du feu va s’accélérer et tout porte à croire que la source, revenue à 4 ou 6°, cessera de figurer parmi les eaux thermales de la Sibérie.
- 421
- p.421 - vue 425/551
-
-
-
- La diffusion incohérente nouvelle méthode d’étude de l’ionosphère à partir du sol
- par H. Carru, R, Benoit et M. Petit
- L’étude de l’environnement terrestre, en particulier de la très haute atmosphère et de sa région ionisée (ionosphère), est un chapitre important de la géophysique. Il est bien connu que c’est par réflexions successives sur l’ionosphère et sur le sol que les ondes de T. S.F. (sauf les ondes très courtes) peuvent faire le tour de la Terre, mais l’intérêt de cette région déborde largement le cadre de la technique des télécommunications. Outre que les résultats de son étude viennent s’intégrer dans les connaissances générales qui intéressent le géophysicien, le météorologiste et l’astronome, le physicien et le physico-chimiste trouvent là un de ces « laboratoires naturels » où des phé-
- nomènes se déroulent dans des conditions impossibles à réaliser dans leurs laboratoires terrestres. C’est pourquoi des moyens considérables sont mis en œuvre pour ces recherches. Aux sondages déjà classiques par le moyen de la réflexion des ondes de T.S.F. sont venues s’ajouter depuis peu les mesures directes enregistrées par les fusées puis par les satellites artificiels (voir La Nature, janvier 1958,
- Fig. 1 — L’antenne construite à Lima (Pérou) par le National Bureau of Standards des Etats-Unis.
- L’antenne carrée de 300 m de côté est constituée de 18 000 éléments demi-onde, dont la figure 2 montre le détail.
- p.422 - vue 426/551
-
-
-
- p. 24-34, et avril i960, p. 146-154). Cependant l’exploration par l’entremise d’ondes radioélectriques émises du sol et non plus réfléchies mais diffusées par l’ionosphère était encore capable de fournir, à moindres frais, une importante contribution. On verra dans le présent article comment on peut mettre à profit pour cela les propriétés des plasmas », ce « quatrième état de la matière » qui occupe aujourd’hui l’activité de tant de physiciens.
- *
- * *
- L’ionosphère est un exemple naturel de ce qu’on appelle « plasma » en physique moderne. Nous avons besoin de nous familiariser avec cette notion car la méthode d’étude décrite ici utilise certaines propriétés particulières de ces-milieux.
- Fig. 2. — Détail de la grande antenne du N.B.S. à Lima.
- (Photos N.B.S. et Instituto Geofisico del Peru, aimablement communiquées par le
- docteur K. L. Bowles).
- Un plasma est un gaz ionisé ou au moins partiellement ionisé. Il est donc constitué de deux sortes de particules chargées, de masses très inégales : d’une part des électrons négatifs, d’autre part des atomes ou molécules auxquels ces électrons ont été arrachés et qui sont par conséquent porteurs de charges positives; il contient en outre, éventuellement, des atomes et molécules neutres.
- Les forces électrostatiques qui s’exercent entre particules chargées permettent à ces particules d’osciller comme le font celles d’un gaz neutre dans les ondes sonores. Ces oscillations, qu’on appelle ondes dans les plasmas, ou plus simplement ondes de plasma, ne doivent pas être confondues
- p.423 - vue 427/551
-
-
-
- avec les ondes électromagnétiques avec lesquelles d’ailleurs elles interagissent. Les ondes de plasma sont de plusieurs types, dont deux interviennent dans l’interprétation de notre expérience, correspondant aux deux catégories de porteurs de charge, électrons et ions positifs : i° les ondes électroniques, ainsi nommées parce qu’elles intéressent les électrons qui, beaucoup plus légers, oscillent pratiquement seuls à une fréquence relativement élevée; z° les orîdes pseudo-sonores dans lesquelles les ions qui ont sensiblement la même masse que les particules neutres accompagnent, à une fréquence plus basse, les électrons dans leur mouvement (ces ondes pseudo-sonores ont une vitesse de propagation comparable à celle du son dans un gaz, d’où leur dénomination).
- Disons tout de suite que l’ionosphère est naturellement le siège de ces ondes de plasma électroniques et pseudosonores, qui peuvent avoir des longueurs d’onde très différentes et des directions arbitraires : aussi leur superposition donne-t-elle à la répartition spatiale des charges l’allure aléatoire qu’on peut attendre de l’agitation thermique plutôt que l’allure ordonnée établie par une seule onde. Les ondes de plasma, en influençant la propagation des ondes radioélectriques, vont permettre une nouvelle investigation fructueuse de l’ionosphère.
- L’étude de l’ionosphère sans satellites ni fusées
- L’ionosphère est la partie de la haute atmosphère qui se trouve ionisée sous l’action des radiations solaires. Cette ionisation est décelable au-dessus de 50 km. Le nombre d’électrons par unité de volume ou densité électronique numérique présente en fonction de l’altitude un maximum vers 300 km (fig. 3). Un diagramme du type de la figure 3 est appelé profil d’ionisation.
- La méthode d’étude de ce milieu qui a été principalement utilisée jusqu’en 1957 est fondée sur la réflexion par l’ionosphère d’une onde radioélectrique émise verticalement à partir du sol. Ce milieu réfléchit les ondes courtes, de l’ordre de quelques dizaines de mètres de longueur d’onde, ce qui permet les communications intercontinentales (dans ce cas l’émission et la réflexion sur l’ionosphère, supposée stratifiée horizontalement, ont lieu à l’oblique); mais il se laisse traverser par les ondes très courtes (moins de 10 m de longueur d’onde). Lorsque la fréquence de l’onde croît, il y a en effet réflexion jusqu’à une fréquence limite qui est définie par la densité électronique du plasma pour un angle donné (comme nous venons de le dire, les sondages classiques travaillent d’ailleurs toujours en incidence normale).
- Comme la densité électronique de l’ionosphère croît en fonction de l’altitude jusqu’à 300 km environ, les ondes de "fréquence croissante sont réfléchies à des niveaux de plus en plus élevés, repérés par le temps que l’onde met à faire l’aller et retour, et la fréquence de l’onde réfléchie permet l’évaluation de la densité électronique locale. Mais une onde capable de franchir le maximum d’ionisation ne pouvant évidemment plus être réfléchie, cette méthode n’est pas capable de fournir des renseignements sur la région de l’ionosphère située au-dessus du maximum, c’est-à-dire au delà de 300 km.
- Cette zone, appelée ionosphère supérieure, peut être par
- contre facilement explorée par les satellites (voir les articles de La Nature déjà cités) qui ont confirmé ce que des expériences moins systématiques avaient déjà suggéré : lorsqu’on s’élève au-dessus du maximum d’ionisation, la densité électronique décroît beaucoup moins vite que la densité des particules neutres ; le rapport de ces deux quantités, appelé degré d’ionisation de l’atmosphère, croît continuellement : l’ionosphère s’étend donc bien au delà du maximum d’ionisation et même son caractère de « plasma » s’accentue notablement. Les observations effectuées par les satellites, dont la trajectoire, aux perturbations près, est fixe par rapport aux étoiles, recouvrent en général une fraction importante du globe en une rotation diurne; il est donc intéressant de les compléter par les observations continues d’un observatoire terrestre. C’est ici qu’intervient notre expérience. Les caractéristiques de l’ionosphère supérieure, jusqu’à plusieurs milliers de kilomètres, sont encore mesurables, en effet, à partir du sol, mais en appliquant un principe différent de celui des sondages classiques. Si les ondes très courtes ne sont pas réfléchies par l’ionosphère, elles y sont en revanche dijfusêes. Mais la diffusion des ondes ne nous ramène en retour qu’une part infime de leur énergie; la mise à profit de ce phénomène, lié comme nous allons le voir aux ondes de plasma, n’a été rendue possible que par la mise au point de tubes très puissants et la construction d’antennes de dimensions énormes.
- -7000
- -6000
- LIMA. PÉROU 25 Avril 19 62
- -3000
- -2500
- -2000
- .1500
- -1000
- -800
- -700
- -600
- _500
- -400
- 103 10* 10 DENSITE ÉLECTRONIQUE [par cm5)
- Fig. 3. — Exemple de profil d’ionisation de l’atmosphère terrestre mesuré avec l’appareillage de la figure 1.
- On voit que la densité électronique présente un maximum qui, ici, se place un peu au-dessous de 300 km d’altitude.
- 424
- p.424 - vue 428/551
-
-
-
- Fig. 4. — Antenne orientable tout site et tout azimut de 45 mètres d’ouverture mise en œuvre par la Stanford University et le Stanford Research Institute près de San Francisco.
- Cette antenne a été édifiée grâce aux fonds des Air Force Cambridge Research Laboratories, Bedford (Massachusetts). Son utilisation est envisagée pour l’étude de la diffusion incohérente dans l’ionosphère.
- {Photo aimablement communiquée par le professeur Von R. Eshleman Stanford University, Stanford, Californie).
- Du bleu du ciel à l’ionosphère
- La méthode met à profit un phénomène de diffusion analogue à celui qui produit le bleu du ciel lorsque la lumière solaire frappe les basses couches (non ionisées) de l’atmosphère. En faisant appel au caractère électromagnétique de l’onde lumineuse, on interprète le bleu du ciel de la façon suivante : le champ électrique de la lumière blanche issue du soleil fait osciller les électrons des atomes de l’atmosphère qui rayonnent une onde à leur tour. Mais ces électrons liés aux atomes diffusent avec une intensité d’autant plus forte que la longueur d’onde est plus courte. Cette diffusion préférentielle des courtes longueurs d’onde explique la couleur bleue du ciel, qui serait blanc si toutes les longueurs d’onde étaient également diffusées et qui serait noir en l’absence de diffusion (cela a été confirmé par les cosmonautes qui ont voyagé au-dessus des basses couches de l’atmosphère et peut se constater, sauf au voisinage de l’horizon, quand on voyage en avion à haute altitude).
- Dans l’expérience que nous allons décrire on utilise une onde radioélectrique et les électrons, au Heu de graviter autour des atomes, sont libres dans l’ionosphère. Cette Hberté des électrons fait que, contrairement' au cas précé-
- dent, toutes les longueurs d’onde sont également diffusées. De plus l’onde est réémise pratiquement à la même fréquence mais avec une très faible amplitude, d’où la nécessité de tubes d’émission très puissants et d’antennes gigantesques.
- Si en décomposant le volume diffusant en un grand nombre de volumes identiques et de dimensions faibles par rapport à la longueur d’onde on trouvait le même nombre d’électrons dans chacun d’eux, les ondes diffusées par ces volumes élémentaires auraient même amplitude, toutes les phases possibles et interféreraient en donnant une puissance totale rigoureusement nulle. En fait, par suite de l’agitation thermique et de la superposition des différentes ondes de plasma, les électrons sont sensiblement répartis au hasard sur une distance de l’ordre de la longueur d’onde : il en résulte une faible puissance diffusée de façon incohérente, ce qualificatif traduisant le fait que les phases des rayonnements des différents électrons sont
- Fig. j. — Le Massachusetts Institude of Technology possède depuis plusieurs années, près de Boston, un radar moins puissant qui a déjà permis de faire plusieurs expériences de ce type.
- L’antenne sera prochainement remplacée par une plus grande pointée verticalement.
- {Photo M.I.T. Lincoln Laboratory, aimablement communiquée par le docteur
- John A. Kessler).
- p.425 - vue 429/551
-
-
-
- densité spectrale
- Fig. 6. — Allure du spectre de la puissance diffusée.
- En abscisses, les fréquences de l’onde radioélectrique diffusée; en ordonnées, la densité spectrale, c’est-à-dire l’énergie diffusée par unité de largeur de bande («/Hz), fi est la fréquence de fonde radio émise du sol. Les ondes électroniques diffusent sur les fréquences fi —fe et/,- +/,. (doublet) et les ondes pseudo-sonores sur les fréquences fi —fs et fi + fs (partie centrale, où les deux raies sont réunies par une autre raie centrée sur fi, due aux fluctuations de température, la présence
- également réparties au hasard. Ainsi, seules les irrégularités locales de la densité électronique peuvent produire une diffusion globale.
- Or nous connaissons de telles irrégularités, celles qui sont liées aux ondes dans les plasmas, que l’on dénomme fluctuations de densité en raison de leur caractère évolutif. Par interaction avec l’onde électromagnétique incidente de fréquence f, ces fluctuations qui varient dans le temps à la fréquence des ondes de plasma (/e pour l’onde électronique, fs pour l’onde pseudo-sonore) donnent naissance à des ondes radioélectriques de fréquences f ± fe et f ± fs\ chacun de ces deux couples de fréquences représente deux « raies » symétriques par rapport à f. On voit donc le spectre complet de l’onde diffusée s’ordonner autour de ces deux paires (f — fe et f fe d’une part; fi — fs et f + fs d’autre part) correspondant aux deux types d’ondes de plasma évoqués.
- L’information apportée par le spectre de diffusion
- Par suite de l’amortissement de ces ondes de plasma, dont le mécanisme est d’ailleurs mal connu, ce qui confère un intérêt théorique à la mesure, la fréquence des ondes radioélectriques diffusées est affectée et les « raies » observées ont une certaine largeur. De ce fait et probablement aussi à cause de l’existence d’une autre raie, centrée sur fi, due aux fluctuations de température, les deux raies les plus proches de f ne sont pas séparées, l’ensemble ayant une forme en « épaules ». La figure 6 donne l’allure générale du spectre diffusé, sous forme schématique.
- La largeur de la partie centrale du spectre diffusé dépend de la vitesse moyenne des ions, donc de la température ainsi que de la masse des ions, puisque cette masse influe elle-même sur la vitesse. Il en résulte que la composition ionique du milieu diffusant, c’est-à-dire les proportions des différents ions (ici principalement l’oxygène mono-atomique 0+, l’oxygène biatomique 02+ et l’oxyde azotique NO+) intervient sur la forme précise du spectre (fig. 7). On pourra, à condition d’étudier à la fois la largeur et la forme précise du spectre, connaître la température et la composition ionique. La figure 7 représente la variation de la
- des deux raies se traduisant simplement par l’aspect « en épaules »). Doublet et partie centrale ne sont pas représentés ici à la même échelle : l’ordonnée maximale du doublet est très variable en fonction des conditions locales et pourri = 1 000 MHz (longueur d’onde : 30 cm) la largeur de la partie centrale sera par exemple de 10 kHz environ dans l’ionosphère, tandis que le doublet sera situé à quelques MHz de /,;.
- densité spectrale
- 1 2 3 4 5
- f- fi —*
- Fig. 7. — Spectre de la puissance diffusée pour différentes compositions ioniques et la même température.
- Les fréquences sont exprimées ici en f— fi (en prenant pour origine la fréquence fi, centre du spectre diffusé). C’est la masse des ions (ici O+ et Q3+) qui influe sur le profil du spectre. La densité spectrale pour le mélange O**" + Oa+ est sensiblement la moyenne de celles des deux composants. Les échelles sont graduées en unités arbitraires.
- densité spectrale pour differentes compositions ioniques, la température étant la même pour toutes les courbes. Dans la figure 8, on a fait correspondre à chaque composition ionique une température differente pour montrer que les effets de ces deux paramètres peuvent se compenser dans une large mesure, et pour donner une idée de la précision d’analyse nécessaire.
- La possibilité d’expérience évoquée ci-dessus présente un intérêt particulier pour l’ionosphère où l’on connaît mal à l’heure" actuelle la température et la composition
- 426
- p.426 - vue 430/551
-
-
-
- densité spectrale
- Fig. S. — Mise en évidence de la différence des spectres diffusés par l’ionosphère pour différentes compositions ioniques à diverses températures.
- Pour le physicien qui veut déduire d’un spectre expérimental température et composition ionique, le choix entre les différents couples température-composition ionique qui donnent la même largeur de spectre ne peut se faire que s’il étudie la forme précise du spectre. Les courbes voisines ont été tracées en traits pleins ou interrompus pour clarifier la présentation. La valeur indiquée sur chaque courbe est la concentration en 0+, le deuxième ion en présence étant Oa+. Les échelles sont graduées en unités arbitraires.
- ionique. La figure 9 donne un exemple de la variation en fonction de l’altitude de la composition mesurée jusque vers 250 km, mais la variation du diagramme de la figure 9 au cours du temps est également très importante. En fait, il n’existe pas actuellement de moyen de mesurer, de façon permanente, température et composition ionique en un point donné de l’ionosphère et les possibilités de la diffusion incohérente dans ce domaine sont particulièrement intéressantes.
- Etant donné que la puissance diffusée est proportionnelle à la densité électronique, une expérience de ce type permet également de mesurer ce paramètre. Par ailleurs, si le plasma diffusant est animé par rapport à la Terre d’un mouvement d’ensemble analogue à un vent, le spectre subit un effet Doppler global dont la mesure donne des indications sur la vitesse du vent.
- Réalisations américaines et projet français
- Pour observer ce phénomène dans l’ionosphère avec des appareils au sol, on doit produire une onde intense au moyen d’un émetteur puissant et d’une grande antenne. Il faut également utiliser une antenne réceptrice à grand gain.
- Les expériences américaines dont nous publions des photographies réduisent le coût du projet en utilisant le même aérien à l’émission et à la réception, c’est-à-dire en opérant en radar. On émet alors pendant un temps très court, 100 microsecondes par exemple, et on reçoit successivement la réponse des différentes altitudes, puisque l’onde électromagnétique, se propageant avec la vitesse de la lumière, 300 000 km/s, met une milliseconde pour aller à 150 km et revenir, 2 ms pour 300 km, etc. Après 100 ms par exemple, on reçoit des couches situées à 15 000 km de la Terre une réponse qui est pratiquement nulle, à cause de la grande distance et de la faible densité électronique; on peut alors émettre une nouvelle impulsion et le cycle recommence.
- Cette méthode est plus compliquée qu’une méthode qui utilise des ondes entretenues pures pour la détermination du spectre. Ces complications portent aussi bien sur la réalisation de l’équipement que sur le dépouillement des données. Le Centre national d’Etudes des Télécommunications a pu envisager de travailler de façon continue grâce à l’offre faite par M. Denisse, qui dirige le Groupe de Radioastronomie de l’Observatoire de Paris-Meudon, d’utiliser à temps partiel le grand radiotélescope de Nançay (Cher) (voir La Nature - Science Progrès, novembre 1961, p. 484-488). Il suffit de construire à environ 300 km de
- altitude km
- ___28 p.100-->L_____47p.100-
- Fig. 9. — Composition ionique à diverses altitudes.
- L’abondance relative d’un ion à une altitude donnée est représentée par la largeur à ce niveau de l’aire qui lui est assignée (l’échelle horizontale est linéaire). Pour obtenir la composition ionique à une altitude donnée, il suffit de couper la figure par un trait horizontal. Ainsi, à 200 km d’altitude, les ions 02+, NO+ et O+ ont des abondances respectives sensiblement égales à 28, 47 et 25 pour xoo.
- 427
- p.427 - vue 431/551
-
-
-
- là une deuxième antenne fixe, émettant verticalement, et d’observer à l’aide de la première la puissance diffusée par les électrons ionosphériques qui sont atteints par ce pinceau vertical. Le volume étudié est alors commun aux lobes des deux antennes (fig. io). La dimension verticale
- 300 km
- Réception
- Emission
- Fig. jo. — Géométrie du projet français. Explications dans le texte.
- de ce volume, qui conditionne la définition en hauteur, est de 5 km à ioo km d’altitude et croît évidemment avec celle-ci (13 km à 300 km d’altitude). La nouvelle antenne aura des dimensions en rapport avec celle de Nançay,
- quoique plus modestes, 20 x 100 m. La fréquence, 950 MHz, a été choisie élevée pour éviter l’influence de l’ionosphère sur la propagation (absorption, réfraction, réflexion...). Il existe jusqu’à cette fréquence des tubes capables de fournir de façon continue une puissance de l’ordre de grandeur nécessaire (100 kW). La puissance diffusée étant malgré tout très faible, on est obligé d’effectuer une intégration dans un récepteur très sensible (grâce à un amplificateur paramétrique) et très stable, semblable à ceux que l’on utilise en radioastronomie. Le temps d’intégration doit bien entendu être suffisamment faible pour que les caractéristiques de l’ionosphère ne changent pas pendant la mesure; il peut cependant atteindre une heure dans certaines circonstances.
- Les performances réalisables dépendent de l’activité solaire qui conditionne les caractéristiques de l’ionosphère et qui est soumise à un cycle de 11 ans. D’autre part la mesure de la densité électronique par la puissance totale est beaucoup plus facile que celle de la température et de la composition ionique tributaire d’une analyse spectrale
- Fig. 11. — Maquette de la grande antenne en cours de construction dans l’île de Porto-Rico par la Cornell University.
- L’antenne proprement dite sera suspendue à environ 130 m au-dessus du miroir sphérique de 300 m d’ouverture par trois câbles qui, après avoir pris appui sur trois tours, viendront s’ancrer dans le sol.
- {Document aimablement conmuniqué par k professeur Thomas E. Talpey, Center for Radio physics and Space Research, Cornell University,Ithaca, N. Y.).
- p.428 - vue 432/551
-
-
-
- Fig. 12. — Etat des travaux à Porto-Rico en septembre 1961.
- On voit la dépression naturelle déjà aménagée en calotte sphérique pour recevoir le grand réflecteur de 300 m d’ouverture et deux des trois tours qui supporteront les câbles (voir la figure 11).
- fine. Au minimum d’activité solaire, que l’on atteindra d’ici un à deux ans, on pourra mesurer avec une précision convenable la densité électronique jusqu’à 1 000 km d’altitude, la température, la composition ionique et les vents jusqu’à 500 km. Au maximum d’activité solaire, ces limites seront portées respectivement à 2 000 et 750 km.
- Radiophare sur un
- Un radiophare toutes directions à système VHF (très haute fréquence) est en cours d’installation au sommet du pic des Montagnes Rocheuses, entre Edmonton et Vancouver, à 2 roo m d’altitude. Le faîte du pic a été dégagé et la station enfouie dans le roc, à l’abri de la neige dont l’épaisseur en hiver atteint 3 à 5 mètres. La construc-
- Cet ensemble au sol présente par rapport au moyen d’étude par fusée l’avantage de pouvoir fonctionner de façon permanente et par rapport aux fusées et satellites celui d’être continuellement accessible. Le coût de l’opération est aussi beaucoup moins élevé, surtout si l’on fait intervenir l’infrastructure de lancement et le réseau mondial de localisation dans le cas des satellites. Enfin cette expérience est jusqu’à présent la seule qui puisse permettre une mesure permanente de la température entre 100 et 200 km d’altitude.
- Henri Carru, René Benoit et Michel Petit.
- pic des Rocheuses
- tion coûtera au total quelque 200 000 dollars canadiens, soit l’équivalent de 1 000 000 NF environ. Ce sera la première station au monde de guidage des avions à être enfouie sous terre. Elle doit servir au guidage des appareils desservant la portion de ligne Vancouver-Edmonton.
- 429
- p.429 - vue 433/551
-
-
-
- Les énormes pertes d’énergie vocale de la glotte aux lèvres et leur rôle physiologique
- par Raoul Husson
- Le fonctionnement aérodynamique du larynx humain et le fonctionnement acoustique des cavités sus-glottiques, pendant la phonation, ont déj à été évoqués dans trois articles de cette revue (juillet 1957, p. 249-257, septembre 1958, p. 337-344, juillet i960, p. 300-307), qui ont exposé le schéma des mécanismes mis en œuvre. Nous ne reviendrons pas sur ces généralités et nous ne considérerons ici que certains aspects nouvellement découverts, qui précisent la nature et le déroulement de ces mécanismes. Les résultats que nous allons relater présentent les fonctions phonatoires laryngées et sus-glottiques sous l’angle nouveau de la dépense d’énergie mécanique nécessitée en vue de créer une énergie de forme un peu différente, de nature vibratoire, portée par une onde sonore progressive aux oreilles des auditeurs. Ils mettent également en évidence les dissipations énormes qui accompagnent ces transformations énergétiques.
- Abordons d’abord la création d’énergie vibratoire au niveau du larynx, qui se fait par un mécanisme relativement simple, maintenant bien connu dans son principe, que l’on peut esquisser comme suit (fig. 1) :
- L’air des alvéoles pulmonaires A se trouve, dans le temps de l’expiration, chassé dans les bronchioles, puis dans les deux bronches, et enfin dans la trachée T. Cet écoulement aérien s’accéléré fortement au passage à travers la fente glottique, située au niveau des cordes vocales CV, fente glottique qui, pendant la phonation, s’ouvre et se ferme rythmiquement avec une fréquence relativement basse, qui est celle de la voix (ce mouvement des cordes vocales est commandé directement par le nerf récurrent; voir La Nature-Science Progrès, avril 1961, p. 152-158).
- Le fonctionnement phonatoire du larynx introduit donc, dans l’écoulement de l’air, des intermittences commandées
- par les ouvertures et les fermetures glottiques. Chaque bouffée d’air, libérée par une ouverture glottique, intéresse un volume de 0,1 à 2 cm3 seulement, mais qui fuit à travers la glotte avec une vitesse élevée. On démontre en effet que cette vitesse de fuite, si on l’assimile à un écoulement à travers un trou percé en paroi mince, atteint aisément 50 mètres/ seconde en voix parlée soutenue et 250 m/s dans le chant théâtral. Chaque bouffée d’air qui sort de la glotte pendant une période phonatoire, malgré son faible volume, peut donc posséder une énergie cinétique considérable, puisque cette énergie, débitée dans le temps d/, a pour valeur :
- e = - dm V2 = - o p S V3 dt,
- 2 2 r
- m
- où d m est la masse expulsée, p sa densité volumique, S la surface de la fente glottique à l’instant considéré, et V la vitesse de fuite au même instant. Si K atteint par exemple 200 m/s, on voit que Vz sera de l’ordre de io12 en unités C.G.S. Le larynx est un mécanisme qui, pendant la phonation, injecte de l’énergie cinétique à hautes doses dans les cavités sus-glottiques.
- Si l’on se borne à ce mécanisme schématique, on voit que l’énergie acoustique créée au-dessus de la glotte est nécessairement égale ou inférieure à l’énergie de détente de l’air comprimé sous la glotte. Cette énergie de détente est en effet la seule source d’énergie qui apparaisse ici.
- C’est sur ce point que de nouvelles recherches ont apporté un complément d’information de grand intérêt (Académie des Sciences, 30 avril 1962). Le fonctionnement phonatoire des cordes vocales offre en effet trois phases bien différentes : elles s’écartent, se rapprochent, puis demeurent accolées. Durant l’accolement, la fuite d’air est stoppée. Durant la
- Fig. 1. — Arbre phono-respiratoire schématisé et redressé dans sa partie terminale.
- A, alvéole pulmonaire; B, bronches; CB, cavité buccale; CV, cordes vocales ; FN, fosses nasales ; OL, orifice labial; ON, orifices narinaires; PD, poumon droit; PG, poumon gauche; Ph, pharynx; RP, région des piliers; R-Ph, rhino-pharynx; T, trachée; VP, voile du palais.
- 430
- p.430 - vue 434/551
-
-
-
- phase d’écartement, elle débute et s’installe. Mais durant la phase de rapprochement a Heu un phénomène de la plus grande importance. Comme ce rapprochement est ultra-rapide (il dure un demi-millième de seconde, et parfois moins, comme le montre la glottographie électrique du professeur Phihppe Fabre), la lame d’air qui fuit à travers la glotte reçoit de ce fait une véritable « quasi-percussion », laquelle élève considérablement sa vitesse de fuite. Le calcul montre que cette vitesse peut s’accroître de plusieurs centaines de mètres par seconde, donc devenir supersonique.
- Ainsi, le mécanisme même des fermetures glottiques crée de l’énergie, en accroissant les vitesses de fuite à travers la glotte durant chaque phase ultra-brève de retour en contact des cordes vocales. Il en résulte que l’énergie acoustique créée au sortir de la glotte peut être largement supérieure, dans certains cas, à l’énergie de détente de l’air comprimé sous la glotte, résultat nouveau et capital.
- La « fourniture » acoustique au sortir du larynx
- Chaque bouffée d’énergie cinétique, dès sa sortie du larynx, amorce une compression qui se propage au sein des masses aériennes sus-glottiques, et cette succession de compressions a nécessairement la fréquence des ouvertures glottiques : c’est ce qui fait que la voix humaine, dans tous les cas, possède cette même fréquence.
- Mais il s’en faut de beaucoup que ces ondes successives de compression soient sinusoïdales. Les vitesses de fuite de l’air à travers la glotte sont toujours trop élevées (même en voix parlée) pour que chaque compression puisse être considérée comme infiniment petite. Chaque onde présente toujours, sur son front, une discontinuité de pression qui avance, comme l’a montré autrefois Hugoniot, avec une vitesse plus élevée que la vitesse du son (du moins tant qu’un amortissement suffisant n’aura pas nivelé cette discontinuité).
- Le son produit au niveau du larynx dans de telles conditions, comme le montre le calcul (qui ne saurait trouver place ici), est un son complexe chargé d’harmoniques aigus. Il comprend donc un fondamental de basse fréquence
- (fréquence des ouvertures glottiques) accompagné d’harmonique s dont les fréquences sont double, triple, etc., décuple, etc. Cette suite d’harmoniques s’étend d’autant plus haut dans l’aigu que la surpression sous-glottique était plus élevée. Cette fourniture laryngée initiale présente des caractéristiques analogues à celles d’un son de sirène à fentes ultra-fines. Ce fait a pu être vérifié directement in vivo par G. Beckmann, de Kiel, en 1956.
- Résumons-nous : le larynx, dans la phonation, crée un son complexe chargé d’harmoniques aigus ; ceux-ci vont se propager du larynx vers les lèvres selon des modalités de propagation assez différentes pour chacun d’eux, et qui relèvent de la théorie des pavillons d’Yves Rocard (1935) (se reporter à notre ouvrage, Physiologie de la phonation, Masson, Paris, 1962).
- Donnons-en deux exemples : si un baryton chante sur mi 3 (326 cycles par seconde), le fondamental admet une longueur d’onde de un mètre environ (espace parcouru durant une période ou cycle). Sur le trajet de la glotte aux lèvres, long de 16 à 20 cm, la phase a donc peu varié, et on peut dire que les masses d’air pharyngo-buccales se sont déplacées « en bloc ». Si l’on envisage le 20e harmonique, encore présent dans les voix puissantes, sa longueur d’onde est 20 fois moindre, donc est voisine de 5 cm. De la glotte aux lèvres, cet harmonique aura présenté trois ou quatre périodes successives, c’est-à-dire qu’il se sera propagé.
- Dans ces deux cas extrêmes, les conditions d’apparition d’un phénomène de résonance sont totalement différentes. C’est là une des causes de la grande complexité de l’étude des phénomènes acoustiques qui ont leur siège, pendant la phonation, au sein du pavillon pharyngo-buccal. Nous allons voir que cette cause n’est pas la seule.
- Les absorptions d’énergie dans les cavités sus-glottiques
- Nous venons de décrire les phénomènes acoustiques qui ont leur siège au sein des cavités sus-glottiques pendant la phonation par le moyen d’une onde de compression (de composition complexe) qui naît au sortir du larynx et se développe vers les orifices de sortie (bouche et narines). Cette description ne comporte aucun mécanisme de dissipa-
- Fig. 2. — Configurations-types de pavillon pha-ryngo-buccal offertes par la radiographie transversale.
- En a : Profil donné par M. Georges Vaillant, première basse chantante de l’Opéra de Paris, émettant la voyelle ou sur Ré 3 à 120 dB. En b : Profil donné par M, Paul Finel, premier ténor de l’Opéra de Paris, émettant la voyelle O (ouvert) sur Ré 3 à 120 dB.
- (Photos Dr A. Djian; collection R. Husson).
- 431
- p.431 - vue 435/551
-
-
-
- tion d’énergie. Est-ce à dire que toute l’énergie cinétique créée à la sortie de la glotte par les jets d’air successifs va se retrouver sous forme d’énergie acoustique à la sortie des lèvres ? Il n’en est rien. En fait, le transfert à travers le pavillon pharyngo-bucço-nasal comporte une absorption d’énergie acoustique, laquelle ne se retrouve plus dans l’onde vocale qui sort de la bouche, et par conséquent est perdue pour l’auditeur.
- La forme irrégulière et tourmentée du pavillon-sus-glottique, mise en évidence par la radiographie (fig. 2), en est l’une des causes essentielles, bien évidente. Mais l’ordre de grandeur de cette absorption ayant toujours été inconnu, il n’en fut jamais ni parlé, ni tenu compte. Ce qui revient à l’avoir supposée négligeable. Or cette absorption, loin d’être négligeable, est au contraire énorme, comme nous allons le voir, et son ordre de grandeur lui confère le caractère d’un phénomène de premier plan.
- Le docteur François Grémy, professeur agrégé de physique médicale (actuellement chargé d’un service à la Salpêtrière), a imaginé, le premier, un moyen commode pour mesurer ces absorptions intra-cavitaires. Il se servit pour cela d’un microphone à sel de Seignette de très petites dimensions (2 X 5 mm), placé au bout d’un fil ou d’une tige recourbée et flexible (fig. 3), tige que l’on peut enfoncer dans la bouche ou les narines d’un sujet pendant que celui-ci émet un son. On explore ainsi assez commodément les niveaux sonores en tous les points des cavités sus-glottiques où il est possible d’introduire le microphone.
- Les premières expériences de François Grémy, faites sur lui-même en 1958, révélèrent que, dans la voix parlée dont l’intensité est celle de la conversation courante, le pavillon pharyngo-buccal absorbe, de la glotte aux lèvres, une moyenne de 10 décibels dans l’émission des voyelles.
- Fig. y. — Schéma du microphone monté à l’extrémité d’une tige fine et flexible servant à l’exploration des cavités pharyngo-bucco-nasales pendant la phonation.
- M, microphone (2X 5 mm). T, tige fine et flexible. F, fil reliant le microphone aux appareils récepteurs et enregistreurs (voir la figure 4 pour l’utilisation de ce dispositif).
- C’est dire qu’il ne sort par la bouche, en microwatts, que io pour 100 de la pression acoustique créée au niveau du larynx (x).
- Devant l’importance de cette absorption (des neuf dixièmes !), nous avons repris ces mesures, par une technique identique, avec l’aide de l’ingénieur Léonid Pimo-now, électro-acousticien réputé, et du docteur Pierre Pouteaux, de décembre 1959 à avril i960. La figure 4 montre un aspect des expériences faites : le docteur Pouteaux introduit le microphone dans la bouche du sujet qui émet les sons, tandis que M. Pimonow, après avoir disposé les relais électriques et préparé les appareils de mesure, lit et note les enregistrements divers réalisés au cours de chaque expérience.
- Bien entendu, l’exploration des cavités sus-glottiques à l’aide d’un microphone permet d’avoir en chaque point, non seulement le niveau sonore global, mais aussi la répartition spectrale des intensités (c’est-à-dire la répartition de
- 1. Rappelons que le bel est une unité logarithmique : x bel (ou xo décibels) représente l’intervalle d’intensité de deux puissances sonores dont le rapport est de 10 à i.
- 432
- p.432 - vue 436/551
-
-
-
- Fig. J- — Schéma des positions des principaux points du pavillon pharyngo-bucco-nasal explorés à l’aide du microphone pendant la phonation.
- l’intensité globale sur les différents harmoniques qui constituent la voix). Pour ne pas compliquer, nous laisserons de côté la composition spectrale des sons et ses variations de la glotte aux lèvres, et nous ne nous occuperons que des niveaux sonores globaux mesurés (pour les détails techniques, voir: C.R. Acad, des Sc., t. 251, pp. 280, 457 et 1 573).
- Nous avons étudié des voyelles chantées émises au maximum de puissance (pour le sujet) sur la fréquence 280-290 herz (fréquence qui permet précisément la réalisation de pressions sous-glottiques très élevées). Les voyelles étudiées furent : a) une voyelle « ouverte » : A légèrement sombré ; b) une voyelle « fermée» : ou; c) une voyelle « nasalisée » : AN; d) un son émis « bouche fermée », sans coloration vocalique.
- Le micro-explorateur fut introduit en trois positions bucco-pharyngées : i° dans le haut pharynx; z° au milieu de la cavité buccale; 30 à l’intérieur du goulot labial (près du plan externe). Il fut introduit en deux positions nasales : 40 à la sortie des choanes dans le rhino-pharynx; 50 à l’intérieur des narines (près du plan externe). Enfin une mesure fut toujours faite à 50 cm de face dans l’axe de l’ouverture buccale du sujet. Ces positions sont reportées sur la figure 5.
- Le sujet a constamment réalisé, durant toutes les expériences faites (réparties sur quatre mois), une intensité remarquablement constante à la sortie du larynx, quelle que soit la voyelle émise, intensité qui peut être fixée à 120 dB (à un ou deux décibels près seulement).
- Ceci posé, les chutes de niveau sonore observées de la glotte aux lèvres et à 50 cm des lèvres devant le sujet furent les suivantes (fig. 6) :
- Glotte Bouche Lèvres A 50 cm
- Voyelle ouverte A ..... X2o dB 1x7 dB 110 dB 94 dB
- Voyelle nasalisée AN 122 114 106 87
- Voyelle fermée ou 121 113 104 82
- Il fut également obtenu les résultats suivants qu’on peut retrouver dans les chiffres indiqués sur la figure 6 :
- Transfert d’énergie vibratoire à travers le palais dur, voile relevé. — Par ébranlement du palais dur, ou trouve un certain niveau sonore à la fois dans le rhino-pharynx et
- dans les fosses nasales, sans que cette énergie vibratoire donne lieu à une propagation vers les narines. Qu’il s’agisse d’une voyelle ouverte ou fermée, le passage de la bouche aux fosses nasales, à travers le palais dur, provoque une absorption de 14 dB (fig. 6, A et ou).
- lD=
- •(ôOcm^
- Voyelle A
- m
- B4
- 50 cm
- Voyelle AN
- S)
- 99
- _y
- 113
- Voyelle ou
- Fig. 6. — Résultats des mesures de niveaux sonores effectuées pendant l’émission d’une voyelle aux environs de Ré 3.
- Les chiffres inscrits dans les cercles donnent les mesures en décibels. Les mesures ont été faites pendant les émissions respectives de la voyelle A (en haut), AN (au milieu), ou (en bas). Explications dans le texte.
- 433
- p.433 - vue 437/551
-
-
-
- Transfert d'énergie vibratoire derrière le voile du palais dans l'émission de la voyelle nasalisée AN. —• On a noté que, lorsque le voile du palais était semi-abaissé pour une nasalisation modérée, le passage derrière le voile absorbait 8 dB, le transit à travers les anfractuosités des fosses nasales absorbait 6 dB, et la sortie par les narines provoquait, devant leurs orifices, une chute de 20 dB environ (fig. 6, AN).
- Transfert d'énergie vibratoire par le ruy dans l'émission d'un son émis bouche fermée. — Dans de telles conditions, le niveau sonore mesuré dans le rhino-pharynx est celui qui était mesuré sous le voile lorsque celui-ci était relevé. Le transit à travers les fosses nasales absorbe 6 dB comme ci-dessus, et la sortie par les narines en absorbe 20 si l’on mesure ce qu’il en reste devant leurs orifices. A 50 cm devant le sujet, la chute est de 14 dB supplémentaires en raison d’une directivité médiocre (fig. 7).
- Fig. y. — Résultats des mesures de niveaux sonores effectuées pendant l’émission d’un son « bouche fermée» aux environs de Ré 3.
- Les chiffres inscrits dans les cercles donnent les mesures en décibels.
- Avant d’étudier la principale conséquence physiologique de telles absorptions, disons d’abord un mot de leurs causes.
- Irrégularités de configuration du pavillon pharyngo-bucco-nasal
- Nous avons dit plus haut que, de toute évidence, la cause essentielle de telles absorptions réside dans la forme tourmentée et particulièrement anfractueuse du pavillon sus-glottique à ses différents étages, sus-vélaire notamment. La figure 2 le montre déjà. Toutefois, la radiographie transversale ne renseigne aucunement sur les irrégularités du pavillon relativement à ses dimensions frontales (de droite à gauche), et, de plus, les contours ombrés des radiographies tendent à faire disparaître les irrégularités fines de ces contours. En vue de lever ces difficultés, nous avons demandé en 1958 à Mme Jelena Krmpotic, directrice de l’Institut d’Anatomie de la Faculté de Médecine de Zagreb, de réaliser des moulages en relief des cavités pharyngo-bucco-nasales sur le cadavre, en vue d’obtenir le détail des plus fines irrégularités du pavillon. Sans insister ici sur la méthode utilisée (injection de cire liquide sous pression; dissolution lente et totale de la tête et du cou pour ne pas altérer le moulage de cire; fabrication d’un moulage de
- plâtre en creux; puis obtention du moulage en relief définitif en bronze coulé), nous montrons (fig. 8) le moulage obtenu, photographié de face, de profil et de dos.
- Si la configuration générale du moulage ne reproduit pas, à proprement parler, une configuration vocalique, elle met en évidence les irrégularités du relief, insoupçonnables sur les clichés radiographiques et quasi-impossible à étudier par une exploration visuelle utilisant les orifices naturels sur le vivant. Le lecteur notera tout particulièrement : i° l’importance des sinus piriformes de chaque côté du larynx, qui jouent certainement un rôle acoustique dans l’émission des voyelles fermées dites « postérieures » : eu (fermé), u, 0 (fermé) et ou; z° le caractère spécialement anfractueux des fosses nasales, qui explique le niveau élevé des absorptions sus-vélaires.
- Les mécanismes d’absorption
- Le premier mécanisme d’absorption d’énergie qui vient à l’esprit est l’entretien de turbulences aérodynamiques sur tout le trajet de la glotte aux lèvres. Elles sont inhérentes au mécanisme des jets glottiques qui créent la pression acoustique elle-même, et des expériences faciles (autrefois réalisées par Gellé, puis par Thooris Van Borre) peuvent mettre leur existence en évidence. Leur calcul utilise un coefficient de viscosité cinématique (dit de Reynolds), bien connu des hydrodynamiciens et qui, dans le cas présent,
- Fig. 8. — Moulages du pavillon pharyngo-bucco-nasal.
- En a, vue de face; en b, de profil; en c, de dos. Explications dans le texte.
- (Photos Labophot).
- 434
- p.434 - vue 438/551
-
-
-
- est au moins cent fois plus élevé que dans le cas d’un écoulement turbulent dans une conduite en parois lisses. L’énergie mécanique ainsi soustraite à la création d’une pression acoustique est donc loin d’être négligeable.
- Des absorptions de nature thermodynamique sont non moins évidentes et non moins importantes. On en aperçoit au moins trois : i° Les compressions réalisées au sortir de la glotte, n’étant pas infiniment petites, élèvent la température des tranches de gaz comprimées, d’où résultent des pertes par création de chaleur, conduction et rayonnement thermiques; z° La température intra-trachéale avoisine 37°, tandis que la température extra-buccale peut descendre à 150 (ou même moins), d’où un flux permanent de chaleur qui se dissipe par les orifices naturels; 30 Les parois internes du pavillon, étant humides, sont le siège d’une évaporation intense (accrue par les turbulences), phénomène fortement endothermique. Des trois causes ci-dessus, la dernière est sans doute de beaucoup la plus importante.
- Les quatre causes énumérées ci-dessus (l’une de viscosité turbulente et les trois autres de nature thermodynamique) ont pu être étudiées par le calcul (Yves Rocard, 1930) : ce calcul montre qu’elles croissent avec la fréquence du son, résultat en désaccord avec l’expérience. L’examen de la transformation progressive des spectres vocaliques, de la glotte aux lèvres (examen que nous avons volontairement laissé de côté dans la présente relation), montre en effet qu’au sein du pavillon, ce sont les harmonique s graves qui sont absorbés au maximum (l’absorption diminuant avec la fréquence, ceci au moins jusqu’à la fréquence de 5 000 c/s environ).
- Conséquence obligatoire : aux causes d’absorption énumérées ci-dessus (qui existent nécessairement) doit se superposer une autre cause, beaucoup plus importante, qui présente son maximum aux fréquences graves. Une seule cause jouit de cette propriété caractéristique : c’est une absorption d'énergie mécanique par les parois du pavillon. On est ainsi amené à penser que l’énergie cinétique injectée dans le pavillon par le jeu des intermittences glottiques s'épuise en grande partie contre les parois du pavillon, à la fois molles et dépourvues d'élasticité.
- Une telle cause de dissipation d’énergie vibratoire, équivalente à une perte de charge progressive tout le long du pavillon, explique à peu près tous les phénomènes dissipatifs observés, mais présente une conséquence redoutable : elle ne permet plus de supposer que la propagation au sein du pavillon pharyngo-bucco-nasal s'effectue par tranches d'ondes planes, hypothèse qui est à la base de la théorie des pavillons. Cette dernière théorie doit donc être retouchée en vue de pouvoir être appliquée en toute rigueur au pavillon pharyngo-bucco-nasal, et c’est là une source nouvelle et très sérieuse de complications.
- Les rôles physiologiques des absorptions d’énergie
- Les absorptions énergétiques au sein du pavillon pharyngo-bucco-nasal dans la phonation sont trop élevées pour être dépourvues de rôles physiologiques. Si 10 pour ïoo dans la parole, et 1 pour 100 seulement dans le chant à moyenne intensité, de l’énergie cinétique créée par le
- larynx est porté par l’onde vocale qui sort de la bouche, quels peuvent être les rôles des 9 dixièmes, ou des 99 centièmes, qui sont absorbés dans le pavillon ?
- Le lecteur de cette revue connaît déjà l’un de ces rôles : les absorptions pariétales alimentent les sensibilités internes si vivement ressenties pendant le chant en certaines régions (palatales notamment) du pavillon (voir La Nature, mars 195 B, p. 90 à 97). Ces sensibilités internes sont le point de départ d’un arc réflexe qui aboutit au larynx lui-même, et provoquent une élévation du tonus d’accolement des cordes vocales qui accroît le mordant de la voix. De plus, remontant jusqu’au cortex cérébral, elles affleurent à la conscience et viennent alimenter le schéma corporel vocal du sujet, par lequel ce dernier apprécie et dirige sa conduite phonatoire. Nous ne nous étendrons pas plus avant sur ce double rôle, déjà cependant si important.
- Il est un autre rôle physiologique exercé par les absorptions, plus caché peut-être, mais plus efficient : toute absorption est équivalente à une impédance qui « freine » la propagation acoustique au sein du pavillon, et qui, automatiquement, est « ramenée » sur le mécanisme créateur d'énergie qui alimente cette propagation. Bien qu’ayant déjà abordé ce point de vue dans La Nature (mai 1959, p. 210 à 2x3), nous croyons devoir y revenir en vue d’expliciter l’un de ses rôles phonatoires, particulièrement important.
- Nous savons qu’une impédance peut être ici assimilée à une résistance mécanique, de type « fluide » et dissipatif : elle diminue les pressions et les amplitudes vibratoires. Comme l’énergie issue des jets glottiques doit en définitive alimenter à la fois l’onde acoustique extra-buccale et toutes les absorptions, on exprime le fait en disant que toutes ces dépenses d’énergie sont ramenées sur le larynx.
- Les acousticiens avaient noté ce phénomène depuis
- Intensité en dB
- Fig. 9. — Exemples de phonogrammes de J. Calvet.
- Ces deux phonogrammes, établis au Laboratoire de Physiologie de la Sorbonne en 1954, sont relatifs à la voyelle é (fermé), donnée respectivement par M. Georges Vaillant, de l’Opéra (à gauche), et pat Mme Rita Gorr, dfe l’Opéra (à droite). En traits pleins, intensité maximale réalisée. En pointillés, intensité minimale.
- 435
- p.435 - vue 439/551
-
-
-
- longtemps. Si un pavillon ramène sur la source sonore une impédance trop faible, l’expérience montre que la source sonore débite peu d’énergie : on dit que la source est trop faiblement chargée. Il en est entièrement de même dans la phonation. Si l’impédance ramenée par le pavillon sur le larynx est trop faible, le sujet ne peut élever l’intensité de sa voix au-dessus d’une certaine limite. Il ne peut en effet élever sa surpression sous-glottique au-dessus d’une certaine valeur, car celle-ci est limitée par un écoulement trans-laryngé de caractère incoercible dont le débit minimal est lié au niveau d’impédance réalisé. Tous les chanteurs connaissent ce phénomène, qui se réalise dans le chant à l’air libre ou dans un local trop peu réverbérant : l’impédance de rayonnement, affaiblie, ne vient plus « charger le larynx», et le sujet a la sensation (désagréable !) que ses poumons se vident de façon incoercible.
- Nous nous trouvons donc en face du résultat suivant, d’une importance capitale en physiologie phonatoire : c’est le taux d’impédance réalisé au niveau du larynx qui, à chaque instant, limite l’intensité vocale maximale que le chantetw peut développer.
- Une illustration de ce fait est donnée par la mesure de l’intensité vocale maximale qu’un sujet peut émettre sur une voyelle fermée donnée (nous excluons le cas des voyelles
- Action imprévue du parasitisme chez certains insectes
- Il existe chez tous les insectes deux très petites glandes placées derrière le cerveau, de chaque côté de l’œsophage; ce sont les corpora allata dont le rôle principal est la production d’une hormone, dite hormone juvénile, qui assure la répétition des caractères larvaires pendant toute la durée de la première partie de l’existence des insectes. Si les corpora allata sont enlevés à de jeunes insectes, il se produit une métamorphose précoce avec formation d’adultes prématurés et nains. Inversement, si on implante les corpora allata d’un jeune insecte à un individu plus âgé, on obtient une larve géante, qui effectue une ou plusieurs mues supplémentaires, sans parvenir toutefois à franchir l’étape qui mène à l’âge adulte. Or, deux entomologistes de la Perdue University (Indiana), MM. F.M. Fisher Jun. et R.S. Sanborn, viennent de publier une note (Nature du 23 juin 1962) indiquant que la présence d’un parasite peut provoquer des effets comparables à ceux de l’hormone juvénile.
- Il s’agit de différentes espèces d’insectes infestées par une Microsporidie (Protozoaire) du genre Nosema chez lesquelles on observe fréquemment des anomalies dans la croissance et la métamorphose. Des chrysalides d’un Saturnide fortement infestées donnent naissance à des adultes qui ont gardé beaucoup des caractères nymphaux. Des larves du petit Coléoptère Ténébrionide Tribolium, également parasitées par le Protozoaire, deviennent plus grandes que les larves normales, présentent une crois-
- ouvertes, un peu différent) en montant la gamme : si, comme le fît le professeur Jean Calvet dès 1951, on porte en ordonnées les intensités mesurées en décibels et en abscisses les fréquences évaluées en intervalles (ce qui constitue deux échelles logarithmiques), on obtient une droite (fig. 9), ce qui montre que la pression acoustique réalisée est proportionnelle à la fréquence mesurée en cycles par seconde. Or le calcul montre précisément que l’impédance translaryngée d’écoulement est sensiblement proportionnelle à la fréquence.
- En conclusion, on peut dire que les absorptions d’énergie acoustique qui s’observent au sein des cavités sus-glottiques pendant la phonation ont un rôle de premier plan dans les mécanismes d’impédance ramenée sur le larynx (par écoulement, par configuration du pavillon, et par rayonnement). Or ceux-ci prennent place, comme nous l’avons vu en des études antérieures, au sein des homéostasie s fonctionnelles, dont la physiologie humaine est si riche, grâce auxquelles les comportements phonatoires humains peuvent réaliser des performances si incroyablement élevées en fréquence et surtout en intensité.
- Raoul Husson,
- Docteur ès-Sciences,
- Lauréat de l’Institut et de l’Académie de Médecine.
- sance rapide, des mues surnuméraires et meurent avant ou au moment de la nymphose. Les mêmes résultats ont été obtenus avec le Tenebrio de la farine, le ver à soie et des blattes. Tous ces insectes ont été infestés avec des Nosema provenant d’un élevage de Tribolium castaneum parasités. Dans tous les cas on observe une croissance rapide de la larve et une inhibition de la métamorphose. Cette évolution anormale ressemble donc beaucoup à ce qu’on constate lorsqu’il y a implantation de corpora allata ou injection d’hormone juvénile.
- Les auteurs ont montré par des expériences que ces troubles ne viennent pas de l’hypersécrétion des corpora allata de l’hôte, mais que c’est bien le Protozoaire qui produit une substance ayant l’activité de l’hormone. D’ailleurs, chez des vers à soie et des blattes auxquels on a enlevé ces glandes, on obtient une mue supplémentaire par infestation par le Nosema. L’action de ce parasite se manifeste donc en l’absence des corpora allata et se substitue à l’hormone sécrétée par ces derniers. Enfin une préparation faite avec des spores de Nosema se montre active sur des chenilles du Saturnide Hyalophora cecropia. Les expériences semblent donc prouver un nouveau mode de pathologie parasitaire consistant en la production en quantité importante d’une substance qui altère le mécanisme normal du contrôle de la croissance et de l’évolution. Cette substance semble voisine des hormones qui existent normalement chez l’hôte. L.C.
- 436
- p.436 - vue 440/551
-
-
-
- L’aile à flèche variable revient à l’ordre du jour
- Les programmes d’intercepteurs à décollage et atterrissage courts imposent aux voilures de ces avions des qualités aérodynamiques incompatibles, pour permettre à la fois le vol supersonique et les évolutions à des vitesses très faibles, quasi nulles. Nous avons déjà parlé de la portance par réaction (La Nature - Science Progrès, juillet 1961, p. 291-294). Dans cette solution, on ne demande pas à l’aile de participer à la sustentation de l’avion aux très faibles vitesses, et l’aile peut être étudiée en tenant compte uniquement de ses qualités pour le vol supersonique. Mais la portance par réaction, si elle est adoptée par certains constructeurs, en particulier Dassault et Lockheed pour les dérivés du Mirage III et du F. 104 à décollage vertical, n’a pas fait l’unanimité, par suite de certains inconvénients, tels que l’accroissement du poids total qui résulte de la multiplication des groupes propulseurs.
- Une autre solution a alors été proposée. Elle consiste à choisir une voilure à configuration géométrique variable, qui puisse s’adapter aussi bien aux basses vitesses qu’aux vitesses supersoniques et le paramètre essentiel dans cette évolution de la forme est la flèche de l’aile.
- L’idée de la flèche variable remonte à 1952, lorsque l’organisme de recherches aéronautiques américain N. A.C. A. passa commande à la firme Bell de l’avion expérimental X-5. Celui-ci effectua de nombreux vols de mise au point avec des flèches comprises entre o et 60 degrés et prouva qu’il était possible d’obtenir avec le même avion un bon comportement aux basses vitesses et au voisinage de la vitesse du son. Lorsque la flèche était réduite, la portion de voilure voisine du fuselage rentrait à l’intérieur de ce dernier en coulissant dans une rainure et en se déplaçant vers l’avant. Mais un tel mécanisme était lourd et aurait réduit les performances d’un avion opérationnel dans une mesure plus grande que l’accroissement de la flèche ne les aurait améliorées. Les essais montrèrent toutefois que la transition entre les flèches maximale et minimale s’effectuait très rapidement en vol sans poser de problèmes d’aérodynamique et de stabilité trop ardus.
- Un autre avion à flèche variable fut construit aux Etats-Unis pour le compte de la Marine, le Grumman F-10 F. La flèche variait seulement entre 12,5° et 42,5°. Le prototype effectua un nombre considérable d’heures de vol qui fournirent de précieux renseignements, mais il ne fut jamais produit en série.
- Les problèmes techniques. — Pour que le dispositif de variation de la flèche ne soit pas trop lourd, il faut que l’on puisse faire tourner l’aile autour d’un simple pivot, sans être obligé de la déplacer en même temps par translation. Or, lorsqu’on fait tourner une aile autour d’un point, le centre de poussée de l’aile, c’est-à-dire le point d’application de la force de portance, se déplace le long de l’axe longitudinal de l’avion, vers l’avant si la flèche diminue et vers l’arrière si la flèche augmente. Si l’augmentation de flèche est trop forte, il peut alors arriver que le centre de poussée vienne se situer en arrière du centre de gravité de l’avion, qui devient alors difficile à contrôler par un empennage classique. Pour que la manœuvrabilité soit bonne, il faut que le centre de gravité se trouve à quelques centimètres seulement en avant du centre de poussée; c’est la raison pour laquelle, jusqu’à présent, on associait à la rotation de l’aile un déplacement longitudinal vers l’avant.
- Une autre possibilité récemment envisagée consiste à ne faire varier la flèche que de la partie extrême de l’aile. La force de portance qui s’exerce sur la portion centrale restant fixe, la variation de la position du centre de poussée est assez peu sensible. La rotation de la demi-aile s’effectue alors sans aucun déplacement longitudinal.
- Pour sa réalisation pratique, l’aile à flèche variable pose, par rapport à l’aile de configuration géométrique fixe, au moins autant de problèmes en surcroît que les trains d’atterrissage escamotables par rapport aux trains d’atterrissage fixes. On peut donc espérer que, comme ces derniers, ils seront résolus à leur tour. En particulier, il y aura un sacrifice à faire sur le poids, mais comme
- Fig. 1. — Projet TF ni, à aile à géométrie variable.
- A gauche, configuration pour les grandes vitesses; à droite, configuration pour les faibles vitesses.
- 437
- p.437 - vue 441/551
-
-
-
- l'accroissement de portance obtenu en réduisant la flèche permet de diminuer la surface de l’aile, le poids se trouve également réduit, et le résultat de ces deux actions contradictoires peut finalement se montrer bénéfique.
- Les projets futurs. — A la solution des parties externes variables se rattache en premier lieu le projet britannique « Swallow» dont il a déjà été question dans cette revue, et qui est un des premiers avions véritablement hypersoniques à avoir été étudiés.
- Mais dans le cadre du développement des intercepteurs actuels, et en particulier le programme N.M.B.R. 3 de l’O.T.A.N. qui vise à la réalisation d’un intercepteur supersonique à décollage vertical, la technique de la flèche variable semble avoir des débouchés intéressants. Parmi la dizaine de constructeurs qui ont soumis des projets, quelques-uns font effectivement appel à une voilure à géométrie variable. Le plus avancé est celui qui a été présenté en commun par la firme hollandaise Fokker et la firme américaine Republic. Il comporte en réalité deux ailes distinctes : d’une part une aile delta de très forte flèche qui reste fixe quel que soit le cas de vol, et d’autre part une aile auxiliaire de surface beaucoup plus faible et de flèche variable qui, en position neutre, c’est-à-dire pour le vol supersonique,
- recouvre partiellement l’aile delta et peut être déployée jusqu’à avoir une flèche pratiquement nulle pour le décollage et l’atterrissage courts. L’avantage de cette solution est que, la voilure principale restant fixe, le centre de poussée se déplace assez peu et qu’il n’est pas nécessaire alors de prévoir un coulissement longitudinal de l’aile mobile, qui est pivotante, ce qui simplifie évidemment le mécanisme de mise en œuvre.
- Mentionnons encore l’aile de l’intercepteur à décollage court en projet aux Etats-Unis, TF-m (fig. 1). De forme presque rectangulaire, elle comprendrait une partie fixe et une partie mobile. Pour lés vitesses élevées, cette dernière serait repliée; par contre, aux faibles vitesses, elle se déploierait suivant une flèche largement ouverte. Les gouvernes de profondeur resteraient solidaires de la partie fixe.
- Il reste à attendre maintenant d’une part le verdict de la commission de l’O.T.A.N. qui juge les projets d’inter-cepteurs, et d’autre part celui des essais en vol. Mais on peut dire d’ores et déjà que les appareils à géométrie variable s’annoncent comme capables de concurrencer, pour les formules à décollage court, les appareils à moteurs de sustentation.
- J. Spincourt.
- Les origines complexes des eaux souterraines
- L’hydrogéologie est une discipline relativement récente, pour laquelle aucun ouvrage d’ensemble n’avait encore été publié en France. Cette lacune est désormais comblée par un important traité que le professeur Schoeller, de la Faculté des Sciences de Bordeaux, a écrit à l’intention des étudiants, des chercheurs scientifiques et des ingénieurs (1).
- On ne saurait trop insister sur l’opportunité de cette publication, alors qu’en de nombreuses régions les recherches de nouvelles ressources en eau s’intensifient et qu’ailleurs des problèmes graves se posent en vue de conserver et d’aménager les ressources existantes. C’est pourquoi d’ailleurs l’approche scientifique de ces problèmes tend à éliminer définitivement les méthodes empiriques et les pratiques, nuancées d’une pseudo-magie, auxquelles se livrent encore les sourciers.
- L’hydrogéologie embrasse un phénomène extrêmement complexe dont on peut prendre déjà conscience en sachant quelles sont, selon M. Schoeller, les différentes catégories d’eaux souterraines en mouvement :
- Les eaux d’infiltration tout d’abord qui, de la surface du sol, rejoignent les nappes en suivant un trajet généralement vertical; les eaux d’écoulement ensuite qui, à la base des nappes, s’orientent selon une composante plus ou moins horizontale; les eaux profondes enfin, qui ne se meuvent qu’avec une extrême lenteur par diffusion à travers les roches poreuses.
- Parfois les eaux profondes ont été totalement empri-
- 1. Les eaux souterraines, par H. Schoeller. i vol. 18,5 X 24,5,642 p., 187 fig. Masson, Paris, 1962. Prix, broché : 95 NF; cart. toile : 105 NF.
- sonnées dans l’écorce terrestre et ne peuvent surgir à nouveau jusqu’à la surface que grâce à une compression des terrains, due à certains mouvements tectoniques. Il se peut aussi qu’aux profondeurs extrêmes (20 à 30 kilomètres), les roches soient métamorphisées. C’est le cas par exemple du calcaire se transformant en marbre et perdant du même coup sa porosité : dès lors, l’eau qui jusqu’alors était incluse dans les pores est chassée et par conséquent remise en circulation. Telle serait l’origine de nombreuses eaux minérales.
- Il existe aussi des eaux libérées par distillation, lorsque les roches sédimentaires qui les emprisonnaient entrent en contact avec le magma incandescent. Et le magma lui-même est plus ou moins saturé d’eau : 5 pour 100, estiment certains auteurs. Si des plissements, des tassements, des surrections de l’écorce interviennent, cette masse visqueuse peut cristalliser et libérer à son tour une eau qui apparaît ainsi pour la première fois dans les couches supérieures. C’est ce que les hydrogéologues appellent l’eau juvénile.
- Il n’est même pas exclu que, pour une petite partie, cette eau juvénile puisse être une eau de synthèse formée par combinaison de l’oxygène de l’air et de l’hydrogène diffus dans le magma.
- Quel est, au total, le volume que représentent les eaux souterraines ? Plusieurs hydrogéologues se sont livrés à des évaluations qui diffèrent sensiblement les unes des autres. Delesse, en 1862, avait calculé que l’écorce terrestre recé-lait autant d’eau que les océans. Estimation manifestement exagérée et que les auteurs des dernières années ont été unanimes à rejeter. On admet cependant que si toutes les eaux souterraines étaient réparties en une couche uniforme
- 438
- p.438 - vue 442/551
-
-
-
- à la surface des continents, elles occuperaient une hauteur de 150 à 200 mètres.
- Mais d’où proviennent, comment se forment en majeure partie les nappes d’eau souterraine ? Sauf les exceptions de l’eau juvénile que nous venons de signaler, il est évident que les nappes résultent d’infiltrations, les unes récentes, les autres anciennes, des eaux superficielles. Cette idée est aujourd’hui communément acceptée, mais il n’en fut pas toujours de même. Plusieurs théoriciens du 193 siècle se sont ralliés à une idée, empruntée à Aristote et à Sénèque, selon laquelle la plupart des sources se formaient par une condensation de l’humidité de l’atmosphère dans les cavités froides de la Terre.
- Les apports par condensation
- Dans un des chapitres de son traité, M. Schoeller examine le rôle partiel (empressons-nous de le dire) que jouent les apports d’éau par condensation.
- Le cas qu’il examine en premier lieu est celui où le sol se trouve directement en contact avec le'brouillard ou les nuages. En plaine, il ne peut s’agir que du brouillard et l’on a pu constater que l’humidification du sol qui en résulte est pratiquement négligeable. Dès qu’on se trouve en montagne, les phénomènes de condensation se présentent de manière toute différente. On voit, pendant de longues périodes, les crêtes enfouies dans les nuages. Si, comme il arrive fréquemment, elles sont constituées de roches poreuses et fissurées, si en outre ces roches sont plus froides que l’air, une importante condensation se produira à leur surface et à l’intérieur de leurs fissures.
- C’est là ce qui explique l’existence de certaines sources de sommets qui parfois continuent à débiter pendant des périodes estivales sèches, alors que les sources sont entièrement taries dans les vallées et sur le flanc des montagnes. L’exemple le plus caractéristique est fourni par une montagne voisine du Cap de Bonne Espérance : les apports d’eau par condensation directe des nuages y atteindraient une hauteur de 3 800 mm, alors que le pluviomètre ne recueille qu’une hauteur d’eau de 250 mm.
- D’autres cas, observés dans les Pyrénées, démontrent que les crêtes boisées ou simplement couvertes de broussailles interceptent davantage l’humidité que les crêtes dénudées. Ce fait ne saurait nous étonner car la végétation contribue, on le sait, à « accrocher » les nuages.
- Le phénomène de condensation le plus connu est certainement la rosée. Avant d’avoir lu les pages que lui consacre M. Schoeller, nous avions eu l’occasion d’entendre l’exposé d’un savant israélien sur les études faites dans son pays en vue d’exploiter au mieux l’apport d’humidité que constitue la rosée. Il semble, à vrai dire, que c’est de nouveau en montagne que cet apport peut avoir quelque valeur. Dans les plaines des zones arides, des mesures assez précises démontrent que la rosée fournit au maximum deux à trois dixièmes de millimètre d’eau et n’imprègne le sol qu’à une profondeur maximale de 5 cm. Cette eau de condensation est destinée à être évaporée à nouveau et le seul avantage qu’elle représente est de retarder l’évaporation du sol et des feuillages.
- C’est pourquoi les chiffres publiés par de nombreux auteurs et faisant ressortir la quantité d’eau déposée en l’espace d’un an par la rosée sur des terres arides sont en grande partie illusoires, même s’ils démontrent que la
- condensation est plus importante que la pluie. Seuls les chiffres journaliers devraient être retenus et M. Schoeller insiste sur la faiblesse et le caractère éphémère de l’apport fourni par la rosée.
- La « respiration » du sol
- D’autres études ont été consacrées à un effet d’absorption hygroscopique, par le sol, de la vapeur d’eau que contient l’atmosphère. Ce phénomène se produirait surtout lorsque le sol est constitué d’éléments fins et contient des substances colloïdales. La surface pourrait ainsi être imprégnée et, dans certaines conditions favorables, l’eau pénétrerait par diffusion jusqu’à des profondeurs de quelques dizaines de centimètres.
- Ce phénomène paraît avoir été largement surestimé, surtout lorsqu’on l’envisage « à sens unique ». En réalité, les hydrogéologues tiennent plutôt compte d’une respiration du sol qui tantôt inhale, tantôt expire l’air atmosphérique.
- Cette respiration du sol peut avoir plusieurs causes :
- Première cause : l’air inclus dans les porosités du sol se dilate par réchauffement ou se contracte par refroidissement. C’est dans ce deuxième cas seulement que se produira une inhalation de l’air atmosphérique. Ceci a lieu nécessairement pendant la nuit, alors que le sol, en voie de refroidissement, est cependant encore plus chaud que l’air inhalé. L’échange sera plus propice à l’évaporation de l’humidité qu’à sa condensation.
- Deuxième cause : la pluie infiltrée s’enfonce par gravité vers les nappes profondes. L’espace libéré par l’eau se remplit aux dépens de l’air atmosphérique. Cette succion se produit surtout au printemps et en été, périodes où les nappes se vident. Et c’est en effet pendant ces périodes que les inhalations par le sol sont de plus grande ampleur et peuvent entraîner une certaine condensation, car l’humidité de l’atmosphère est « pompée » jusqu’à des profondeurs d’une dizaine de mètres où se trouve une zone froide.
- La troisième cause réside dans les variations de la pression atmosphérique. Celle-ci interfère évidemment avec les causes précédentes. Les pressions maximales sont en général constatées vers 10 h et 22 h, les pressions minimales vers 4 h et 16 h. On conçoit donc qu’il puisse y avoir un cycle respiratoire quotidien du sol, déterminé par cette pulsation. Il est à supposer que ce cycle a pour conséquence une condensation alternant avec une évaporation. Le bilan ne saurait donc se solder par aucun apport substantiel.
- Il reste finalement que le sol s’enrichit sans aucun doute en humidité aux dépens de l’atmosphère pendant les mois d’été : phénomène connexe à celui de l’appauvrissement des nappes souterraines. Leur niveau baisse, leur débit également, ce que l’on constate en mesurant celui des sources. Et l’on est bien obligé de reconnaître que l’apport fourni par la condensation est fort loin de compenser cette baisse annuelle des eaux d’infiltration.
- Telle est la conclusion négative formulée par M. Schoeller. Sauf dans les cas exceptionnels des crêtes montagneuses et de certaines pentes boisées à haute altitude, l’eau due à la condensation n’intervient que pour une très faible part dans les ressources hydriques, aussi bien des régions humides que des zones arides. Ce sont les eaux d’infiltration qui jouent, de loin, le rôle principal.
- Y.M.
- 439
- p.439 - vue 443/551
-
-
-
- L’ACTUALITE INSTRUMENTALE
- Pompes doseuses de haute précision
- Une firme anglaise, la Distillers Company Limited, propose une gamme extrêmement large de pompes doseuses dont il n’existait jusqu’alors pas d’équivalent tant en France qu’à l’étranger. Cette firme est représentée dans notre pays, depuis peu, par la Société Comedo à Corbeil-Essonnes (Seine-et-Oise) et il nous semble utile de donner ici un aperçu des modèles d’ores et déjà disponibles.
- Ces pompes se classent, d’une façon générale, en deux catégories : pompes à piston et pompes à diaphragme. Dans les pompes à piston, la variation du débit est obtenue en réglant la course du piston au moyen d’une vis micrométrique. Ce réglage peut être effectué soit en marche, soit à l’arrêt. Dans les pompes à diaphragme, un piston se déplace dans une cavité remplie d’un liquide approprié; les variations de pression qui en résultent actionnent une membrane en contact avec le liquide à pomper. Là encore, des débits variables sont obtenus en réglant la course du piston, mais ce dernier n’est pas en contact avec le liquide pompé. Par suite, ce type de pompe est utile pour la manipulation des liquides corrosifs qui ne sont en contact qu’avec le diaphragme (en téflon) et les valves d’aspiration et de refoulement en acier à 12 pour 100 de chrome (anti-corrosion). En revanche, les pompes à piston permettent, en règle générale, de travailler à des pressions plus élevées que les pompes à diaphragme.
- Pompes type M. — Différents corps de pompe peuvent être adaptés sur l’appareil, ce qui confère à ces pompes des possibilités multiples au point de vue débit. Le tableau ci-dessous donne les capacités maximales ainsi que les pressions correspondantes selon le corps de pompe utilisé :
- Débit Pression maximale de refoulement
- 750 ml/h 160 atmosphères
- x 7x0 — 80 —
- 4750 — 27 —
- 9 300 — *3>5 —
- 19 000 — 6,8 —
- 37300 — 5,4 —
- Précisons que pour chaque corps de pompe, le débit est réglable continûment de o à la valeur indiquée.
- Le type M existe également en pompes à diaphragme avec les mêmes débits, mais la pression de refoulement ne doit pas alors dépasser 6,8 atmosphères jusqu’à 17 l/h, ou 3,4 atmosphères pour 37,3 l/h.
- Par ailleurs, pompes à piston et à diaphragme existent en « duplex » (deux corps de pompes sur le même moteur, qui peuvent être utilisés soit séparément, soit couplés en parallèle). Les deux corps de pompes peuvent éventuellement avoir des capacités maximales différentes et être réglés avec des débits identiques ou différents, ce qui est
- Fig. 1. — Pompe M à piston plongeur (en haut) et pompe M duplex à piston plongeur (en bas).
- particulièrement appréciable pour le mélange de deux liquides en proportions définies.
- Micropompes type S. — Il s’agit là de pompes de haute précision, le moteur d’entraînement étant un moteur synchrone alimenté en 25/30 volts par l’intermédiaire d’un transformateur. Différents corps de pompe interchan-
- 440
- p.440 - vue 444/551
-
-
-
- geables sont disponibles. Le tableau ci-dessous résume les débits maximaux en ml/h pour chaque corps de pompe.
- Débit maximal
- Numéro fréquence : 50 Hz
- 100 ml/h 300 •—
- 1 000 —
- 1 500 —
- Avec les pompes à piston, on peut refouler jusqu’à 2 atmosphères, tandis qu’avec les pompes à diaphragme la pression de refoulement maximale est de 1 atmosphère.
- La micropompe type S peut également être montée en duplex.
- Ces pompes sont peu encombrantes et assez légères (7 kg environ). Par ailleurs, de nombreux accessoires permettent de résoudre de nombreux problèmes particuliers : un réducteur permet, par exemple, de diviser le débit de la pompe dans un rapport 10; on peut adapter sur le corps de pompe une jaquette pour réchauffer ou refroidir le liquide pompé; si l’on souhaite un débit continu, sans oscillation, un atténuateur de pulsation peut être adapté sur le corps de la pompe; enfin la Distillers Company vient d’achever la mise au point d’un « sélecteur de capacités » s’adaptant sur la micropompe type S et qui permet une gamme de capacités encore plus étendue.
- Prenons un exemple : bien qu’une pompe type S normale permette d’obtenir une précision de dosage suffisante, même au niveau le plus bas du micromètre, l’ajustement d’un débit de 5 ml/h par exemple ne serait guère
- Refoulement
- Joint tèflon Piston \
- Aspiration
- 2. — Détail du corps de pompe de la micropompe type S.
- Fig. 3. — Micropompe S à piston plongeur (en haut) et micropompe S duplex avec deux têtes médicales à diaphragme (stérilisables) (en bas).
- aisé sur une pompe de 1 500 ml/h de capacité maximale. Avec un sélecteur de capacité, un tel réglage devient extrêmement simple. Dans l’exemple considéré, il suffirait de le régler à 100 : 1 (la pompe aurait alors un débit maximal de 15 ml/h bien qu’elle soit toujours équipée du corps de pompe de 1 500 ml/h) et d’ajuster le micromètre à 1/3 environ de sa course totale.
- Les sélecteurs de capacités sont fabriqués en série dans les types suivants :
- Sélecteurs à trois positions de réglage :
- Débits par rapport à la capacité ( 1 10 100
- maximale de la pompe en pour 100 ( 3 30 100
- Sélecteurs à quatre positions de réglage :
- Pour 100 du débit maximal j °’^ \ 10 IO°
- ( 1,5 6 30 100
- 1
- 2
- 3
- 4
- 441
- p.441 - vue 445/551
-
-
-
- vis de réglage fin
- AU NEON
- mesure instantanément la puissance crête UHF ou l’énergie traversant un guide d’onde • donne l’image permanente du T.O.S. avec plusieurs tubes • précision jusqu’à 5% • solution économique pour wattmètres et indicateurs de T.O.S. moyenne et grande puissance bande de fréquence = 1000 MHz à 11000 MHz en trois modèles :
- IN 683 2 MW 5 ps
- IN 10 1 MW 4 jj$
- IN 524 50 KW 1 us
- CSF - COMPAGNIE GÉNÉRALE DE TÉLÉGRAPHIE SANS FIL
- VENTE EN FRANCE . CSF - département tubes électroniques 55, rue Greffulhe - Levallois-Perret (Seine) - Téléphone PER. 34-00 EXPORTATION . CSF - division internationale 79, Boulevard Haussmann - Paris 8e - Téléphone ANJ. 84-60
- 442
- p.442 - vue 446/551
-
-
-
- Fig. 4. — Micropompe S à diaphragme avec sélecteur de capacités.
- Des sélecteurs à rapports différents peuvent être exécutés sur demande.
- Le tableau ci-dessous illustre l’exemple d’une micropompe type S de capacité totale x 000 ml/h travaillant en liaison avec un sélecteur de capacités à trois positions (1, 10 et 100 pour 100) :
- Réglage du sélecteur Réglage du micromètre
- 2468 10
- débits horaires ml
- IOO 200 400 600 800 1 000
- IO 20 40 60 80 IOO
- x 2468 10
- L’intérêt de ce sélecteur est très grand car il augmente considérablement la gamme des débits et permet de passer instantanément d’un débit à l’autre sans aucune opération de montage ni de démontage des têtes. Par ailleurs, il évite à l’utilisateur d’avoir à acheter un grand nombre de corps de pompe de capacités maximales différentes (dont le prix peut être assez élevé surtout s’il s’agit d’alliages spéciaux).
- Le sélecteur de capacités fonctionne sur courant alternatif 25/30 volts. Il peut être éloigné de la pompe dans certaines applications.
- Micropompes DCL. — Cette troisième catégorie de pompes est surtout destinée au refoulement de liquides avec des débits très faibles. Elle n’existe que dans la version pompe à piston. Les débits maximaux en ml/h sont donnés ci-dessous.
- Diamètre du piston (en pouce) A B C
- 1/16 7 40 i75
- 1/8 28 160 700
- 3/16 60 375 1 500
- Enfin, la Distillers Company vient de terminer la mise au point d’une nouvelle micropompe DCL, série 2, qui est commercialisée depuis quelques semaines à peine et qui est conçue pour recevoir jusqu’à six têtes de pompes réglables séparément et travaillant à partir du même moteur.
- Le boîtier principal supporte le moteur et le réducteur. Chaque corps de pompe est susceptible d’être équipé de plongeurs en acier inoxydable de quatre dimensions différentes. Cette pompe est d’un prix très modéré et la possibilité de monter un grand nombre de corps de pompes permet de faire bénéficier les utilisateurs d’une économie importante sur le prix des moteurs d’entraînement.
- Disons pour conclure que ce matériel est d’une fabrication très soignée et présente des qualités de robustesse telles qu’il est possible d’utiliser ces pompes en fonctionnement continu pendant plusieurs mois avec un entretien très réduit.
- R. R.
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'Ëtat — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e — ODE 54-83
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d'Etat. Brevets de Techniciens d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- COMEDO
- Appareils de Mesure et de Contrôle Fournitures Générales pour Laboratoires
- MICROPOMPES DOSEUSES DISTILLERS
- Autres exclusivités
- ÉTUVES, FOURS, BAINS-MARIE BALANCES, CENTRIFUGEUSES AUTOCLAVES STOMA APPAREILS A DISTILLER
- CHAMBRES CLIMATIQUES... AGITATEURS, DÉMINÉRALISATEURS...
- Mesure et contrôle des niveaux, densités, humidités.'
- 20, rue du Champ d'Epreuves, CORBEIL-ESSONNES (S.-et-O.) Tel. 980
- 443
- p.443 - vue 447/551
-
-
-
- Le Ciel en Novembre 1962
- SOLEIL : du Ier novembre au Ier décembre (à oh) sa déclinaison décroît de — à — 2i°4i' et la durée du jour de 9^152™ à 8*133™;
- diamètre app. le ier (à oh) = 32,i6//,8, le 30 (à 24b) = 32,29",5. — LUNE : Phases : P.Q. le 5 à 7I115™, P.L, le xi à 22*14™, D.Q. le 19 à 2*11 o™, N.L. le 27 à 6*13 om ; périgée le 1 o à 14*1, diamètre app. = 3 3'13 " ; apogée le 22 à 16*1, diamètre app. = 29'28". Principales conjonctions : avec Saturne le 4 à 19*1, à o°35/ N; avec Jupiter le 6 à 18*1, à i°i6' S; avec Mars le 18 à 9I1, à oAp)/ S; avec Uranus le 19 à 18*1, à 2°6' N; avec Vénus le 25 à io*1, à N; avec Neptune le 25 à 12*1, à
- 3°24/ N; avec Mercure le 27 à 7*1, à 305' N. Principales occultations : le 4, de Saturne (mag. 0,8) immersion à iç)hi8m,i et émersion à I9h57mî41 Ie 6, de 50 Verseau (mag. 5,9) immersion à 171x38™,8; le 13, de 104 Taureau (mag. 5,0) émersion à 19*17™^; le 16, de 56 Gémeaux (mag. 5,2) émersion à 2*156™,6; le 20, de 53 Lion (mag. 5,3) émersion à 2h47™,2. — PLANÈTES : Mercure, visible encore le matin dans le premier tiers du mois, puis s’efface dans l’aurore; Vénus, réapparaît le matin dans le dernier tiers du mois, se lève le 27 à 51123™, soit 11156™ avant le Soleil; Mars, dans le Cancer puis le Lion, brille dès la fin de la soirée, le 16, diamètre app, 8"2, et mag. 0,5; Jupiter, dans le Verseau, est visible la première moitié de la nuit, le 16, diamètre pol. app. 39,/,o et mag. — 2,0; Saturne, dans le Capricorne, étoile du soir, le 16, diamètre pol. app. 14",6, axes de l’anneau : 36",8 et + 12",3, mag. 0,9 ; Uranus, près de 0 Lion peut se rechercher toute la seconde moitié de la nuit, le 16, position: 10*128™ et + io°22/, diamètre app. 3",8, mag. 5,9; Neptune, dans la Balance, réapparaît un peu le matin à la fin du mois ; Cérès et Vesta, dans le Lion, positions respectives, le ier : 10*124™ et -f- i8°o, 10*145™ et + n'hpj/, le 11 : 101139™ et + i7°i9/, 11*10™ et -f- io°38/, le 21 : 10*152™ et -f- 16045', ith.14™ et + 9°37/, le ier déc. : 11*14™ et + i6°2i', 111127™ et -f 8043', mag. 7,5 et 7,6. — ÉTOILES VARIABLES : minima observables à’AIgol (2™,2-3™,5) le 2 à 2ih38, le 5 à 1811,7, le 20 à 2*1,9, le 22 à 2311,8, le 25 à 20*1,4, le 28 à 17*1,3; minima de j3 Lyre (3™,4-4™,3) le ier à 16*1,0, le 14 à 1411,4, le 27 à 1211,7; maxima de /) Aigle (3™,7-4™,4) le 3 à 10*1,2, le 10 à 1411,5, le 17 à 18*1,7, le 24 à 2211,9; maxima de 6 Céphée 3™,7-4™,6) le ier à 7*1,2, le 6 à 16*1,0, le 12 à 0*1,7, le 17 à 911,5, le 22
- à 1811,3, le 28 à 3*1,1; maximum de R Triangle (5™,7-12™,6) le 26. — TEMPS SIDÉRAL : au méridien de Paris à oh (T.U.) : le ier : 2h48™33s, le 11 : 3h27™59s, le 21 : 4h7m24s, le Ier déc. : 4h46™50s.
- Phénomènes intéressants : Surveiller l’apparition de taches et de facules à la surface du Soleil. — Du 21 au 25, lumière cendrée de la Lune, le matin. — Le 4, on ne manquera pas d’observer l’occultation de Saturne. — On suivra à la jumelle ou dans une petite lunette les mouvements de Cérès et de Vesta, respectivement dans les régions de -y-0 et p'c Lion. — Les deux grosses planètes Jupiter et Saturne sont commodément observables le soir. — Etoiles filantes : du 15 au 20, Leonides (max. le 16), radiant Z Lion; du 17 au 23, Andro-médides, radiant y Andromède.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Amateurs d'ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- 28, rue Serpente, Faris-6®
- Vous aurez à votre disposition une importante Bibliothèque, un Observatoire, des séances mensuelles, cours, conférences, etc... Vous recevrez la revue mensuelle L'ASTRONOMIE Spécimen gratuit et conditions sur demande.
- Permanence au Siège social, tous les jours non fériés de 14 àl7 heures.
- POUR CONSTRUIRE VOUS-MÊMES votre INSTRUMENT achetez l’important ouvrage :
- LA CONSTRUCTION DU TÉLESCOPE D’AMATEUR
- par Jean Texereau,
- Ingénieur du Laboratoire d’Optique de l’Observatoire de Paris.
- 2® édition considérablement augmentée, magnifique volume 16 x 24 de 296 pages, illustré de 156 fig. et IV planches hors texte, sous reliure toile, 25,50 NE franco, réduit à 19,50 NF pour les Membres de la Société, payable à la commande : Ch. Post. Paris 1733.
- Examen médical par infrasons
- On a pris conscience depuis peu du danger que présente l’abus des examens radiologiques. Les rayons X, surtout quand ils atteignent les organes de la génération, augmentent les chances de mutations, qui sont presque toutes défavorables, dans la descendance du sujet. Pour éviter l’emploi des rayons X dans l’examen des femmes enceintes, un médecin de l’Université de Glasgow, le professeur I. Donald, a songé à utiliser les infrasons, c’est-à-dire les ondes acoustiques de basse fréquence, qui se propagent à des vitesses différentes selon les tissus qu’ils traversent et s’y réfléchissent de manière différente. On peut donc obtenir une « image infrasonore », par exemple, du fœtus, et elle est transformée en image lumineuse par un dispositif électronique approprié. On assure qu’elle est aussi satisfaisante pour le médecin qu’une image radiographique.
- Grave menace de fièvre aphteuse
- Un cri d’alarme a été récemment lancé à Rome, au siège de l’Organisation des Nations Unies pour l’Agriculture et l’Alimentation (F.A.O.), par la Commission européenne de la fièvre aphteuse. L’un des virus de la fièvre aphteuse, connu sous le nom de Sat-i, jusqu’ici confiné en Afrique, a gagné le Moyen-Orient où il a pris une rapide extension, notamment en Turquie, où des pertes sévères ont été causées dans les troupeaux de bovins et d’ovins. Le vaccin approprié n’étant disponible qu’en très petites quantités, le passage de l’épidémie en Europe, où existent quelque 350 millions de tètes de bétail, serait catastrophique. Les experts ont établi un projet de cordon sanitaire, sous forme de trois « zones-tampons » dans les Balkans et au Moyen-Orient. La mise en place de ce barrage sanitaire coûterait, estime-t-on, 32500000 nouveaux francs.
- En 1963, Conférence des sciences et techniques dans l’intérêt des régions peu développées
- Une Conférence sur l’application de la science et de la technique dans l’intérêt des régions peu développées est convoquée en principe pour avril 1963 à Genève, sur l’initiative du Comité consultatif scientifique des Nations Unies. Rappelons que ce comité a été à l’origine de deux grandes conférences atomiques tenues à Genève en 1955 et 1958.
- Le domaine déjà vaste exploré à ces deux occasions est dépassé par celui qu’on envisage pour 1963, puisque ce sont toutes les sciences et toutes les techniques qui vont être présentées en mettant l’accord sur les applications, dans un contexte économique et social. Les orga-
- nisateurs ne méconnaissent pas l’extrême ampleur de la tâche entreprise et dont les dimensions sont définies par les éléments suivants : 12 journées de travaux, un millier de participants, plus d’une centaine de pays représentés, condensé ultérieur des travaux sous la forme de 20 gros volumes.
- L’espoir est de dresser un inventaire quasi-encyclopédique des sciences et des techniques que compléterait par la suite un travail de synthèse des expériences récentes et une orientation raisonnée de celles qui devront être conduites, par la suite, dans les régions peu développées.
- 444
- p.444 - vue 448/551
-
-
-
- LES L I V
- Comment poser et résoudre un problème, par G. Polya. Traduit de l’américain par Mme C. Mesnage. : vol. 15 X 21,5, xiv-260 P', 31 %•, 2e édition. Dunod, Paris, 1962. Prix: 14 NF. L’auteur, mathématicien de grande classe, après une longue expérience de la recherche et de l’enseignement, s’est donné à la tâche de conseiller pédagogique et, bien plus, à celle de l’éveil des talents mathématiques. Son livre n’est donc ni un recueil de procédés infaillibles, ni un livre de « recettes », mais une méthode qui répond aussi bien aux vœux des professeurs souhaitant éveiller chez leurs élèves l’aptitude à résoudre les problèmes qu’à ceux des élèves qui désirent développer leurs propres dons. Une vingtaine de problèmes avec l’indication de la méthode de raisonnement à utiliser sont donnés en exemples.
- Cours élémentaire de Mathématiques supérieures, par J. Quinet. 3e édition. Tome I : Compléments d’algèbre. Les dérivées et leurs applications. 1 vol. 16 X 25, xiv-2oz p., 73 fig. Tome II : Développements en série. Calcul des imaginaires. Calcul différentiel et applications.
- 1 vol. 16 X 25, xn-264 p., 42 fig. Tome V : Les équations différentielles et leurs applications.
- 1 vol. 16 X 25, xn-252 p., 64 fig. Bibliothèque de l’Enseignement technique. Dunod, Paris, 1962. Prix, respectivement : 9 NF, 12 NF, 12 NF. Ouvrage devenu classique pour l’enseignement des mathématiques supérieures. L’exposé est d’une grande clarté et comprend un très grand nombre d’exemples et d’applications pratiques. A signaler l’addition dans le premier tome de près de 400 problèmes et exercices à résoudre, dans le tome II de l’application des différentielles aux calculs d’erreurs, des compléments aux différentielles secondes et l’application de la formule de Taylor aux fonctions de plusieurs variables.
- Cours de Mécanique générale, par Henri Cabannes. 1 vol. 16 X 25, XIV-302 p., 98 fig. Collection universitaire de Mathématiques. Dunod, Paris, 1962. Prix, relié : 29 NF.
- Cet ouvrage correspond au cours professé par l’auteur à la Faculté des Sciences de Paris, le point de vue adopté étant celui des mathématiques appliquées. L’emploi des vecteurs et des tenseurs a permis d’énoncer les résultats sous une forme intrinsèque et, autant que possible, l’usage d’axe de coordonnées a été évité. Les matrices sont utilisées pour étudier les systèmes linéaires et pour représenter les transformations linéaires telles que les rotations. L’exposé est centré sur les fondements de la mécanique classique dont les limites sont toutefois mises en évidence par l’expérience de Michelson. Quelques pages sont consacrées aux principes de la relativité restreinte. Enfin, pour se conformer au programme officiel, l’auteur a rédigé deux chapitres portant sur la mécanique des fluides. Quelques problèmes de licence et d’agrégation, les premiers avec leurs solutions.
- Les systèmes linéaires, par J. Garsoux. Tome II : Régimes transitoires. Transformations de Laplace et de Fourier. 1 vol. 16 X 25, vm-302 p., 69 fig., 4 tableaux. Collection de Mathématiques appliquées. Dunod, Paris, 1962. Prix, relié toile sous jaquette : 35 NF.
- Faisant suite au premier tome consacré à l’analyse fréquentielle, cet ouvrage est centré sur les techniques de calcul des systèmes linéaires à paramètres constants, en régime transitoire. Les principaux chapitres sont consacrés à la transformation de Laplace et aux séries et intégrales de Fourier. Le dernier chapitre traite du calcul analogique et illustre, dans le domaine pratique, les développements théoriques qui précèdent.
- Astronomie fondamentale élémentaire, par
- V. Kourganoff, professeur à la Faculté des Sciences de Paris, i.vol, 16,5 X 24,5, 106 p., 91 fig. Masson, Paris, 1961. Prix, broché : 18 NF; cart. toile: 23 NF.
- R E S NO
- Dans ce livre qui traite une partie du programme du certificat d’Astronomie (l’Astrophysique fera l’objet d’un second ouvrage), l’auteur s’est efforcé de « mettre en évidence d’une part la raison physique des principaux phénomènes, d’autre part le rôle fondamental des approximations successives ». Un grand nombre de figures témoigne du souci de fournir des explications concrètes, mais, dit l’auteur, « sa principale ambition est d’apporter un complément de culture scientifique générale en montrant le fascinant processus par lequel l’homme satisfait sa quête d’une description de plus en plus précise et d’une explication de plus en plus synthétique des phénomènes observés ».
- Précis de physique, par Maurice Curie. Tome IL 1 vol. 13,5 X 18,5, 648 p., 502 fig. Collection Euclide. Presses Universitaire de France, Paris 1962. Prix : 24 NF.
- Le deuxième tome de ce Précis de Physique, destiné aux étudiants du P.C.B. et du S.P.C.N., est consacré à la fin du cours d’électricité (électrodynamique, mesures en courant continu, induction et courant alternatif), à l’optique géométrique et aux notions fondamentales sur les ondes, corpuscules et rayonnements. Exposé classique, volontairement concis mais bien au point, où l’auteur ne dédaigne pas d’élargir les horizons du lecteur : enregistrement du son, piles nucléaires, théories d’Einstein, etc. En appendice, on trouve un rappel des notions essentielles de mathématiques indispensables à la bonne compréhension du cours qui précède.
- Précis de Physique générale, par R. Kronig. Tome II : Electricité. Traduit du hollandais sous la direction de M. Y. Bernard, i vol. 16 X 25, x-302 p., 154 fig. Dunod, Paris, 1962. Prix : 26 NF.
- Sous la direction du professeur Kronig, de Delft, plusieurs professeurs hollandais ont élaboré un Traité de Physique dont le niveau correspond sensiblement à celui du second cycle, pour les nombreux étudiants ou chercheurs qui, non physiciens, ont toutefois besoin d’avoir des connaissances solides sur l’ensemble de la physique moderne. Le ior tome traitait de la mécanique physique et de la thermodynamique; ce 2e tome, consacré à l’électricité, a été traduit (et adapté aux programmes français) sous la direction de M. Y. Bernard. Trois parties : électromagnétisme, propriétés électriques de la matière, instruments électriques ; exercices; quelques notices chronologiques.
- La mécanique des fluides et la magnéto-hydrodynamique. Collection du Laboratoire national d’Hydraulique. 1 vol. 16 X 25, 168 p.,
- ------- A NOS LECTEURS -----------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- est à la disposition des lecteurs de LA NATURE - SCIENCE PROGRÈS pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- U V E A U X
- 48 fig., 47 tableaux. Eyrolles, Paris, 1962. Prix : 25 NF.
- La magnétohydrodynamique traite des mouvements de fluides conducteurs dans un champ magnétique. Cette théorie est apparue en astrophysique où elle a permis d’expliquer de façon satisfaisante la stabilité des taches solaires et d’étudier la structure et l’évolution des étoiles. Depuis que les recherches concernant la fusion thermonucléaire contrôlée ont mis l’accent sur la physique des plasmas, la magnétohydrodynamique n’est plus l’apanage exclusif des astrophysiciens et son nom commence à être connu dans des cercles plus étendus. Des applications sont en vue pour la propulsion des véhicules spatiaux et pour la conversion directe de l’énergie cinétique des gaz chauds en énergie électrique. Cet ouvrage présente le compte rendu complet des deux séances de la Société Hydrotechnique de France qui ont été consacrées à ce sujet. Trois communications traitent de la théorie générale, trois de certains écoulements et les deux dernières de l’état actuel des recherches concernant les générateurs magnéto-hydrodynamiques d’électricité.
- Circuits résonnants, par Alexander Schure. Traduit de l’américain par H. Aberdam. i vol. 14 X 22, 92 p., 41 fig. Collection de Technologie électronique. Dunod, Paris, 1962. Prix : 7 NF.
- A partir de notions très élémentaires, l’auteur traite de façon complète la théorie des circuits résonnants : circuits à résonance série, à résonance parallèle, à constantes réparties, circuits résonnants couplés. La description de quelques applications fondamentales illustre, en fin de volume, leur comportement général. Nombreux exercices et problèmes.
- Etude des circuits à courant continu, par Alexander Schure. Traduit de l’américain par H. Aberdam. i vol. 14 X 22, 96 p., 51 fig. Collection de Technologie électronique. Dunod, Paris, 1962. Prix : 7 NF.
- Dans cet ouvrage, rédigé de façon particulièrement claire, l’auteur expose les notions fonda mentales de l’étude des circuits à courant continu. Le niveau est élémentaire, l’appareil mathématique employé restant toujours très simple. Le dernier chapitre, consacré aux circuits complexes et à l’exposé des lois de Kirchhoff, du théorème de Thévenin, du pont de Wheatstone, est le plus intéressant. D’une façon générale, l’auteur a préféré restreindre le nombre des sujets traités pour les exposer avec force détails plutôt que d’aborder un grand nombre de questions d’un intérêt didactique souvent contestable. Nombreux exemples et problèmes dont certains avec solutions. Disons aussi que les parties traitant de sujets spécifiquement anglo-saxons tels que le « circular mil », la jauge des fils AWG et la résistivité en « pieds par circular mil » ont également été traduites avec indication des coefficients de conversion en unités métriques, ceci pour faciliter ultérieurement la lecture des revues et des catalogues anglais et américains.
- Atomic-absorption spectrophotometry, par W. T. Elwell et J.A.F. Gidley. i vol. 14 X 22, viii-102 p., 8 fig. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1961. Prix, relié : 30 sh.
- Le dosage des traces est devenu en analyse le problème fondamental depuis quelques années et si différentes méthodes telles que la polarographie, la fluorescence X, la spectroscopie d’émission, ont apporté à l’analyste une contribution importante, la résolution des problèmes posés reste délicate. On trouvera ici une nouvelle méthode d’analyse qui a vu le jour il y a deux ans seulement; on y mesure l’absorption, dans la vapeur de l’élément à doser, d’une raie caractéristique de cet élément. La méthode n’est donc pas sans lien avec la photo-métrie de flamme qu’elle complète utilement. Ouvrage fort bien fait, toujours très clair. Importante bibliographie.
- 445
- p.445 - vue 449/551
-
-
-
- Analytical Chemistry, édité par Cari E, Crou-THAMEL. Volume 2. I Vol. 15,5 X 23,5, 400 p., nombr. fig. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1961. Prix, relié : 100 sh.
- Série de monographies sur différentes techniques utilisées en chimie analytique : évolution des méthodes de comptage, résonance magnétique, séparation et analyse des éléments transuraniens, extraction liquide-liquide, photométrie de flamme et spectroscopie d’absorption atomique, spectro-photométrie dans l’ultraviolet, le visible et l’infrarouge, analyse au moyen des rayons X et échange d’ions. Dans l’ensemble, les sujets sont correctement traités. Toutefois, répétons inlassablement que la bibliographie, si elle semble complète en ce qui concerne les publications en langue anglaise, présente des lacunes incontestables pour les publications françaises. Il y en a eu pourtant de fondamentales dans plusieurs des domaines traités.
- Titrimetric methods, édité par D.S. Jackson. 1 vol. 16 X 23,5, 185 p., nombr. figures. Plénum Press, New York, 1961. Prix, relié : 7,50 dollars.
- Communications présentées au symposium sur les méthodes titrimétriques qui s’est tenu à Corn-wall, Ontario (Canada) les 8 et 9 mai 1961. Trois parties : la première traite des méthodes électrochimiques et l’on y remarque une importante publication sur un nouveau titrimètre automatique de la Fisher Scientific Company. Deux communications sur les titrages complexomé-triques constituent la 2e partie, tandis que la 3e, la plus importante, est consacrée aux titrages en milieu non aqueux : application aux analyses pharmaceutiques, les alkoxides des bases ammonium qualernaire, nouveaux réactifs basiques forts, etc.
- Report of the Commission on Enzymes of the International Union of Biochemistry.. 1 vol. 16 X 25, 160 p. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1961. Prix, relié : 50 sh.
- Les réactions enzymatiques identifiées ont été décrites en utilisant une terminologie qui n’est pas homogène et qui entretient même certaines confusions (homonymies ou, plus souvent, désignation d’une même enzyme sous plusieurs noms). Afin de remettre en ordre cette nomenclature, l’assemblée générale de l’Union internationale de Biochimie a confié en 1955 à une commission le soin de proposer une classification générale des enzymes et coenzymes. Le résultat des travaux de cette commission constitue le sujet de cet ouvrage : outre une clé pour la nomenclature des réactions enzymatiques, on y trouve une codification des symboles utilisés en cinétique enzymatique et des règles pour la définition des unités d’activité. Souhaitons que cet ouvrage soit universellement consulté : cela économisera aux biochimistes, présents et à venir, beaucoup de temps et d’efforts stériles.
- Mécanique ondulatoire et biologie moléculaire. Réunions d’études et de mises au point, tenues sous la présidence de Louis de Broglie. i vol. 16 x 24, 172 p. Editions de la Revue d’Optique, Paris, 1961. Prix: 18 NF.
- On trouvera dans ce recueil : Mécanisme de quelques réactions dans la chaîne respiratoire (Mme I. Fischer-Hjalmars); Synthèse enzymatique des poiynucléotides (Mme M. Grunberg-Magnago) ; Complexes de transfert de charge dans la catalyse par les enzymes organo-métalliques (Mme A. Goudot); Constitution chimique et activité biologique (D. Bertrand); The energetics of carcinogenesis (R. Mason); La structure et la formation du centre catalytique des estérases (P. Desnuelle) ; Interaction entre hydrocarbures cancérigènes et protéines cellulaires (A. Lacas-sagne); Applications de la mécanique ondulatoire et des radioindicateurs à l’étude de la carcinogenèse (O. Chalvet, Mme P. Daudel, R. Daudel, C. Moser, G. Prodi); Calcul des susceptibilités diamagnétiques (J. Guy); Méthodes de la chimiothérapie (M. Julia); Collection des quanta et action photochimique dans la photosynthèse (J. Lavorel) ; Molécules géantes et semi-conducteurs (L. Brillouin).
- Dialogue avec la Terre, par Hans Cloos. Traduit de l’allemand par Denise Meunier, i vol. 14 x 22, vm-304 p., 19 fig., 38 pl. hors-texte. Collection D’un monde à l’autre, Plon, Paris, 1962. Prix: 16,95 NF<
- Décédé l’an dernier, Hans Cloos a occupé pendant de longues années la chaire de géologie de l’Université de Bonn. Dialogue avec la Terre est une suite de voyages à travers plusieurs continents, où l’auteur a scruté avec une singulière pénétration les multiples régions qui s’offraient à ses regards de géologue et de tectonicien. Grâce à sa maitrise, il a pu restituer sous une forme tantôt poétique, tantôt philosophique, le sens et l’origine des structures connues ou entrevues par lui. La richesse et la beauté du verbe vont de pair avec l’intégrité scientifique des observations recueillies.
- Les volcans d’Auvergne, par A. Rudel. Préface de Haroun Tazieff. i vol. 18,5 x 23,5, 150 p., 24 cartes et dessins, 24 photos hors-texte. Editions Volcans, Clermont-Ferrand, 1962. Prix, relié : 20 NF.
- Ce livre est une sorte de guide scientifique à l’usage des personnes (géologues ou non) qui entreprennent la visite des volcans d’Auvergne. A cet égard, il comble utilement une lacune, car cette sorte de visite est fréquente et perd la plus grande part de son intérêt si l’on ne possède pas un résumé des travaux consacrés à cette magnifique collection de volcans fossiles. Sa richesse est d’ailleurs telle que l’Auvergne, à elle seule, constitue une initiation de choix à la volcanologie et à plusieurs branches maîtresses de la géologie.
- Exploration du Parc national Albert. Mission G. F. de Witte (1933-1935). Fascicule 98 : Calliphoridæ (Diptera Cyclorrapha). 3 e partie : Miltogramminœ, par Fritz Zumpt. i vol. 18,5 X 28, 138 p., 50 fig. Institut des Parcs nationaux du Congo et du Ruanda-Urundi, Bruxelles, 1961. Prix : 280 francs belges.
- Dans ce travail l’auteur termine l’étude des Diptères Calliphorides africains par la sous-famille
- VIENT DE PARAITRE
- METHODES OBJECTIVES D’INTERPRÉTATION DES MESURES
- Précision d’une expérience. Rectification des mesures. Interpolation géométrique.
- Polynômes représentatifs
- PAR G. YVON
- Ingénieur, ancien élève de l’Ecole polytechnique
- 184 pages H x 22, avec 35 figures. 1962. Broché ..................... 16 NF
- LA
- MESURE DES TEMPÉRATURES
- AU LABORATOIRE ET DANS L’INDUSTRIE
- PAR M. TERNY
- Ingénieur des Arts et Manufactures
- PRÉFACE DE M. le Professeur VÉRON
- Président de la Société française des Thermiciens
- 328 pages 16 x 25, avec 241 figures. 1962. Relié toile sous jaquette ................
- 48 NF
- En vente dans toutes les bonnes librairies et chez
- DUNOD Éditeur, 92, rue Bonaparte, PARIS-6*. — DAN. 99-15 — C.C.P. PARIS 75-45
- |
- 1
- i
- 3
- !
- i
- 446
- p.446 - vue 450/551
-
-
-
- des Miltogramminœ. Ces insectes sont rarement trouvés par les récolteurs non spécialistes car la plupart d’entre eux vivent, à l’état larvaire, en association avec des Termites ou des Hyménoptères sociaux dans les nids desquels ils se comportent soit en hôtes tolérés, soit en prédateurs, soit en parasites. 63 espèces sont décrites, dont 20 nouvelles.
- Guide des Forêts de France, par Georges Plaisance, ingénieur principal des Eaux et Forêts, publié avec l’aide du C.N.R.S. Préface de Jacques Chevalier, i vol. 15,5 X 24, 412 p., 66 fig. et cartes, 14 planches hors-texte, 3 dépliants. La Nef de Paris, éditeur. En vente chez l’auteur, 14, rue du Collège, Dole (Jura). Prix, broché : 3 3 NF ; relié : 44 NF.
- Il ne manquait pas de livres sur les arbres et sur la forêt, d’ailleurs anciens, mais aucun ne rassemblait toutes les données qu’on trouve réunies ici, concernant les forêts françaises. Cet ouvrage sera aussi utile au forestier qu’au simple amateur, voire au touriste épris de beaux paysages boisés. La première partie décrit la flore forestière, les climats qui la conditionnent, le sol, les actions animales et humaines, avant de rappeler l’histoire de nos forêts, d’en brosser les paysages, d’en dresser une géographie sommaire; on traite ensuite de l’utilisation, des ennemis, de la défense et amélioration, de la propreté, de la forêt inspiratrice des lettres et des arts, du tourisme, des cures sylva-tiques, du folklore, des noms de lieux, des animaux, de la protection de la nature. La 2e partie comprend un répertoire des monographies où sont fournis une foule de renseignements sur nos massifs boisés publics et privés, puis des annexes : lexique, adresses utiles, etc. Le lecteur comprend vite que TSF veut dire « taillis sous futaie », mais une liste des quelques abréviations utilisées aurait été utilement adjointe au lexique.
- Guide de la chasse photographique, par François Merlet. 1 vol. 14 X 19, 196 p., nombreux dessins et photos de l’auteur. Crépitr Leblond, Paris, 1961. Prix, relié : 23,85 NF-L’introduction de cet ouvrage (« Vers une
- conception plus humaine du trophée ») exprime bien ce que pourrait être l’attitude de l’homme plus civilisé devant la nature et les animaux sauvages. Chasseur repenti, l’auteur est devenu un spécialiste de la photographie animalière. Fruit d’une expérience déjà longue, son livre fournit aux amateurs tous les conseils utiles pour pratiquer un art dont le naturaliste et l’homme de science savent tout le prix.
- Médecins des plantes, par Michel Reboux. 1 vol. 14 X 19,5, 222 p., 8 planches de photos. Collection Reportages. André Bonne, Paris, 1961. Prix, relié : 9,60 NF.
- Exposé quelque peu décousu et surtout anecdotique sur le danger que champignons et insectes font courir à l’agriculture, sur les moyens employés pour les combattre et sur les services spécialisés dans cette lutte.
- Le gardon, par E. Fauchet et P. Van Waesberge. 1 vol. 15,5 x 24, 120 p., 38 fig. La Maison rustique, Paris, 1962. Pris: 10,60 NF.
- Le comportement de ce poisson, l’influence des variations de la composition de l’eau et des conditions météorologiques sont étudiées en détail en vue de faciliter sa capture par le pêcheur averti, auquel on indique toutes les techniques utilisables.
- L’alimentation, par François Léry. i vol. 12x18, 192 p., nombreuses illustrations (photos,
- dessins, schémas). Collection Le rayon de la Science. Editions du Seuil, Paris, 1962. Prix : 4,90 NF.
- Faisant une large place à l’image, l’auteur de ce petit livre passe en revue l’ensemble des problèmes que pose l’alimentation humaine : Problèmes biochimiques, diététiques, agricoles, sociaux, démographiques, etc. Cette rapide exploration d’un large domaine est faite sans esquiver l’angle scientifique du métabolisme et de la nutrition. Une critique est exercée çà et là aux dépens des théories trop formelles et schématiques qui risquent d’entraîner les esprits sur des voies mauvaises.
- Maladies de civilisation et dirigisme biologique, par P. Bugard, M. Henry et L. Joubert. 1 vol. 14 X 22,5, 198 p., 28 fig., 8 pl. hors-texte. Collection Evolution des Sciences. Masson, Paris, 1962. Prix, cartonné: 25 NF.
- Le corps de cet ouvrage est la description d’une maladie qui frappe de nombreux animaux d’élevage (les porcs en particulier), la «myopathie». L’étiologie de cette maladie a conduit les auteurs à incriminer les méthodes d’élevage habituellement pratiquées, ces méthodes étant inspirées par un souci économique. Il est indiqué que, même sur ce plan, les hommes se sont engagés sur une « fausse route » et gagneraient à réviser leurs conceptions, à la lumière de toute une série de données génétiques, physiologiques et biochimiques. D’utiles indications sont fournies, concernant les réformes possibles dans le dirigisme biologique de l’élevage.
- Parasitologie humaine. Exercices pratiques d’His-loire naturelle ?nédicale, par le docteur D. Jarry-chef de travaux à la Faculté de médecine de Montpellier. Préface du professeur H. Harant. 1 vol. 16,5 X 24, 246 p., nombr. fig., 8 planches en couleurs de Y. Bouisset et F. Angel. Gau-thier-Villars et N. Noubée, Paris, 1961. Prix, cartonné : 40 NF.
- Le médecin épidémiologiste doit être un bon naturaliste. Ce livre, où l’étudiant apprendra à connaître et à déceler un certain nombre de parasites des plus variés, est aussi conçu dans l’esprit d’une nouvelle science : l’écologie. Tous ces agresseurs sont présentés dans leurs relations, d’une part avec l’homme, d’autre part avec le milieu qui en conditionne la vie et la reproduction, milieu dont d’autres êtres font aussi partie. Une place est laissée pour les notes et croquis du lecteur.
- L’obésité, par Jacques Decourt et Michel Périn. 1 vol. 11,5 X 17,5, 128 p., 2 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, 1962. Prix : 2,50 NF.
- Dans l’espace limité qui leur a été imposé, les
- Bibliographie technique
- sans équivalent, le
- CATALOGUE GENERAL DUNOD
- 1962-1963
- rassemble plus de 2 000 titres d’ouvrages techniques et scientifiques, soigneusement analysés et méthodiquement classés en un volume de
- I 050 pages complété par une table des auteurs et un index détaillé des matières.
- II se divise en 11 catalogues spécialisés envoyés gratuitement franco sur demande :
- ORGANISATION, TECHNIQUES DE GESTION, FINANCES • MATHÉMATIQUES, MÉCANIQUE ET PHYSIQUE THÉORIQUES, PHILOSOPHIE DES SCIENCES, CULTURE SCIENTIFIQUE • MÉCANIQUE ET PHYSIQUE INDUSTRIELLES • AUTOMOBILE, AÉRONAUTIQUE, MARINE, NAVIGATION • ÉLECTRICITÉ, ÉLECTRONIQUE • CHIMIE, INDUSTRIES DIVERSES • MÉTALLURGIE • ARCHITECTURE, URBANISME, TRAVAUX PUBLICS, CONSTRUCTION, ASSAINISSEMENT «CHEMINS DE FER • GÉOLOGIE, MINES • AGRICULTURE, ÉLEVAGE, INDUSTRIES AGRICOLES.
- Le service de la Bibliographie des Sciences et de l'Industrie, donnant huit fois par an la liste des ouvrages techniques nouveaux, est assuré aux clients de la LIBRAIRIE DUNOD.
- DUNOD Éditeur, 92, rue Bonaparte, Paris 6e
- PRISMALO
- LE CRAYON AQUARELLE
- if oici le crayon de couleur idéal pour
- L'ÉCRITURE, LE DESSIN, LA DÉCORATION
- PRISMALO
- Riche en coloris, donne un TRAIT ONCTUEUX pour l'écriture et le dessin.
- PRISMALO
- SOLUBLE à l'eau, permet la PEINTURE A L'AQUARELLE.
- Le mélange des couleurs est facile.
- Sa mine résistante fait du PRISMALO le crayon idéal pour les Écoliers.
- TRÈS ÉCONOMIQUE.
- Caran DACHE
- CHEZ VOTRE PAPETIER
- DISTRIBUÉ par CORECTOR-ADHÉSINE
- 447
- 6 66
- p.447 - vue 451/551
-
-
-
- deux auteurs, dont l’un est professeur à la Faculté de Médecine de Paris, l’autre médecin des hôpitaux, ont traité avec grande compétence et clarté le sujet de l’obésité. On sait à quel point elle influe négativement sur la longévité, ainsi que ses redoutables conséquences d’ordre psychologique et social. Il était particulièrement opportun de mettre en lumière les aspects anatomiques, physiologiques et histologiques de l’obésité, en dégager les nombreuses causes possibles et esquisser les modes de traitements.
- Cyclologie universelle, par A. Guerrin. i vol. 18 x 22,5, 412 P-, nombreux schémas explicatifs. Collection Initiation, n° 5, La Colombe, Paris, 1962. Paris : 25 NF.
- Une vaste démonstration est ici entreprise, tendant à mettre en évidence des cycles cosmiques auxquels l’homme se trouverait soumis. La durée des périodes est proposée, à la lumière d’une étude comparée des cycles cosmiques et des chronologies géologiques, préhistoriques et historiques. Il est tenu compte à cet effet de certaines données scientifiques et d’une analyse des facteurs philosophiques, littéraires, artistiques et autres qui se révèlent dans l’évolution cyclique des civilisations humaines.
- Rapport sur la croissance des populations estudiantines. 1 vol. 16 X 24, 106 p. Conseil national de la politique scientifique du Royaume de Belgique, Bruxelles, 1961.
- Ce rapport évalue, dans sa ire partie, les effectifs universitaires et les besoins en 1970; la 2e partie traite des conséquences et apporte des éléments de solution.
- Les applications de l’aluminium dans les industries chimiques et alimentaires, par
- P. Junière et M. Sigwalt. I vol. 16 X 25, 336 p., Eyrolles, Paris, 1962. Prix, relié : 43 NF. L’aluminium fournit une solution heureuse dans de nombreux problèmes de conditionnement. Il n’existait cependant pas de document d’ensemble sur l’action des divers composés minéraux et organiques sur l’aluminium et ses alliages. Cette lacune est désormais comblée et l’on doit féliciter les auteurs d’avoir rassemblé de façon fort claire et très complète les résultats des études effectuées dans ce domaine. Après un chapitre général sur les caractéristiques mécaniques et chimiques de l’aluminium et des alliages, les influences diverses des éléments d’addition, des traitements thermiques, de l’état de surface, etc., sur la tenue chimique, on examine successivement l’action des eaux, des atmosphères, des éléments non métalliques, métalliques et organiques. Le classement des corps par affinité chimique permet, dans la plupart des cas, de prévoir l’action d’un composé de même famille non mentionné dans l’ouvrage. L’influence des impuretés est largement commentée. Deux chapitres sont consacrés aux plus importantes industries : produits alimentaires et industriels, sel, pétrole, houille, textiles, plastiques, vernis, etc. Nombreux tableaux récapitulatifs et index alphabétique. — R.R.
- Physique des peintures, vernis et pigments, publié sous la direction de G. Champetier et H. Rabaté. Tome I. 1 vol. 16 X 25, vm-419 p., 186 fig. Dunod, Paris, 1962. Prix, relié toile sous jaquette : 68 NF.
- Après Chimie des peintures, vernis et pigments, paru en 1956, G. Champetier et H. Rabaté nous présentent aujourd’hui le premier tome d’un ouvrage en deux volumes, consacré à la physique de ces produits très importants et rédigé, comme le précédent, par une équipe de chercheurs et de techniciens spécialistes de ces questions. Ce premier tome, excellemment présenté, traite des caractéristiques moléculaires des substances filmogènes (P. Clément et R. Thiébaut), des caractéristiques physiques des polymères (P. Clément, R. Thiébaut, R. Ælion et J. Petit) d’une part, des solvants, diluants et plastifiants (M. Guinot) d’autre part,
- de la granulométrie des pigments et des charges (B. Persoz), des propriétés ptosiques des peintures et des vernis (B. Persoz).
- Les traitements de surface et la finition de l’aluminium et de ses alliages, par S. Wer-nick et R. Pinner. Traduit de l’anglais par Anne et Auguste Zundel. i vol, 16 x 25, 600 p., 158 fig. et 118 tableaux. Eyrolles, Paris, 1962. Prix, relié : 89 NF.
- Ouvrage technique de grande valeur consacré à la finition de l’aluminium et de ses alliages et qui réunit en un seul volume la quasi-totalité des procédés actuellement connus de traitement de cette famille particulière de métaux. Une place importante a été accordée au polissage par électro-lyse, au polissage chimique, à l’anodisation, aux revêtements métalliques au pistolet, etc. Indispensable aux services de finition des nombreuses industries qui emploient l’aluminium, l’ouvrage s’adresse aussi aux chercheurs qui y trouveront la discussion des théories modernes de la plupart des procédés décrits.
- Le charbon, panorama économique, par
- P. Gardent. Préface de L. Armand, membre de l’Institut. 1 vol. 13,5 X 18, 202 p., 30 fig. Collection Uénetgie et ses problèmes, Dunod, Paris, 1962. Prix : 9 NF.
- Une véritable énigme se pose pour tous ceux qui ont vu régresser, dans la toute dernière période, la consommation du charbon, alors que les besoins en énergie ne cessent de croître. Est-ce un phénomène durable ou transitoire ? Se manifeste-t-il d’égale manière dans les différents pays producteurs ? Quelles sont les perspectives à long terme du charbon ? A ces différentes questions, P. Gardent répond avec compétence, impartialité et talent. Son panorama apporte en outre une somme de connaissances qui sera précieuse à qui, de près ou de loin, s’intéresse aux problèmes de l’énergie.
- Les applications industrielles des radioéléments, publié sous la direction de Pierre Lévêque. Collection de P Association nationale de la Recherche technique. 1 vol. 16x25, 355 p., 99 fig. et abaques, 19 tableaux et un dépliant. Eyrolles, Paris et Gauthier-Villars, Paris, 1962. Prix, relié toile : 43 NF.
- Cet ouvrage rassemble les connaissances d’une dizaine de spécialistes français venant d’industries très différentes sur les applications modernes des radioéléments. Les notions fondamentales et les techniques communes à toutes les applications sont rappelées au début de l’ouvrage. Puis viennent des exposés sur les jauges d’épaisseur, sur les utilisations dans l’industrie chimique, l’industrie cimen-tière, les industries du pétrole, du verre, les industries textiles, de la houille, et dans l’étude des eaux. Le dernier chapitre est consacré à la protection contre les rayonnements et à la législation en la matière.
- L’éclairagisme : lumière et couleur. Entretiens de F. Le Lionnais avec Mme Jonckheere, MM. M. Déribéré, Y. Le Grand, J. Maisonneuve. 1 vol. 14,5 X 17, 110 p., 8 planches illustrées. Collection Ta Science en marche, n° 2. Editions Les Yeux ouverts, Paris, 1962. Prix : 3,50 NF.
- Ce petit livre réunit les textes de trois entretiens qu’a eus le président de l’Association des écrivains scientifiques avec d’éminents techniciens. Le premier traite du rôle pris par la couleur dans la vie moderne; le 2e envisage les points de vue du physicien, du physiologiste et du psychologue; le 3e examine les conditions optimales de l’éclairage.
- Irrigation, par M. Poirée et C. Ollier. 2e édition augmentée et mise à jour. 1 vol. 16 X 25, 408 p., 150 fig., 50 tableaux, 3 planches, 1 abaque. Bibliothèque de l’Institut de Topométrie. Eyrolles, Paris, 1962. Prix : 41 NF.
- Ces cours, professés par les auteurs à l’Ecole
- des Travaux publics et à l’Institut de Topométrie, livrent un exposé systématique des problèmes de l’irrigation, tant sur le plan de l’hydrologie que sur ceux des travaux publics et de l’agronomie. Us intéressent un large public de techniciens, appartenant à ces disciplines ou des disciplines connexes. Ce public tend aujourd’hui à s’étendre, en raison des nombreux et vastes programmes d’irrigation qui se développent en France et à l’étranger.
- L’Astronautique, par Jacques Lachnitt. i vol. 12 X 18, 192 p., nombr. fig. in et hors-texte. Collection Te Rayon de la Science. Editions du Seuil, Paris, 1962. Prix: 4,90 NF. Contrairement à de nombreux ouvrages qui insistent longuement sur des virtualités futuristes, le livre de Jacques Lachnitt étudie avec rigueur et sur documents l’astronautique, telle qu’elle se présente à ce jour et dans un proche avenir. Les connaissances techniques et scientifiques très étendues de l’auteur ne l’ont pas empêché de se mettre à la portée du lecteur moyen. Celui-ci trouvera donc, dans ces pages abondamment et agréablement illustrées, l’essentiel de ce qu’il importe de savoir en matière d’astronautique.
- Pionniers de l’espace, par les sept astronautes du projet Mercury. 1 vol. 19 X 26,5, 108 p., illustré en noir et en couleurs. Hachette, Paris, 1961. Prix, relié : 10 NF.
- Ce livre relate succinctement les origines et la préparation du projet Mercury, qui groupe tous les efforts déployés par les Américains pour la navigation humaine dans l’espace. Puis chacun des astronautes qui furent appelés jusqu’ici à participer effectivement aux expériences préparatoires puis aux premiers vols spatiaux fait le récit de son aventure. Ce sont : L. Gordon Cooper, John FI. Glenn, Donald K. Slayton, Virgil Gris-som, Walter Schirra, Scott Carpenter, Alan She-pard. D’autres volumes suivront, à mesure que seront réalisées de nouvelles expériences de vol spatial.
- Les animaux fantastiques ; texte de Gallus, dessins de Judith Bledsoe. — Les insectes ; texte et dessins de Georges Raimondo. — Les instruments de musique; texte de Stéphane Audel, dessins de Judith Bledsoe. 3 vol. 17,5 X 26 de 30 pages, illustrés en couleurs. Armand Colin, Paris. Prix, chaque volume : 2,85 NF.
- La jolie collection « Mon Univers » tend à former une petite encyclopédie pour les tout jeunes enfants. Ecrits avec sérieux, illustrés avec goût et non sans fantaisie, ces albums sont volontiers feuilletés par les plus grands.
- L’enrobage de l’oléoduc
- Dans notre article « Le Sahara pétrolier » (septembre 1962, p. 366) la légende de la figure 7 disait : « La machine procède à l’enrobage de la canalisation au papier kraft, qui est ensuite enduit d’une couche de goudron ». M. Berthelier, ingénieur, nous fait justement observer qu’au contraire le papier est utilisé pour recouvrir l’enrobage au brai, ce que l’on voit d’ailleurs nettement sur la photographie.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Le Gérant ; F. Dunod. — DUNOD, Éditeur, Paris. — Dépôt légal ; 4e trimestre 1962, N° 3957. — Imprimé en France, Imprimerie Bayeusaine, 6-8, rue Royale, Bayeux (Calvados), N° 3384. — 10-1962.
- 448
- p.448 - vue 452/551
-
-
-
- Cartes perforées et ordinateurs
- au service de l’archéologie
- par Jean-Claude Gardin
- L’ « analyse documentaire » est un nom que l’on utilise parmi d’autres pour désigner certains travaux de plus en plus nombreux sur les méthodes nouvelles de la documentation scientifique et technique. Bien que ces travaux soient pour la plupart d’origine étrangère, Etats-Unis et U.R.S.S. principalement, le public français peut aujourd’hui prendre connaissance au moins des circonstances de leur apparition, peu de temps après la dernière guerre, et des problèmes généraux qu’ils soulèvent (1). Plutôt que de présenter un nouvel exposé sur ce sujet, nous décrirons ici quelques-uns des résultats obtenus par un service du Centre national de la Recherche scientifique : le Centre d’Analyse documentaire pour l’Archéologie.
- Notons cependant que cette restriction à une seule discipline, l’Archéologie, n’affecte pas nécessairement la portée de l’étude : les méthodes de l’analyse documentaire tendent à devenir indépendantes du contenu spécifique de la documentation et l’on verra qu’ici même, le titre d’ « archéologie » recouvre une grande diversité de matériaux, depuis certains objets banals, outils, poteries, jusqu’à des textes philosophiques dont l’analyse est naturellement plus complexe.
- Ajoutons d’autre part que l’analyse documentaire, malgré son nom, ne vise pas seulement à faciliter les travaux de documentation au sens habituel du mot; les recherches d’information qu’elle permet d’entreprendre se confondent parfois avec la recherche scientifique elle-même. Tel est du moins l’enseignement de certaines expériences relatées ci-dessous.
- Répertoires sur cartes perforées
- Une démarche essentielle de l’archéologie est la comparaison : tel objet, tel monument présente des caractéristiques analogues à tel autre, sous l’un ou l’autre de plusieurs rapports (matériau, forme, décor, etc.), et ces rapprochements, une fois soumis à la critique, sont le fondement de la plupart des « constructions » théoriques de cette discipline : différenciation des cultures, définition des styles, typologies, etc. Cependant, le nombre de matériaux à comparer est de plus en plus grand, à mesure que les découvertes archéologiques se multiplient; et pour cette raison même, l’analyse des documents tend à se développer à son tour, de manière
- i. Voir les excellentes mises au point de M. de Grolier et deux articles de G.-A. Boutry et F. Russo, dans la revue Sciences, segtgmbre-octobre 1959.
- à garder un pouvoir de discrimination égal, à l’intérieur de collections toujours plus vastes. La quantité de faits à brasser augmente par conséquent d’autant; et c’est pour en faciliter la mise en œuvre que l’on entreprit, voici bientôt six ans, d’appliquer à la documentation archéologique les méthodes de la « mécanographie ».
- Le principe est aujourd’hui connu de tous : soit un ensemble d’individus, ou de documents Dx, D2, ..., Dn, caractérisés chacun par les traits tx, t2,..., tn; si ces données sont enregistrées, d’une manière ou d’une autre, sur des cartes perforées, il est facile de repérer, par un tri manuel ou mécanique, tous les documents qui possèdent telle ou telle combinaison de 2, 3, ..., n traits.
- Réduite à cette seule procédure, l’entreprise du Centre d’Analyse documentaire pour l’Archéologie n’offrirait guère d’originalité. Son intérêt est bien plutôt dans certaines implications de la procédure, que nous allons tenter de dégager.
- Problèmes théoriques
- La constitution de répertoires sur cartes perforées n’a de sens que si l’on peut s’accorder sur les dénominations employées, c’est-à-dire sur le choix et le sens de chacun des termes tx, /2, ..., tn. Or, force est de constater que cet accord est loin d’être acquis, pour quelque matériau archéologique que ce soit. Le même bas-relief, la même fresque font souvent l’objet de descriptions variables selon le jugement que porte l’observateur sur la signification de tel ou tel élément, voire sur l’interprétation de l’ensemble; et la pluralité des appellations subsiste même pour les objets les plus simples, outils ou poteries par exemple, où les mêmes types reçoivent parfois les noms les plus variés (fig. 1). En outre, ces désignations, quelles qu’elles soient, ont le défaut d’être vagues et de n’exprimer qu’une part seulement des caractéristiques de l’objet; à la différence d’une formule chimique, voire du mot unique qui lui correspond, le nom que l’on donne à l’objet n’implique pas une liste précise de traits constitutifs bien définis, de sorte qu’aucune description ne saurait jamais être complète, au niveau de ces seuls noms « synthétiques ».
- A cause de ces deux inconvénients, ambiguïté et pauvreté, la terminologie doit faire place à certaines expressions « analytiques » où chaque terme désigne un trait spécifique de l’objet préalablement défini. L’individualité du document, considéré globalement, se traduit alors
- 449
- p.449 - vue 453/551
-
-
-
- Fig. I. — Ambiguïtés de terminologie.
- L’objet a, selon l’usage qu’on lui prête, ou simplement selon les habitudes de chacun, sera nommé tantôt faucille, tantôt couteau courbe, ou couperet, serpette, etc. ; de même, l’objet b : vase ovoïde, amphore, œnochoé, etc. Ces distinctions n’obéissent pas à des critères explicites, ni moins encore universellement
- admis.
- par une combinaison particulière de tels termes, entièrement explicite, et indépendante de toute interprétation ultérieure.
- Prenons un exemple. Soit l’objet de la figure 2; il s’agit d’un « lécythe », vase que l’on déposait autrefois dans les tombes, en Grèce, à côté du défunt. A ce seul nom, le spécialiste peut restituer la forme approximative du récipient (panse ovoïde, étroit piédouche, col mince terminé par une lèvre « en entonnoir », anse plate, etc.), voire le décor, nécessairement une scène funéraire, emprunté à un répertoire limité : transport du défunt, visite au tombeau, etc. Mais ces implications du terme « lécythe » ne sont définies qu’avec une certaine marge, pour chaque trait particulier, morphologique ou iconographique :
- LEVRE
- PANSE
- PIED
- Fig. 2. — Vase attique du 5 ‘ siècle avant J.-C. et son analyse morphologique.
- Le décor du vase (à gauche) est volontairement rendu de façon schématique. Dans un premier temps (à droite), on « découpe » le profil du vase en différentes parties: Pied, Panse, Col, etc.; des conventions précises fixent les plans de séparation entre ces parties. Puis, de nouvelles divisions sont introduites à l’intérieur de chaque partie : Panse, partie inférieure/partie supérieure, etc. Chacun des segments ainsi obtenus est alors décrit, indépendamment, à l’aide de quelques caractères élémentaires : concave (symbole v), convexe (x), droit (d), divergent (/), convergent (0), parallèle (a). L’analyse se réduit finalement à une suite de symboles du genre suivant : « Panse, partie inférieure x.i, partie supérieure v.o. ; Col v.u\ etc. Les rapports dimensionnels entre les différentes parties sont naturellement inclus dans l’analyse, ainsi que les dimensions absolues.
- Fig. 3. — Poterie de Tello (Mésopotamie) 3e millénaire (Musée du Louvre).
- Du point de vue de la forme, l’analyse de l’objet exige une dizaine de symboles, empruntés au « code» de la Poterie, à savoir, du bas vers le haut : Base : 0.* (sans pied, fond convexe). Liaison Base/Panse : c (continue). Panse, bas ; x.i (convexe, divergente) ; haut : x.o (convexe, convergente) ; liaison : c (continue). Liaison Panse/Col : %.o (ressaut, rentrant). Col : d.o. (droit, convergent). Lèvre : 7 (infléchie vers l’extérieur, ressaut). Anse : 0 (pas d’anses). Rapport hauteur/largeur : 4 (compris entre 1/2 et 1). Rapport largeur du col/largeur maximale : > (1> 1/2). etc. Il est facile de vérifier le degré d’exactitude de l’analyse en s’appliquant à dessiner le vase à partir des seules indications ci-dessus, prises dans n’importe quel ordre, et en comparant le profil obtenu avec l’original.
- {Photo Archives photographiques).
- l’épaule du vase est parfois droite, parfois convexe, le nombre et la forme des anses varient, comme aussi les attributs du « visiteur », le profil de la stèle, etc. En outre, certaines combinaisons des mêmes traits s’observent sur d’autres vases, que l’archéologue ne rattache pas à la catégorie des lécythes. Bref, la description la plus sûre et la plus complète n’est autre que l’énumération pure et simple d’un grand nombre de traits élémentaires tels que les précédents, observés au niveau de spécificité le plus commode. Les figures 2 et 4 montrent comment s’opère en pratique cette « dissection » de la forme et du décor, respectivement, selon un corps de règles et un système de désignations symboliques qui constituent, tout ensemble, le « code analytique » du domaine envisagé.
- C’est à l’élaboration de tels « codes » que s’est attaché le Centre d’Analyse documentaire pour l’Archéologie, depuis sa création en 195 B. Plusieurs groupes de documents
- 450
- p.450 - vue 454/551
-
-
-
- Comme pour la forme, l’analyse du décor procède par étapes : sur l’ensemble de la surface du vase (a), délimitation de la région décorée (b) ; puis, sans nécessairement préjuger la nature de l’action représentée, indication de la catégorie d’ « êtres » qui jouent respectivement le rôle de Sujet ou â’Objet dans cette action : pour le Sujet, personnage (c), sexe, attributs (vêtements, coiffure, etc.)
- (d); pour l’Objet, monument, plus précisément une stèle (e), avec les ornements complémentaires (/), etc. Ici encore, des conventions fixent la distinction entre sujets et objets, la désignation de l’action, etc. La description se construit ainsi par additions successives d’éléments librement combinables les uns avec les
- autres.
- ont été abordés, définis à la fois par leur nature physique (exemple : récipients, ornements, etc.) et par leur origine culturelle (Orient préhellénique, Grèce classique, etc.); à travers cette diversité même, on espère observer quelques principes méthodologiques invariants, propres à fonder une sorte de « grammaire » générale de l’analyse documentaire, dans chacune des grandes catégories où se rangent les matériaux archéologiques : les objets utilitaires, les représentations figurées et les textes. Les premiers travaux permettent déjà d’esquisser ces trois grammaires.
- Obj ets utilitaires. — La figure z laisse entrevoir le principe de l’analyse, pour les objets. Qu’il s’agisse de poteries ou d’outils, d’armes ou de bijoux (les monuments
- © ®
- ©
- ZZZZZZZ
- .•©. ..
- ©
- architecturaux sont pour le moment omis de cette catégorie), le problème est d’abord de déterminer tous les « aspects » et toutes les « parties » de l’objet qui pourront être envisagés, isolément ou en combinaison, au moment des recherches. Parmi les «aspects», on retiendra naturellement la fonction (dans la mesure où un détail morphologique la définit de façon objective), la matière, la technique de fabrication (même réserve), etc. ; quant au découpage en « parties », il s’impose en général, de par la configuration habituelle des objets, dans une catégorie fonctionnelle donnée. La figure 5 illustre le découpage adopté pour les armes et les outils, de quelque époque et de quelque région qii’ils soient ; des conventions métriques fixent les frontières entre deux parties adjacentes, pour les cas ambigus.
- Le second problème est de quantifier les valeurs que peuvent prendre diverses variables pour chaque partie. L’expérience montre que l’on peut en général se contenter d’échelles sommaires, où ne sont retenues qu’un petit nombre d’oppositions qualitatives, faciles à observer (exemples : droit, convexe, concave ; parallèle, divergent, convergent; <, >, — ; etc.), et plus rarement, des valeurs numériques, absolues ou relatives, toujours groupées en quelques « bandes » (exemples : de 5 à 10 cm, 1/4 à 1/2,...), d’étendue variable selon les parties visées.
- Fig. y. — Parties ou aspects constitutifs du code analytique de l’outillage (armes et outils).
- B, type d’emmanchement; C, dimensions relatives et absolues ; D, sections ; F, G, H, profil de la lame... K, L, M, N, profil du talon... Q, R, S, liaisons entre lame et talon... T, nervures; U, décor, etc. Ce découpage vaut pour n’importe quel type d’arme ou d’outil (cf. fig. 7).
- 451
- p.451 - vue 455/551
-
-
-
- Fig. 6. — Vase hittite en forme de canard (Musée du Louvre).
- La description morphologique est plus synthétique que dans le cas de la figure 3, à cause de la spécificité même de la forme : vase figuratif\%pomorphe\oiseau, etc. On précisera, en revanche, la nature du décor : peintlpolychromejfoncé sur fond clair, etc. Sous l’un et l’autre aspect, forme et décor, l’analyse peut être poussée aussi loin qu’il est utile (dimensions, détails anatomiques, etc.; couleur, motifs, etc.); de même, l’analyse technologique, lorsque les données sont bien établies (composition de la pâte, température de cuisson, etc.).
- Le « vocabulaire » ainsi obtenu est remarquablement restreint : une vingtaine de termes seulement, qui se répètent d’une partie à l’autre (exemple : section transversale, faces concaves ; profil longitudinal, côté supérieur concave, etc.). La description d’un outil se réduit ainsi à une suite de symboles composés chacun de deux signes, désignant, le premier (lettre majuscule), un aspect ou une partie déterminée de l’objet, le second (lettre minuscule ou chiffre) une valeur de la variable correspondante (fig. 7). Ces « expressions » ont le mérite de fournir une description complète et univoque de l’objet, tout en respectant l’économie nécessaire : le nombre moyen de symboles utilisés dans l’analyse d’un objet quelconque (arme, outil, poterie), varie entre 20 et 30, quantité très inférieure à celle des mots que compterait une description aussi détaillée, dans la phraséologie habituelle, En outre, de telles formules ont l’avantage de se prêter, mieux que les phrases du langage courant, aux opérations qu’impliquent les démarches
- combinatoires de la mécanographie; c’est ce que l’on montrera plus loin.
- Représentations figurées. — Pour les « images » de toutes sortes qu’étudie l’archéologue (ronde-bosse, bas-reliefs, fresques, décors gravés ou peints sur des objets, etc.) la réglementation de l’analyse ne saurait être aussi rigide. En effet, alors que la fonction utilitaire de l’objet imposait une configuration générale, dont pouvait s’inspirer notre « découpage », la finalité de l’image, quelle qu’elle soit (magique, religieuse, esthétique), ne limite pas au même degré la fantaisie de l’imagier; et l’on ne saurait par conséquent préfigurer comme auparavant les parties nécessaires du document. Cependant, ici encore, l’expérience a montré que les méthodes d’analyse élaborées indépendamment pour différents domaines iconographiques (monnaies grecques, sceaux et cylindres gravés de l’Asie occidentale, peintures des vases attiques) impliquaient, elles aussi, un principe d’organisation commun. C’est ainsi que l’on retrouvait, dans chaque domaine, une distinction entre le « thème » central de l’image et, le cas échéant, certains motifs secondaires, tantôt faisant partie, tantôt exclus du thème. De même on découvrait que ce thème jouait le même rôle déterminant que la fonction, dans l’analyse des objets utilitaires, et que l’on pouvait associer à chacun d’eux un « découpage » préétabli du champ iconographique, pour assurer l’homogénéité des observations ultérieures. Enfin et surtout, il apparaissait que ces différents découpages, liés chacun à un thème particulier, étaient eux-mêmes réductibles à un système d’organisation unique, où un petit nombre de notions logiques suffisaient à exprimer la « place » de chaque élément dans la représentation, quel qu’en soit le thème. La figure 8 illustre quelques-unes de ces notions et leur rôle dans l’analyse ; comme les « parties » prédéterminées des objets utilitaires, elles représentent différentes « positions » possibles de chaque variable, dans une scène figurée. Et la description se réduit ici encore à des expressions composées de plusieurs symboles doubles, le premier signe de chaque couple désignant la variable (exemple : lion, tiare à cornes, hache, etc.), le second, sa position ou son rôle logique, en fonction du thème de la représentation (exemple : objet de l’action, attribut du sujet, apposition, etc.).
- Textes. — Une simple réflexion montre que la méthode précédente vaut aussi bien pour l’analyse d’un texte que pour celle d’une image. En effet, mis à part les éléments
- Fig. 7. — Exemple de description analytique : une hache à moignons.
- Les lettres majuscules désignent les différentes parties de l’objet, selon les conventions du découpage (cf.fig. 5); les lettres minuscules désignent les traits descriptifs eux-mêmes : v, concave, x, convexe; /, angle ,etc.
- 452
- p.452 - vue 456/551
-
-
-
- Fig. 8. — Les différentes situations logiques d’un être animé, dans une scène figurée.
- Le thème est ici la chasse; celle-ci a pour « Objet» (abrév. O) le lion, et pour le chien, à droite, est dit « Apposition» (abrév. A), par rapport à la scène prin-« Sujet» (abrév. S) l’archer. Les deux chevaux, à gauche, sont l’un monté cipale. L’analyse comprend alors les termes suivants : Personnage... (S), Lion... (cas « Locatif», abrév. L), l’autre attelé (cas « Instrumental», abrév. I). Enfin, (O), Cheval... (L, I)... Chien (A), etc.
- proprement formels de la description iconographique (c’est-à-dire les motifs définis par un dessin, sans équivalent strict dans le langage courant), celle-ci traduit autant la « légende » que l’image elle-même; et l’on retrouve par conséquent, dans la réduction analytique d’une phrase, la même division nécessaire en deux aspects : le découpage logique d’une part, fixant les principales « fonctions » de chaque terme, et l’inventaire sémantique de l’autre, spécifiant les termes observés dans chaque fonction. Cependant, une fois cette dualité reconnue, il reste bien des façons d’accorder en pratique les deux aspects : « flexions » associées à chaque terme (préfixes, désinences, etc.), différenciation du vocabulaire selon le « genre » des entités citées, expression par « syntagmes » (groupes de mots, deux en général), etc.
- Qu’il suffise ici de souligner l’équivalence des procédés, du point de vue logique; seules des considérations pratiques invitent à choisir de préférence l’un ou l’autre, selon le degré de complexité des textes étudiés, le niveau de l’analyse, la nature du matériel utilisé pour l’enregistrement et la recherche des données, etc. C’est pourquoi les méthodes suivies par le Centre d’Analyse documentaire pour l’Archéologie, dans le cas des documents littéraux, offrent une grande diversité, reflet de l’hétérogénéité même des textes considérés : tablettes d’archives, inscriptions, etc., où les thèmes, « discontinus », sont généralement concis, mais fort variables (transactions économiques, grands travaux, décrets, traités, etc.); écrits littéraires ou religieux, où le thème, « continu », manifeste au contraire moins de variété, mais plus de développements, etc. On ne saurait exposer ici les méthodes analytiques adoptées dans chaque cas; et c’est vers l’aspect pratique des résultats et de leur mise en œuvre que nous nous tournerons maintenant.
- Fig. 9. — Vase de Suse, époque de Gudéa (Musée du Louvre).
- L’analyse morphologique suit toujours le même ordre (voir la fig. 3) : Base : 0.d (sans pied, fond plat). Liaison Base/Panse : / (angle). Panse, bas ; d.o (droit, convergent); haut: d.o (droit, convergent); liaison: c (continue). Liaison Panse/Col • l (angle). Col : v.u (concave, parallèle), etc. Pour le décor, on signalera l’emplacement (sur la panse), la disposition {bandeau...), le sujet {oiseau..1), la technique (incrustations...), etc., toutes ces indications étant combinables 2 à 2, 3 à 3, « à n, pour définir les sujets de recherche les plus variés.
- Indications pratiques Quelques secondes pour un tri
- Le public est aujourd’hui averti des procédés mécanographiques les plus courants, dont l’usage continue à se répandre dans les administrations, les entreprises, etc. A partir d’un fichier à cartes perforées, où chaque carte concerne un « individu », avec des perforations correspondant à certaines caractéristiques codées de cet individu,
- SWHSBBWSMI
- p.453 - vue 457/551
-
-
-
- Fig. 10. — Vase de l’époque de Gudéa (Musée du Louvre).
- L’analyse du décor vise l’objectivité; les interprétations « synthétiques» de la scène (exemple : « le caducée du dieu-médecin Ningischzida ») font place à une énumération terre-à-terre des éléments, désignés par leurs caractéristiques immédiates : quadrupède ailé, avec pattes d’oiseau (au lieu de l’appellation globale : « griffon»), debout, couronné, tenant un emblème de type... (le type étant défini non par un mot, souvent ambigu, mais par un dessin), etc. D’autre part, la disposition relative des éléments est indiquée par des termes distincts : ordre convergent (deux êtres — le deuxième griffon est caché -— de pari et d’autre d’un troisième), symétrie (dans le groupe précédent), etc., ou par les « cas » affectés à chaque élément : l’emblème est tenu (« qualificatif ») et non pas dans le champ | (« apposition »), etc.
- une trieuse automatique permet d'extraire du fichier toutes les cartes qui présentent une ou plusieurs perforations identiques, et de connaître ainsi, en peu de temps, tous les individus qui comportent ces mêmes caractéristiques. Lorsque la population est petite, la trieuse peut être remplacée par divers appareils plus simples, fonctionnant à la main.
- Ce ne sont cependant pas ces procédés qu’utilise le Centre d’Analyse documentaire pour l’Archéologie. Il est en effet apparu que l’effort théorique mis en jeu dans l’étabhssement d’un répertoire sur cartes perforées, comme on l’a vu, ne serait justifié que si ce répertoire était accessible à tous les archéologues intéressés, où qu’ils se trouvent. Or, les trieuses électro-mécaniques sont trop encombrantes et trop coûteuses pour que l’usage s’en répande largement dans les instituts spécialisés, et moins encore, naturellement, dans les cabinets des savants; quant aux équipements manuels (sélecteurs à aiguilles, « vibreurs », etc.), la lenteur de leur fonctionnement interdit qu’on les emploie couramment pour des collections tant soit peu étendues, dépassant un millier de documents.
- C’est pourquoi le Centre s’est orienté vers un procédé complètement différent, bien qu’il implique encore l’utilisation de cartes perforées. Au lieu de se rapporter chacune à un individu de la collection, les cartes correspondent désormais aux caractéristiques retenues dans l’analyse; et les positions perforées sur une carte donnée représentent les numéros de référence de tous les individus qui, dans la même collection, comportent la caractéristique dont cette carte porte le titre (fig. n). Cette inversion du mode d’enregistrement habituel, d’où résulte l’expression inverted files qui la désigne en anglais, a pour effet de supprimer entièrement la nécessité d’aucune machine pour l’exploitation : le tri se réduit à une simple superposition de cartes perforées, face à une source lumineuse, et à la lecture des numéros de référence obtenus (fig. n) qui sont ceux de tous les objets réunissant les caractéristiques recherchées. Aucun investissement n’est par conséquent nécessaire pour bénéficier de cette « mécanographie sans machines », et l’on peut proposer ces répertoires sur cartes perforées non seulement aux instituts de recherches mais aux spécialistes eux-mêmes, pour un prix à peine plus élevé que celui d’un catalogue courant.
- Tel est le but que s’est assigné le Centre d’Analyse documentaire pour l’Archéologie; et il reste à décrire la forme et l’emploi de ces publications inédites, sur cartes perforées (2). Chacune d’elles se compose nécessairement de trois parties séparées :
- i° Le catalogue, liste des documents analysés. Chaque document reçoit un numéro d’ordre, tout à fait arbitraire, par lequel on le désigne sur les cartes perforées de 1’ « index ». Ce catalogue peut revêtir des formes différentes selon des considérations d’économie ou de commodité : au « minimum», une simple table donnant en regard de chaque numéro les références bibliographiques, ou autres (musées, collections), intéressant le document visé; au « maximum» la reproduction intégrale de ce document, accompagnée des mêmes références.
- 2. Deux d’entre elles sont en cours d’édition au C.N.R.S. : L’outillage oriental à l’âge du bronze, par J. Christophe et J. Deshayes; une « analyse conceptuelle du Coran », par M. Allard et al. D’autres sont en préparation.
- 454
- p.454 - vue 458/551
-
-
-
- ANSE VERTICALE
- HAUT
- /panse. BAS CONVEXE.
- /col
- VERTICAL
- Fig. II- — Présentation et mode d’emploi d’un index sur cartes perforées
- « peek-a-boo ».
- Sur chaque carte, les perforations indiquent les numéros de référence des documents présentant un caractère donné (a); ces numéros se lisent à l’œil nu sur la carte même, par abscisse et ordonnée (capacité de la fiche représentée, modèle « Sélecto»: 5 000 numéros). Pour repérer les documents répondant à 2, 3... n caractères, il suffit de superposer les 2, 3... n cartes correspondantes sur un cadre translucide, devant une lampe (<); les rayons lumineux ne traversent le paquet qu’aux positions perforées à la fois sur la ire, la 2e..., la «e carte (b). Les numéros correspondants indiquent donc les documents conformes à chacun des termes de la question, quelles que soient leurs autres spécifications (d).
- 455
- p.455 - vue 459/551
-
-
-
- 2° Le code, ensemble des règles et des termes utilisés dans l’analyse des documents. Un commentaire accompagne généralement ce code, pour en expliquer la structure et le maniement.
- 3° U index, jeu de cartes perforées correspondant chacune à un terme du code, les positions perforées désignant par leur numéro d’ordre les documents du catalogue que concerne ce terme. Un cadre de lecture est fourni avec l’index, pour faciliter la superposition des cartes et le repérage des numéros.
- Ces trois parties de l’ouvrage n’occupent pas un volume bien considérable; et pourtant, elles offrent à l’archéologue les mêmes moyens de recherche qu’une trieuse classique. En une seule opération manuelle dont la durée est de quelques secondes, l’utilisateur « interroge » la totalité de la collection, soit 5 000 documents, capacité des seules cartes perforées que l’on puisse actuellement reproduire par un procédé automatique; quant à la «question» posée, elle est entièrement libre, dans les limites du code analytique, et peut porter sur n’importe quelle combinaison de 2, 3, ..., n termes de ce code. Partant d’un document donné, par exemple un vase peint analogue à celui de la figure 2, l’archéologue est en mesure de rassembler immédiatement les matériaux de comparaison qui lui semblent pertinents, par une série de combinaisons de son choix : « panse plus haute que large, col cylindrique ; une anse, décor peint » ; ou encore : « épaule plate, col en entonnoir, scène représentant un personnage debout devant une stèle » ; etc.
- Ainsi conçus, et grâce à la diffusion que l’économie et la simplicité du procédé devraient leur assurer, de tels répertoires pourront favoriser la recherche historique, en libérant l’archéologue des compilations sans fin qui sont aujourd’hui son lot.
- Recherches sur ordinateurs
- Si les appareils mécaniques ou électro-mécaniques paraissent inutilement lourds pour la documentation archéologique, il n’en reste pas moins que les répertoires sur cartes perforées que nous venons de décrire sont à leur tour insuffisants lorsque les opérations envisagées par l’archéologue relèvent non plus seulement d’une « combinatoire» sommaire, mais déjà d’un «calcul», au sens large de ce mot. Supposons par exemple que l’on aligne sur une feuille de papier mille expressions analytiques du genre de celles que l’on a évoquées plus haut, représentant mille objets dont on sait qu’ils appartiennent à dix « groupes culturels » distincts.
- Si ces groupes sont physiquement bien individualisés, on doit naturellement retrouver dans la description des objets qu’ils contiennent le reflet de ces analogies, dans chaque groupe, et de ces différences d’un groupe à l’autre : nature et valeur des variables, pondérations relatives, distributions statistiques, etc. Les observations ainsi réunies permettent d’établir un « modèle » mathématique de la répartition des mille objets entre les dix groupes culturels, modèle qui n’est pas seulement une paraphrase des données initiales, à savoir cette répartition même, mais aussi une explicitation : au lieu de critères intuitifs souvent insuffisants, l’archéologue peut désormais utiliser
- ce modèle comme «étalon» pour rendre compte plus sûrement de la répartition observée et surtout, le cas échéant, pour classer de nouveaux objets, d’origine inconnue, par rapport aux groupes précédents.
- Ce n’est donc plus de recherches documentaires, mais de recherche tout court qu’il s’agit ici; et la réduction analytique initialement conçue pour faciliter les premières sert finalement certains objectifs de la seconde. Une première expérience de « classification automatique » a eu lieu en 1961, sur ordinateur IBM 650; les matériaux consistaient en quelques centaines de haches de l’âge du bronze, originaires pour la plupart d’Eurasie (Russie, Sibérie, Chine du nord, etc.), obligeamment fournies au Centre par M. Elisseeff, conservateur du Musée Cernuschi. La démarche du calcul, due à un mathématicien, P. Ihm, était statistique (3) ; mais d’autres méthodes, plus proches des cheminements logiques suivis par le « classificateur » humain, sont actuellement à l’étude. Dans les deux cas, on obtient certains critères objectifs de classement; ceux qu’ont fournis les premiers calculs, pour les haches d’Eurasie, se sont montrés corrects, dans la mesure où, appliqués « aveuglément » par un observateur ignorant tout de ces objets, ils conduisent à des attributions (probabilistes) conformes à celles du spécialiste.
- Ici encore, cependant, l’intérêt de telles recherches n’est pas seulement qu’elles ouvrent la voie à de vastes « mises en ordre » jusqu’alors difficilement praticables, pour des ensembles documentaires tant soit peu étendus, par exemple les quelques centaines de milliers de poteries recueillies sur les sites de l’âge du bronze, de l’Europe à la Chine. Elles ont aussi le mérite d’imposer, dans l’expression et dans la mise en œuvre des faits, un « langage » mieux adapté que la phraséologie courante aux exigences de l’observation et du raisonnement scientifique.
- Un réseau commercial antique émerge de milliers de tablettes
- Que ces développements soient nécessairement liés à l’introduction des mathématiques, au sens restreint et quelque peu scolaire du terme, dans une discipline qui tend généralement à s’en écarter, rien n’est plus faux; la preuve en est une deuxième étude archéologique menée à l’aide d’un ordinateur, où les données numériques font presque entièrement défaut. Les matériaux sont ici les tablettes cunéiformes recueillies par milliers dans les fouilles de Kültepe, en Anatolie; la plupart sont des lettres, ou copies de lettres, envoyées ou reçues par les marchands assyriens établis dans cette ville (autrefois nommée Kanish). Elles traitent de marchés et de contrats de toutes sortes, passés entre ces marchands et leurs correspondants d’Anatolie ou d’Assyrie; mais le lieu de résidence de chacun n’est pas connu. Les rapports commerciaux entre ces deux pays, au 19e siècle avant Jésus-Christ, date de nos tablettes, n’apparaissent donc qu’à travers quelques dizaines de milliers de « relations » entre divers marchands ou groupes de marchands pris deux à deux, dont on connaît le nom,
- 3. La détermination automatique des objets de l’âge du bronze, et le problème de la découverte automatique des groupes culturels, par P. Ihm, Comptes rendus du Séminaire sur les modèles mathématiques dans les Sciences sociales, 1960-1, 3e trimestre, Ecole Pratique des Hautes Etudes, VIe section.
- 456
- p.456 - vue 460/551
-
-
-
- mais non pas la position, à la fois géographique et structurale, qu’ils occupent dans le réseau.
- Quelques repères existent néanmoins, pour débrouiller cet écheveau. Tout d’abord, il arrive que le lieu d’origine ou de destination de la lettre soit évoqué; et l’on peut alors y « placer », au moins provisoirement (car ces marchands voyagent), l’expéditeur ou le destinataire du message. D’autre part, certains produits échangés circulent dans un sens déterminé, par exemple l’étain, de l’Assyrie vers l’Anatolie; selon qu’un marchand envoie ou reçoit de l’étain, on est ainsi conduit à le placer, provisoirement encore (car il faut tenir compte des cas de transit, qui brouillent le raisonnement) sur le versant assyrien ou ana-tolien du réseau. Enfin, beaucoup de lettres portent le nom de plusieurs co-signataires ou co-destinataires, dont on a le droit de supposer qu’ils résident respectivement dans une seule et même ville; il suffit par conséquent que l’un d’eux ait pu être « placé », géographiquement, pour que les autres, dans le même groupe, le soient en principe aussi.
- Mais bien des obstacles compliquent le raisonnement : outre les déplacements occasionnels des marchands, qui écrivent tantôt d’une ville, tantôt d’une autre, à leurs correspondants habituels, outre les opérations de transit, qui gênent l’interprétation du sens de la circulation de certains produits, il faut aussi compter- l’existence & homonymes, dans le répertoire des noms cités ; et l’on doit s’efforcer de distinguer, dans le faisceau des « relations » impliquant un nom X, celles qui concernent en fait deux ou trois individus différents Xx, X2, X3, portant le même nom.
- On conçoit, dès lors, que la reconstitution du réseau, à partir de plusieurs milliers de données aussi fragmentaires, soit une tâche assez ardue pour décourager les assyriologues. C’est à la demande de l’un d’eux, M. Garelli, que le Centre d’Analyse documentaire pour l’Archéologie a entrepris de « formaliser » l’ensemble des opérations logiques esquissées ci-dessus, en vue de les confier ensuite à un ordinateur.
- Un premier programme expérimental, pour IBM 650, confirme déjà l’intérêt du projet; les résultats sont une série de tableaux où se lisent, successivement, la répartition géographique des principaux marchands, leur spécialisation éventuelle (commerce d’étoffes, prêts d’argent, etc.), et surtout leurs relations préférentielles, présentées sous forme d’un schéma qui fait apparaître la structure générale du réseau : nombre et dimension des groupes principaux,
- pluralité des circuits d’échange, etc. (voir : Etude des établissements assyriens en Cappadoce, par ordinateur, par J.-C. Gardin et P. Garelli, Annales, septembre-octobre 1961, p. 837-876). Le « calcul» de ces groupes, à partir de la matrice des relations observées entre une centaine d’individus pris deux à deux, est cependant une opération compliquée, qui dépasse déjà les possibilités d’un ordinateur moyen comme l’IBM 650; et un nouveau programme est sur le point d’être achevé, pour une machine plus puissante (IBM 7090), avec la collaboration du Centre européen pour le Traitement de l’Information scientifique (EURATOM).
- *
- * *
- Qu’il s’agisse de classification automatique ou de recherches structurales, les démarches précédentes supposent toujours une analyse initiale des données, plus fine et plus rigoureuse qu’il n’est d’usage en archéologie. C’est donc bien à 1’ « analyse documentaire » qu’il faut revenir en guise de conclusion — « discipline en voie de constitution », écrivait un spécialiste de l’histoire des sciences, F. Russo — et les travaux ne manquent pas en effet, qui montrent son développement et son autonomie.
- Nous soulignions plus haut l’universalité de certaines méthodes de réduction analytique, appliquées à des objets différents ; pour s’en tenir aux seuls matériaux linguistiques, et non plus graphiques, la diversité des textes soumis à ces méthodes, au Centre même, est à cet égard instructive : tablettes mésopotamiennes, inscriptions arabes, mythes amérindiens, Coran, etc. Plus récemment, c’est 1’ « analyse de contenu », au sens où les sociologues entendent cette technique d’enquête, qui s’est vue soumise aux mêmes réductions : une étude de Mme C. Piault, à paraître, sur les relations entre indigènes et étrangers au Ghana, d’après une analyse de questionnaires, exploitée sur machine Bull (Gamma 60). La floraison soudaine des études relatives aux problèmes de documentation automatique, dans les champs les plus divers, ne fait aujourd’hui que confirmer cette accession de l’analyse documentaire au rang d’une discipline nouvelle.
- Jean-Claude Gardin,
- Directeur du Centre d’Analyse documentaire pour l’Archéologie (C.N.R.S.).
- Échangeur d’ions inorganique pour piles à combustible
- Dans un article consacré aux piles à combustible (La Nature-Science Progrès, janvier 1961, p. 35), nous avions signalé l’emploi par la General Electric Co, d’une membrane organique échangeur d’ions comme électrolyte entre les compartiments anodique et cathodique d’une pile alimentée en hydrogène et air. Des chercheurs de l’Armour Research Foundation de Chicago viennent, quant à eux, de mettre au point une membrane constituée essentiellement d’un échangeur d’ions minéral. Il s’agit d’une plaquette d’environ 25 mm de diamètre et de 1 mm d’épaisseur, composée d’un mélange de phosphate de zirconium et de téflon comprimé sous haute pression. Sur chaque face de cette partie centrale sont déposées successivement une couche d’un
- mélange de phosphate de zirconium et de noir de platine, une couche de noir de platine seul, enfin une fine grille de platine. La première membrane ainsi fabriquée est capable de débiter 0,32 ampère par 100 cm2 sous 0,6 volt. Selon ses inventeurs, elle présenterait sur les membranes échangeurs d’ions organiques certains avantages : d’une part elle peut fonctionner à des températures de 100 °C et plus en raison de sa grande stabilité ; elle est capable de fonctionner sous des densités de courant plus grandes que celles qui sont autorisées avec les membranes organiques ; enfin, elle ne se détériore pas sous l’influence de dessiccations et réhumidifications fréquentes, ce qui permet son emploi de façon intermittente. R. R.
- 457
- p.457 - vue 461/551
-
-
-
- 120 ans après les expériences mémorables de Faraday
- Les convertisseurs magnétohydrodynamiques
- transforment directement la chaleur en électricité
- par Jean Cé^aire
- Si d’énormes progrès technologiques ont été réalisés au cours des dernières décennies, le principe de la production de l’électricité est resté le même : la chaleur dégagée par la combustion des combustibles fossiles, charbon ou pétrole, sert à produire de la vapeur qui, par l’intermédiaire de turbines, actionne des machines tournantes productrices d’électricité. Pourtant, on sait depuis très longtemps que la production directe d’électricité à partir de la chaleur est possible et nous avons précédemment décrit deux méthodes qui font l’objet de recherches avancées : la conversion thermoélectrique et la conversion thermoélectronique (ou thermoionique) de la chaleur en électricité (1). Toutefois ces méthodes ne semblent être praticables que pour la production de petites quantités d’électricité, par exemple dans les régions isolées ou à bord des satellites artificiels. Dans le domaine des faibles puissances en effet, les rendements sont considérablement meilleurs que ceux obtenus par les méthodes traditionnelles.
- Avec les convertisseurs magnétohydrodynamiques (MHD en abrégé), les phénomènes changent complètement d’ordre de grandeur puisque les projets actuellement à l’étude portent sur des centrales de plusieurs centaines de mégawatts. C’est dire l’intérêt que présentent de telles recherches et il n’est pas interdit de penser que si elles aboutissent, la production de l’électricité prendra un tout autre visage que celui que nous lui connaissons de nos jours.
- Le phénomène de base utilisé n’est autre que la loi fondamentale de l’induction électromagnétique découverte par Faraday en 1840. Lorsqu’un corps conducteur se déplace dans un champ magnétique, il est le siège d’une force électromotrice et devient donc capable de faire circuler un courant dans un circuit. L’énergie mécanique nécessaire pour déplacer le conducteur est transformée en énergie électrique. Ce principe a été appliqué traditionnellement à la production d’électricité dans toutes les machines électriques tournantes. Dans ces machines, les conducteurs en mouvement sont en général des barres de cuivre, mais déjà Faraday avait montré que l’on pouvait remplacer les barres de cuivre par un métal liquide comme le mercure. D’une façon générale, tout dispositif qui utilise, pour produire de l’électricité, le déplacement d’un fluide
- 1. Voir: La thermoélectricité, La Nature-Science Progrès, avril 1961, p. 170-176, et octobre 1961, p. 420-425. Les convertisseurs thermoélectroniques, juin 1962, p. 245-249.
- conducteur dans un champ magnétique peut être qualifié de générateur magnétohydrodynamique.
- Les études actuelles visent à employer comme fluide conducteur un gaz. Pour qu’un gaz soit conducteur, il faut qu’il soit ionisé, c’est-à-dire qu’il soit constitué d’un
- Aimant
- Déplacement des électrons
- Barre métallique conductrice
- Déplacement des électrons
- Circuit
- extérieur
- Canon à
- Jet de ' gaz ionisé
- Fig, I. — Comparaison de la production d’électricité par la méthode classique et par un générateur magnétohydrodynamique.
- En haut, schéma de la méthode classique : un conducteur métallique se déplace dans un champ magnétique; il est le siège d’une force électromotrice, entraînant une circulation du courant dans le circuit extérieur schématisé ici par une simple résistance. En bas, principe d’un générateur MHD : un jet rapide de gaz chaud et ionisé traverse un champ magnétique; les électrons sont déviés (flèches) et tombent sur l’anode; ils passent dans le circuit extérieur pour revenir dans le jet gazeux par l’intermédiaire de la deuxième électrode (cathode).
- {D’après un document Westinghouse).
- 458
- p.458 - vue 462/551
-
-
-
- Fig. 2. — Générateur MHD destiné aux études de laboratoire.
- {Photo aimablement communiquée par le Centre culturel américain').
- certain nombre d’électrons libres avec, évidemment, un nombre égal d’ions positifs, et la manière la plus simple d’ioniser un gaz consiste à le porter à une température suffisante. Toutefois, pour ioniser de manière appréciable un gaz courant comme l’air, les températures qu’il est nécessaire d’atteindre sont beaucoup trop élevées pour être utilisables. On peut tourner la difficulté en introduisant dans le gaz un métal alcalin tel que le potassium ou le césium dont le potentiel d’ionisation est peu élevé : dans ces conditions, une conductivité électrique adéquate est atteinte à des températures moins élevées, de l’ordre de 2 ooo à 3 ooo °C.
- Dans un générateur MHD un jet de gaz rapide, chaud et conducteur, traverse un champ magnétique transversal-(fig. i). L’analogie avec un générateur homopolaire du type Faraday est alors frappante. Les électrons libres du gaz sont déviés par le- champ magnétique appliqué et tombent sur l’une des électrodes. Un courant circule donc
- dans le circuit extérieur : les électrons passent du gaz dans l’anode, traversent le circuit extérieur et reviennent dans le jet de gaz par la cathode. Les ions positifs se déplacent bien entendu en sens opposé mais, comme ils sont beaucoup plus lourds que les électrons, leur vitesse est plus faible et ils n’interviennent pratiquement pas dans le processus considéré.
- La différence de potentiel entre les électrodes est proportionnelle au champ magnétique appliqué, à la vitesse du gaz et à la distance entre les électrodes. Par ailleurs, ce type de générateur ne comportant pas de parties mobiles, qui sont toujours plus vulnérables à une forte élévation de température que les pièces au repos, la température du gaz peut atteindre des valeurs de l’ordre de 3 500 °C. Le rendement maximal est donné par l’équation de Carnot bien connue :
- Tc et TF désignant respectivement les températures de la source chaude et de la source froide. On devrait donc,
- 459
- p.459 - vue 463/551
-
-
-
- en théorie, pouvoir atteindre des valeurs très élevées. En réalité, il n’en est pas absolument ainsi car on est limité par la température de la source froide qui doit rester elle-même assez élevée; en effet, lorsque la température devient inférieure à i 800-2 ooo-°C, le gaz n’est plus conducteur en dépit de l’addition de césium ou de potassium. Il n’en reste pas moins que le rendement d’un générateur MHD peut atteindre des valeurs de l’ordre de 60 pour 100, valeurs qui se comparent favorablement à celles obtenues dans les centrales thermiques les plus modernes qui ne dépassent guère 40 à 42 pour 100. Enfin les gaz, refroidis vers 2 000 °C, seraient utilisés dans les installations futures d’abord pour réchauffer les gaz qui entrent dans le générateur MHD, puis, refroidis vers 1 200 °C, pour actionner une centrale thermique classique.
- Conception d’une centrale MHD
- On classe les générateurs MHD en deux catégories : les systèmes «ouverts» dans lesquels le jet de gaz provient de la combustion d’un fuel lourd par exemple, et les systèmes « fermés » dans lesquels on utilise un gaz inerte, comme l’argon ou l’hélium, qui est constamment recyclé.
- Dans l’un ou l’autre cas, il faut utiliser un compresseur pour vaincre la perte de charge inévitable et des systèmes d’échangeurs de chaleur pour récupérer au maximum l’énergie calorifique des gaz après leur passage dans le champ magnétique.
- Un générateur du type en circuit fermé est représenté schématiquement sur la figure 3. Le gaz, de l’hélium par exemple, additionné de césium, est porté à très haute température (2 300 °C dans le projet de la Westinghouse) par passage dans un réacteur nucléaire. A la sortie du générateur, le gaz passe d’abord dans un échangeur de chaleur et y abandonne des calories qui servent à réchauffer le gaz avant son passage à travers le réacteur, puis est utilisé
- Convertisseur de courant continu en courant Dematif
- Courant alternatif
- MW
- Réacteur nucléaire 11 atmosphères 2 300 °C
- Echangeur de chaleur
- Vapeur
- Fig. 3. — Schéma d’une centrale MHD à circuit fermé de 380 mégawatts conçue par la compagnie américaine Westinghouse.
- Le gaz, préalablement réchauffé dans un échangeur de température, est porté à 2 300 °C par passage dans un réacteur nucléaire. Explications complémentaires dans le texte.
- (D’après un document Westinghouse).
- Convertisseur de Potassium courant continu en ^ courant alternatif Chambre de Kl Combustible combustion [•)
- (huile lourde)
- Courant alternatif
- ggv Pompe d'alimentation
- Fig. 4. — Schéma de centrale MHD à circuit ouvert.
- Le gaz chaud est produit par la combustion d’une huile lourde. L’air nécessaire à la combustion est fourni par le compresseur; il est réchauffé dans un échangeur placé à la sortie des gaz chauds du générateur MHD. Explications complémentaires dans le texte.
- (D'après un document Westinghouse).
- dans une chaudière pour produire de la vapeur qui actionne à son tour une turbine. L’énergie produite sert à alimenter le compresseur, lui-même assisté par un moteur électrique qui consomme une partie de l’énergie électrique produite par le générateur MHD. Selon les techniciens de la Westinghouse, une telle centrale pourrait produire une puissance électrique de l’ordre de 380 mégawatts. Les générateurs MHD produisant du courant continu, celui-ci devrait être transformé en courant industriel alternatif.
- La figure 4 représente un générateur en circuit ouvert. Le jet de gaz chaud est produit par la combustion d’un fuel lourd. Le reste de l’installation est analogue au système précédent. Toutefois, la température du gaz doit être plus élevée, car la mobilité des électrons est plus faible dans les gaz de combustion que dans l’hélium. Par ailleurs, les gaz étant rejetés dans l’atmosphère, il est indispensable d’éviter la pollution par le potassium ou le césium qui, au contact de l’humidité atmosphérique, donnent des hydroxydes aux propriétés caustiques bien connues.
- Les problèmes qui restent à résoudre sont évidemment très nombreux mais les vastes études menées un peu partout dans le monde sur l’ionisation des gaz chauds, les plasmas et leurs propriétés contribuent à la réalisation de convertisseurs MHD utilisables dans la pratique.
- Il s’agit d’abord d’un problème de matériaux : il faut trouver des corps qui résistent à de hautes températures et en même temps à l’attaque chimique par les métaux alcalins qui sont introduits dans le gaz. Les électrodes, elles, portées à haute température, doivent posséder à la fois des propriétés réfractaires satisfaisantes et être de bons conducteurs de l’électricité. Par ailleurs, il faut pouvoir créer des champs magnétiques très élevés et, là encore, de nombreux problèmes doivent être résolus. Enfin, la puissance produite étant proportionnelle à la conductivité du gaz, il faut rendre celui-ci aussi conducteur que possible. Le césium présente l’avantage d’un
- 460
- p.460 - vue 464/551
-
-
-
- potentiel d’ionisation peu élevé (3,9 volts) mais il s’agit d’un produit coûteux. Le potassium est meilleur marché, mais son potentiel d’ionisation est plus grand (4,3 volts). Des conductivités meilleures peuvent être obtenues en utilisant des ondes de choc. Lorsqu’une onde à grande vitesse traverse un gaz, la fraction de gaz ionisé peut atteindre 20 à 30 pour 100 alors qu’elle ne dépasse guère une fraction de 1 pour 100 dans le cas d’un gaz même additionné d’un métal alcalin et porté à haute température. Des recherches se poursuivent dans cette voie, par exemple à l’Imperial College de Londres sous la direction de H.J. Pain et P.R. Smy.
- Une troisième méthode vise à utiliser les propriétés des flammes. On a constaté en effet que dans les flammes, c’est-à-dire à l’interface entre le combustible et les produits de combustion, l’ionisation, bien que minime en soi, est des millions de fois plus grande que ne le prévoit la thermodynamique. Des études sont en cours pour tirer profit de ce phénomène encore mal connu. Un chercheur anglais, T.M. Suyden, a trouvé récemment que l’addition d’un halogène comme le chlore ou l’iode à l’endroit où se forment les flammes peut provoquer une ionisation considérable à des températures relativement peu élevées.
- Les réalisations actuelles
- Les recherches les mieux connues sont celles qui sont conduites par les laboratoires Avco de Boston, en coopération avec douze compagnies américaines de distribution d’électricité, et celles de la Westinghouse.
- L’objectif des chercheurs de l’Avco est la réalisation
- d’une centrale de 500 mégawatts avec un rendement global de 60 pour 100. En 1961, le marché d’études passé par les compagnies américaines avec cette société portait sur x 200 000 dollars. Le gaz est fortement ionisé (20 à 30 pour 100) et porté à 3 000 °C environ par passage à travers un arc électrique. Les essais déjà effectués ont permis d’obtenir des puissances de 11 kW (430 ampères sous 27 volts) pendant des durées de l’ordre de 5 à 10 secondes. Ces durées sont réduites au minimum pour simplifier dans un premier stade les problèmes de refroidissement et de corrosion. Dans un autre type d’appareil, des puissances dépassant 200 kW ont été obtenues en brûlant un combustible liquide du genre de ceux qui sont utilisés dans les fusées avec de l’oxygène pur.
- La Westinghouse, elle, a réalisé jusqu’à présent deux générateurs expérimentaux. Le premier (fig. 2), de petites dimensions, est surtout destiné aux études de laboratoire. Il brûle un mélange d’hydrogène et d’oxygène, additionné de potassium. Le second (fig. 5) est un appareil beaucoup plus important qui a permis d’obtenir des puissances de 10 kW pendant des durées de 4 à 10 minutes en continu. Ce générateur brûle un fuel lourd dans lequel on a dissout préalablement un savon de potasse. Le champ magnétique
- Fig. j. — Un générateur MHD qui a déjà permis d’obtenir des puissances de l’ordre du kilowatt.
- Ce générateur, plus important que celui de la figure 2, est le premier à utiliser comme source d’énergie des combustibles naturels. Ses parois, refroidies par une circulation d’eau, sont recouvertes intérieurement de zircone. La consommation de combustible est d’environ 500 g/s; la température atteint 2 500 °C, la vitesse est de l’ordre de 3 500 km/h sous une pression de 1 atmosphère,
- (Photo Westinghouse).
- p.461 - vue 465/551
-
-
-
- est de 14 000 gauss. Cet appareil présente un grand intérêt car il démontre la possibilité de produire directement de l’électricité par combustion de combustibles fossiles traditionnels. Par ailleurs il a permis aux ingénieurs de la Westinghouse de mener à bien des études sur les matériaux, les électrodes et leur configuration, les réactions chimiques dues au potassium, la répartition des températures et des potentiels dans l’appareil, etc.
- *
- * *
- Des recherches dont on ne saurait sous-estimer l’importance devront être faites avant que les générateurs MHD
- produisent de l’électricité à l’échelle industrielle. Toutefois, les possibilités sont nombreuses puisque nous avons vu que ce type de générateur pouvait utiliser des sources de chaleur extrêmement variées, pétrole, gaz naturel ou énergie nucléaire. Leur avenir est surtout conditionné par la découverte de matériaux nouveaux capables de résister en continu à des températures très élevées et de méthodes qui permettent d’ioniser les gaz à un degré supérieur à celui que l’on sait obtenir actuellement. Nul doute que les générateurs MHD prendraient alors dans l’avenir une importance au moins égale à celle que connaissent de nos jours les centrales thermiques traditionnelles.
- Jean Cézaire.
- L’espionnage spatial
- On sait le rôle capital que jouent, sur la scène politique, les négociations concernant le désarmement contrôlé. On sait également que les puissances occidentales ont soutenu avec persévérance la thèse que le contrôle doit s’exercer sur place. De récentes informations montrent que cette position tend à s’assouplir, non pas pour des raisons politiques, mais par suite des perfectionnements apportés aux différents systèmes de détection.
- Récemment Sir William Penney, président de YA-tomic Energy Authority britannique, a indiqué, à la suite de recherches poursuivies en Ecosse, qu’un réseau mondial de 20 stations de détection seulement serait suffisant pour enregistrer et localiser infailliblement toutes les explosions nucléaires se produisant à la surface du globe. Précédemment le réseau proposé comprenait 180 stations. Les conseillers scientifiques du président Kennedy ne s’associent pas entièrement à l’opinion de Sir William, mais admettent que les propositions antérieures étaient excessives.
- Mais le motif principal de la renonciation éventuelle à une inspection in situ réside dans l’existence des « satellites-espions », lancés ces derniers temps par les Etats-Unis. Le premier d’entre eux, Midas II, a été mis sur orbite le 24 mai i960. Son efficacité ayant été reconnue, une série de huit satellites du même type mais dont l’agencement est resté « classifié » (c’est-à-dire secret) a été envoyée dans l’espace depuis mai dernier.
- Le réseau Midas est complété par des satellites Samos et Discoverer, la mission de ce dernier modèle étant de mesurer les effets des essais nucléaires.
- En bref, les « satellites-espions » sont en mesure d’exécuter des reconnaissances photographiques, de détecter par cellules sensibles aux infrarouges, tous essais nucléaires et toutes mises à feu de fusées. Grâce à leur équipement de radiocommunication, ils peuvent en outre lancer instantanément des signaux d’alarme, grâce auxquels les risques d’attaques par surprise et sans riposte seraient, pense-t-on, pratiquement éliminés. Selon certaines informations, l’optique des équipements photographiques américains permettrait de détecter (à plus de 100 km de distance) un véhicule automobile de moyennes dimensions.
- Il va de soi qu’en sillonnant le proche espace circumterrestre, les « satellites-espions » survolent le territoire de l’U.R.S.S. et des autres puissances de l’Est. On peut dès lors se demander pourquoi ces puissances n’ont pas élevé les mêmes protestations que pour la mémorable affaire de l’U 2. Ce silence s’explique aisément par le fait que six « Cosmos » soviétiques gravitent eux aussi dans l’espace, en remplissant (en sens inverse) la même mission que les Midas et les Samos.
- Les Américains se demandent si l’espionnage spatial généralisé n’est pas le plus sûr moyen de garantir la coexistence pacifique.
- Y. M.
- Le problème démographique et agricole du Mexique
- Un rapport de la Banque nationale mexicaine a attiré l’attention sur les problèmes que pose au Mexique l’augmentation considérable de sa population. Celle-ci, qui n’était encore que de 5 ou 6 millions vers 1800, atteignait 14 millions en 1914; elle dépasse aujourd’hui 32 millions, et on attend un chiffre de 75 millions en 1985 !
- Or, les rendements agricoles sont très faibles, la notion de productivité y est inconnue et le niveau de vie de l’agriculteur, cercle vicieux, ne se tient qu’au quart du niveau de son homologue d’Europe. Conséquence : les rations alimentaires sont basses, par suite de l’insuffisance de la production agricole, et le pouvoir d’achat des masses rurales est minime, faisant obstacle par là même à toute entreprise d’amélioration par autofinancement des exploitations. Deux chiffres font prendre conscience du problème : 50 p. 100 de la population active du Mexique est employée dans l’agriculture, tandis que la participation de celle-ci au produit national brut est insignifiant (11 p. 100).
- Le rapport insiste sur l’état périmé des méthodes de travail, sur les
- formules d’engagement des travailleurs, sur le manque de capitaux pour l’application de méthodes modernes. Il préconise une planification minutieuse, portant sur l’emploi de semences sélectionnées, d’engrais chimiques, d’instruments aratoires perfectionnés (mais en prenant garde à ne pas mécaniser trop vite, de façon à employer toujours une main-d’œuvre incapable, pour le moment, de trouver de l’emploi dans d’autres secteurs).
- Pour utiliser toute cette main-d’œuvre surabondante, le rapport envisage la création d’industries semi-rurales, la construction d’ouvrages d’intérêt public (routes, écoles, barrages, logements). En ce qui concerne les travaux d’irrigation, beaucoup reste en effet à faire puisque à peine 1/3 des possibilités est utilisé (2,7 millions ha sur 8,2).
- Un point plus favorable : la canne à sucre. La production de sucre, stimulée par la demande des Etats-Unis depuis l’affaire cubaine, augmente rapidement : 700 000 tonnes en 1956, 1 400 000 t en i960, et sans doute plus de 2 000 000 t en 1964.
- P.W.
- 462
- p.462 - vue 466/551
-
-
-
- E.D.F.i partiellement plutonigène
- Dans notre numéro de juillet 1962 (p. 273) la Centrale de Chinon a été présentée comme une vaste expérience au bout de laquelle trois réacteurs, différents par leurs dimensions et leur configuration, auront été comparés quant à leur aptitude à produire une énergie thermique, transformée à la sortie en énergie électrique.
- Or, avant même l’entrée en divergence (dans le courant de septembre) du premier de ces réacteurs, E.D.F.i, des articles parus dans la grande presse ont laissé prévoir que la Centrale allait être en partie reconvertie dans un sens opposé à celui qui avait été primitivement fixé : l’objectif principal serait, comme au Centre de Marcoule, la production dé plutonium 239, apte à des usages militaires.
- Cela suscitait une légitime émotion, car une telle reconversion risquait de retarder de plusieurs années les informations que les atomistes et les énergéticiens se proposent de recueillir à Chinon, informations qui peuvent être décisives pour l’avenir de la filière uranium naturel-graphite-C02, choisie par la France.
- Selon les renseignements que nous avons pu recueillir, la « déviation » de Chinon n’est pas exactement telle qu’elle a été hâtivement dénoncée. Il se confirme cependant que des négociations se sont instituées entre l’Electricité de France, constructeur et exploitant de la Centrale, et le Commissariat à l’Energie atomique. Les administrateurs de ce dernier organisme ont exprimé le vœu (qui leur était dicté sans doute par des autorités supérieures) de posséder un moyen de secours, dans le cas où, accidentellement, les installations de Marcoule devraient arrêter ou ralentir leur production de plutonium.
- La demande visait spécifiquement le réacteur E.D.F.i, prêt à démarrer. Les arguments avancés pour sa conversion en plutonigène n’étaient pas entièrement sans valeur : les plans d’E.D.F. 1 ont été dressés voici déjà quelques années et de nouvelles données sur la physique des réacteurs, de même que sur leur technologie, ont été accumulées depuis lors. Cela, l’Electricité de France l’admet volontiers, sachant
- Séchage rapide du papier
- Le séchage du papier est, à l’heure actuelle, une opération longue, qui nécessite surtout des installations très encombrantes. Un organisme britannique vient de mettre au point un système plus simple et qui demande beaucoup moins de place que les installations traditionnelles. Il s’agit d’un bac en acier de 60 X 60 X 91 cm, dans lequel est maintenu en suspension, dans un courant d’air sous pression, un lit de sable chauffé électriquement à une température d’environ 200° C. La nappe de papier traverse la cuve verticalement de bas en haut et sèche très rapidement. Le principal problème qu’il a fallu résoudre consistait à éviter que le sable en suspension ne s’échappe par la fente d’entrée du papier. Il a été résolu en juxtaposant trois chambres : le sable est mis en suspension et chauffé dans les chambres latérales puis entre dans la chambre centrale par des fentes d’un dessin spécial pour s’élever jusqu’en haut de celle-ci en contact avec la nappe de papier à sécher. Il est ensuite séparé à la partie supérieure et retourne dans les chambres latérales avant d’êtte recyclé. (D’après une information de /’Ambassade de Grande-Bretagne).
- que l’exploitation de ce réacteur sera moins démonstrative que celle d’E.D.F.2 et E.D.F.3, nettement plus évolués. Il est désirable toutefois que ce premier réacteur soit testé selon le programme prévu et que tous les enseignements possibles en soient tirés. Point de vue que, d’ailleurs, le Commissariat partage entièrement.
- Voici donc le compromis qui a pu être réalisé :
- — La zone centrale du cylindre actif (voir l’article précité) est entièrement conforme au projet. Son comportement, après la mise au point préalable à la puissance zéro et au cours du fonctionnement à pleine puissance (à partir de décembre), doit fournir les informations recherchées sur les aptitudes thermiques et « électrogènes » du réacteur.
- — Une zone périphérique du cylindre (son importance n’a pas été précisée) est réservée. Des barreaux expérimentaux d’uranium y ont été placés : ils sont en général différents de ceux de la zone centrale et parmi eux se trouvent un certain nombre de barreaux pleins, spécialement conçus pour l’élaboration du plutonium. Il est spécifié qu’on ne compte pas momentanément sur eux en vue de renforcer le potentiel de Marcoule mais qu’ils permettront de vérifier les éventuelles qualités plutonigènes d’E.D.F.1.
- — Cette expérimentation mixte sur deux zones doit en principe se poursuivre pendant deux ans, au bout desquels il sera statué sur le destin ultérieur du réacteur.
- — L’accord intervenu précise que rien ne sera modifié pour le réacteur E.D.F.2 qui sera donc en mesure de poursuivre ses expériences énergétiques dans la totalité de son cœur et de ses divers organes. Il est rappelé, à cet égard, que ces expériences doivent être, de toute manière, plus significatives que celles poursuivies à E.D.F.i.
- On ne peut que prendre acte de ce schéma d’accord, selon lequel les modifications au programme de Chinon apparaissent moins graves qu’on ne l’avait tout d’abord pensé. Reste à savoir si cet accord est définitif.
- Y. Mériel.
- Pesanteur et tuberculose
- Selon le docteur Gordon L. Snider, chef du service de médecine thoracique du Mount Sinai Hospital de Chicago, la force de la pesanteur qui s’exerce sur l’homme, se trouvant normalement en station verticale, pourrait expliquer pourquoi certaines maladies du poumon se localisent souvent dans la partie supérieure du poumon. C’est en effet dans cette zone que commencent fréquemment la tuberculose et l’emphysème.
- Etant donné, explique le docteur Snider, que la tension sanguine dans les poumons est approximativement six fois plus faible que celle qui règne dans le reste du corps, la quantité de sang qui parvient jusque dans la partie supérieure des poumons est très limitée. Comme cette partie supérieure est aussi bien aérée que le reste du poumon, le sang et le tissu pulmonaire y absorbent une proportion accrue d’oxygène qui favorise le bacille de la tuberculose, tandis que le sang n’y apporte qu’un flux plus réduit des anticorps et autres éléments qui tiennent le microbe en échec (D’après une information du Centre culturel américain ).
- 463
- p.463 - vue 467/551
-
-
-
- L’Hydre d’eau douce animal immortel tant qu’il reste insexué
- par Jean Grive
- Il est des espèces vivantes qui peuvent être qualifiées d’exemplaires parce qu’elles présentent avec plus d’évidence et de simplicité des propriétés typiques de la matière vivante ou parce qu’elles se prêtent plus facilement à des expériences démonstratives. L’Hydre d’eau douce, petit animal commun dans nos étangs et rivières, est de celles-là. C’est en outre un objet de recherches qui paraît inépuisable. Depuis sa découverte par le Suisse Trembley, en 1739, l’Hydre n’a pas cessé de retenir l’attention des naturalistes et pourtant, tout récemment encore, elle a fourni le sujet d’observations et d’expériences nouvelles, d’un grand intérêt pour la biologie générale. M. Paul " \
- Brien, professeur à l’Université libre de Bruxelles, ?
- s’est beaucoup intéressé à ce curieux animal et il vient d’en donner une excellente mise au point, qui nous apporte des notions nouvelles ou peu connues (1).
- Les Hydres, comme les naturalistes du 18e siècle ' :
- l’ont reconnu aussitôt après leur découverte, sont j'
- des Polypes, que nous rangeons dans l’embran- j
- chement des Cœlentérés, avec les Coraux, les Méduses, les Actinies ou Anémones de mer, les , f Siphonophores. Avec quelques rares Méduses, \
- ce sont les seuls Cœlentérés qui peuplent les eaux \
- douces.
- L’Hydre d’eau douce la plus commune, baptisée Hjdra fnsea à cause de sa couleur brune, est un /
- petit animal d’un centimètre de longueur environ f
- que tout le monde connaît pour en avoir vu au ;
- moins des dessins. Son organisation générale est i
- extrêmement simple et c’est cette simplicité qui lui confère une bonne part de ses étonnantes facultés, mais elle s’accompagne de détails plus complexes qui n’ont pu être mis en évidence qu’avec les moyens d’observation modernes.
- Le corps de l’Hydre est une simple colonne creuse, un tube si l’on veut, formé de trois couches très minces. Les couches externe et interne sont des feuillets cellulaires, des épithéliums. L’épithélium externe a naturellement reçu le nom d’ectoderme, l’épithélium interne celui d’endoderme.
- 1. L'Hydre d'eau douce, par Paul Brien, i vol. 16x 24,5, 34 p.s 20 fig. Les Naturalistes Belges, Bruxelles. Distribué par N, Boubée à Paris. Prix : 5,40 NK
- Fig. 1. — Une Hydre d’eau douce (Hydra fusca) en bour- J
- geonnement. ^
- On voit des bourgeons de jeunes Hydres à divers stades avant *
- leur séparation de l’Hydre mère. r •*
- L’endoderme tapisse par conséquent la cavité interne, qu’on peut appeler cavité gastrique, car elle est le siège de la digestion. Entre l’ectoderme et l’endoderme, une couche colloïdale, la mésoglée, donne à l’ensemble une structure souple mais assez résistante.
- Ce tube formé ainsi de trois couches se termine à la
- 464
- p.464 - vue 468/551
-
-
-
- base par une partie un peu renflée, le pied ou sole pédieuse, par laquelle l’animal reste fixé sur un support, pierre ou plante immergée. A l’autre extrémité du tube, la bouche, généralement fermée, est entourée de tentacules, minces et longs, au nombre de six à huit, qui servent à saisir les proies et à les amener à la bouche.
- Entre la mésoglée et les épithéliums existent deux séries de fibres musculaires. Sous l’ectoderme les fibres musculaires sont orientées longitudinalement : elles servent à contracter le corps et les tentacules. Sous l’endoderme, les fibres sont transversales : en se contractant elles provoquent l’extension verticale de l’animal.
- Des armes ne servant qu’une fois
- Comme tous les Cœlentérés, l’Hydre possède dans ses tentacules de nombreux boutons urticants capable d’injecter un venin très actif. Ces boutons sont formés de cellules spéciales appelées nématocystes, sortes de petites boîtes qui contiennent un filament épineux enroulé sur lui-même. Quand un corps étranger vient au contact du bouton, les filaments des nématocystes se déroulent rapidement en s’évaginant comme un doigt de gant. Chaque bouton contient quatre sortes de nématocystes (fig.z). Les plus volumineux, appelés sténotèles, projettent un long filament qui pénètre dans la proie et lui injectent le liquide venimeux; il en existe un ou deux par bouton. Des nématocystes plus petits, les holotriches, ont une action analogue. Les deux autres sortes de nématocystes ne sont pas urticants : les uns (desdonèmes), assez rares dans certaines espèces, s’enroulent autour de la proie; les autres (atriches) sont aussi appelés « gluants » parce qu’ils maintiennent la proie en se collant à elle.
- Les atriches gluants servent aussi au déplacement de l’Hydre. Pour se déplacer elle se courbe, fixe ses tentacules sur le support que sa sole pédieuse abandonne alors pour aller se fixer un peu plus loin, et l’animal se déplace en basculant ainsi plusieurs fois, un peu à la manière des chenilles dites arpenteuses, mais en faisant une culbute complète.
- Chaque nématocyste ne peut servir qu’une fois et les cellules spéciales qui en contiennent doivent donc être
- C. End.'
- constamment renouvelées. De récentes recherches, dues à l’Américain Alisson Burnett, ont confirmé des observations plus anciennes et ont achevé de montrer comment se fait ce renouvellement. A la base de l’ectoderme, c’est-à-dire de l’épithélium externe du corps, se trouvent des cellules dites interstitielles qui sont de véritables cellules embryonnaires, donc indifférenciées. C’est dans le cytoplasme de certaines de ces cellules que se forment les nématocystes. Quand des cellules se sont ainsi spécialisées, elles se mettent à émigrer, et la plupart émigrent vers l’intérieur du tube gastrique. Traversant la mésoglée, puis l’endoderme, elles tombent dans la cavité gastrique et sont propulsées peu à peu jusqu’à la base des tentacules; de là elles cheminent dans une migration inverse de la première pour venir se loger à l’intérieur des cellules de l’ectoderme des tentacules où elles constituent les boutons urticants.
- Quand une proie a été saisie et tuée par le venin des nématocystes, les tentacules la ramènent à la bouche qui s’ouvre et l’engloutit. La proie est ensuite digérée dans la cavité gastrique. Après 48 heures environ, l’Hydre rejette par la bouche les parties non digestibles.
- Un renouvellement constant
- Par des études très détaillées, on a pu voir que la digestion ne profite pas à tout le corps de l’animal. Elle ne se réalise que dans les deux tiers supérieurs du tube qui, chaque fois qu’il se nourrit, opère une croissance. Une Hydre régulièrement nourrie devrait donc constamment s’allonger. Il n’en est rien cependant car, tandis qu’elle s’accroît par le haut, elle périt pour ainsi dire par le bas. Les tissus de la sole pédieuse se désintègrent progressivement, et les produits de cette désintégration sont éliminés à mesure par l’orifice qui termine la base du tube. L’Hydre est donc un animal immortel. Les cellules interstitielles de son ectoderme fabriquent constamment de nouvelles assises de cellules dans sa moitié supérieure. Par la dégénérescence continue de la partie inférieure, les cellules se trouvent placées d’autant plus bas qu’elles sont plus vieilles, et les unes après les autres elles finissent par atteindre la sole pédieuse où elles terminent leur existence avant de disparaître à leur tour. Par l’activité continue de ses cellules embryonnaires interstitielles, l’Hydre est donc constamment formée de cellules nouvelles.
- Remarquons que tous les animaux contiennent de telles assises de cellules qui ont gardé plus ou moins des caractères embryonnaires; c’est grâce à elles qu’ils peuvent réparer assez complètement certaines blessures, ou même régénérer continûment certains tissus, comme la peau. Dans les animaux supérieurs cette faculté est très limitée. La peau se renouvelle mais d’autres tissus comme le tissu nerveux ne se réparent que partiellement ou point du tout. L’Hydre jouit intégralement de cette faculté pour
- Mes.
- Fig. 2. — Coupe schématique dans la région d’un tentacule portant un bouton urticant.
- C. End., cellules de l’endoderme; C. Ect., cellules de l’ectoderme; Mes., mésoglée. Le bouton urticant contient quatre sortes de nématocystes : St., sténotèle (le fouet urticant n’est pas représenté en entier) ; Ht., holotriche; At., atriche ; Des, desdonème.
- (D’après Paul Brien).
- 465
- p.465 - vue 469/551
-
-
-
- Fig. ). — Expérience de greffe entre deux individus.
- A gauche, greffe longitudinale de deux individus selon le pointillé. Au centre, les tentacules ont à moitié fusionné. A droite, au bout de deux semaines, l’individu double est devenu normal.
- (D’après Paul Brien).
- toutes ses parties en raison du fait que son organisation est très simple, et surtout que ses cellules [interstitielles se multiplient constamment, et pour ainsi dire à la demande sans perdre leur qualité de cellules embryonnaires.
- Il en résulte que l’Hydre présente des facultés de régénération extraordinaires. On peut couper une Hydre en plusieurs morceaux; chacun de ces morceaux a tôt fait de reconstituer un animal complet, ce que Trembley avait constaté peu après sa découverte, et ce qui avait fait l’admiration de tous les naturalistes de l’époque. Cette faculté de régénération rend très faciles les opérations de greffe. Si l’on coupe des morceaux d’Hydre et qu’on les enfile sur un même fil de platine, ils ne tardent pas à se souder entre eux et leur ensemble se régularise de façon à former un seul organisme normal. On pourrait même dire que cette faculté empêche en réalité la greffe telle qu’on l’entend ordinairement, car on n’obtient jamais deux Hydres greffées l’une sur l’autre. Prenons en effet, comme l’a fait M. Paul Brien après Isasew, deux Hydres complètes et faisons dans le tube de chacune d’elles une incision longitudinale, puis rapprochons-les de façon à faire avec les deux tubes un seul tube. La soudure se fait très vite et on obtient une seule Hydre deux fois plus grosse, avec un nombre double de tentacules. Mais qu’arrive-t-il alors ? Les tissus trop abondants vont se résorber, les tentacules vont s’unir deux à deux pour rétablir le nombre normal, et finalement on aura obtenu un animal entièrement semblable, par la forme et les dimensions, à une Hydre ordinaire (fig. 3).
- Rappelons à ce propos que les embryologistes ont souvent réalisé une expérience similaire, en greffant deux embryons à un stade très précoce de leur développement. Il y a là aussi régulation de l’ensemble et formation d’un embryon unique et normal, mais à la condition que l’opération soit effectuée quand les cellules ont conservé encore leur caractère strictement embryonnaire, à un stade extrêmement précoce.
- Ainsi l’Hydre conserve toute sa vie une faculté qui est
- celle des tissus embryonnaires les plus jeunes. Mais constater la chose n’est pas l’expliquer et le déterminisme de cette extraordinaire régulation nous demeure inconnu.
- Bourgeonnement indéfini ou sexualité mortelle
- Comme beaucoup de Cœlentérés l’Hydre peut se reproduire par bourgeonnement (fig. 1) Au niveau de la colonne gastrique où la digestion est la plus intense, de petites hernies se forment vers l’extérieur, comprenant à la fois endoderme et exoderme. Les cellules interstitielles y prennent une activité intense et les bourgeons ne tardent pas à prendre la forme de petites Hydres nouvelles qui bientôt se détachent et deviennent autonomes. L’Hydre bourgeonne donc à la façon des Polypes sociaux mais il n’y a pas formation de colonies permanentes. Chaque nouveau Polype, une fois bien formé, se détache pour acquérir son autonomie complète. Une Hydre peut aussi se dédoubler en commençant par le haut, c’est-à-dire en formant deux couronnes de tentacules voisinant sur le même individu. La division se propage ensuite, pour ainsi dire, vers le bas, ce qui est compréhensible puisque nous avons vu que la croissance est plus active dans les parties hautes. Les parties les plus basses dégénérant sans cesse, il arrive un moment où les deux individus se trouvent tout à fait séparés.
- Certaines Hydres, comme Hydra fnsea, peuvent se multiplier exclusivement et indéfiniment par bourgeonnement si certaines conditions de milieu sont maintenues. Mais la reproduction sexuée est également possible. Sous l’influence de facteurs où la température semble jouer le rôle principal, les cellules interstitielles, au lieu de continuer à fournir de nouveauxx tissus de croissance, donnent naissance à des amas de cellules spéciales qui font saillie à l’extérieur et fournissent des gamètes, mâles chez certains individus, femelles chez d’autres, le changement du sexe étant d’ailleurs également possible, et les deux sexes pouvant même exister sur le même individu. En règle générale, quand les cellules interstitielles sont engagées dans ce processus, elles ne peuvent assurer la croissance de l’Hydre ni le renouvellement des nématocystes et l’animal, après avoir fourni ses produits sexuels, est voué à dégénérer et à disparaître. Cependant, en changeant en temps voulu les conditions du milieu, on peut interrompre le fonctionnement sexuel et restituer aux cellules interstitielles leur rôle embryonnaire habituel. Le déterminisme de ces transformations réversibles est encore très discuté. Il semble que la fonction sexuelle corresponde ici à une véritable crise, sans doute à un trouble dans le métabolisme.
- Comme le note M. Paul Brien, le cas de l’Hydre montre à l’évidence que la distinction classique entre soma et gertnen, entre lignée somatique et lignée germinale, ne saurait être universelle, puisque ici les mêmes cellules, selon les circonstances, peuvent donner des tissus corporels ou des cellules sexuelles. On peut remarquer que c’est le cas aussi dans tous les végétaux.
- L’Hydre, comme on le voit, est un matériel de choix pour l’étude approfondie de maints problèmes biologiques. Nul doute que les zoologistes s’y intéresseront longtemps et peut-être M. Paul Brien lui-même nous apportera-t-il encore du nouveau là-dessus quelque jour.
- Jean Grive.
- 466
- p.466 - vue 470/551
-
-
-
- L’interconnexion des réseaux de distribution électrique de France et d’Angleterre
- par Félix Roy
- Une liaison électrique a été mise en service entre la France et l’Angleterre en décembre 1961. Cette liaison présente des caractéristiques particulières qu’il nous a paru intéressant de faire ressortir et d’expliquer.
- Aucun des deux pays n’ayant une production réellement excédentaire d’énergie électrique, on peut se demander pourquoi une telle liaison a pu paraître nécessaire. Il faut en voir la raison dans l’éternel problème des pointes de consommation qui jouent ici un rôle prépondérant. La plus typique de ces pointes se produit vers la tombée de la nuit quand, presque au même moment, tous les citadins arrivent chez eux et allument la lumière, la radio, la cuisinière électrique, etc. Il faut qu’à ce moment l’Electricité de France puisse mettre en route et brancher sur le réseau des centrales qui étaient jusque-là inactives. En revanche un creux important se produit pendant la nuit, ce qui a conduit l’E.D.F. à proposer des tarifs spéciaux à ceux qui veulent bien consommer leur électricité à ce moment.
- L’existence de ces irrégularités dans la consommation entraîne la nécessité d’installer une capacité totale de production nettement supérieure à la consommation moyenne. Mais la portion de la capacité de production qui sert à satisfaire les besoins aux moments des crêtes n’est utilisée que pendant une faible partie du temps. Cela représente des investissements mal employés et qui grèvent lourdement le prix du kilowatt-heure de pointe. Celui-ci est encore augmenté du fait que ce sont les centrales les plus désuètes, donc les plus chères, qui sont employées à cet usage.
- Il n’existe malheureusement pas de moyen commode et bon marché de stocker l’énergie électrique et il faut donc avoir recours à d’autres moyens pour essayer d’effacer les pointes de consommation. Un des moyens employés consiste à varier les tarifs suivant les heures, l’autre est d’interconnecter le plus grand nombre possible de centrales. Cette interconnexion a été poussée à l’extrême en France où une partie de l’énergie provient des barrages. Ceux-ci ont une production qui accuse des pointes saisonnières du fait de la variation du niveau d’eau dans les retenues. Ces pointes sont comblées grâce aux centrales thermiques, d’où la nécessité d’une interconnexion très poussée. D’une façon générale, plus le nombre de consommateurs et de producteurs interconnectés est grand, plus les pointes tendront à s’effacer.
- On voit donc que l’interconnexion France-Angleterre présente un intérêt a priori. Il se trouve d’autre part que les pointes de consommation sont légèrement décalées entre les deux pays ; en particulier, le réseau anglais doit supporter
- Ame en cuivre
- Isolation papier
- Gaine détanchéité en plomb
- Gaine anticorrosion, en polyéthylène
- Fig. 1.
- Couche de fil de jute J V A rmure en fils d 'acier guipés
- Structure du câble électrique France-Angleterre.
- 467
- p.467 - vue 471/551
-
-
-
- Fig. 2. — L’opération d’immersion du câble électrique France-Angleterre vue à son début sur la côte française.
- Le câble est soutenu par des bouées en plastique. Une fois qu’i) est mis en place par les vedettes, les cordes qui le relient aux bouées sont coupées et il
- s’immerge.
- {Photo M. Brigaud, aimablement communiquée par /’E.D.F.),
- vers 11 h du matin une pointe qui ne se retrouve pas sur le réseau français. Le contraire est vrai en début de matinée. A ce moment donc, les échanges d’énergie entre les deux pays seront particulièrement rentables. Les kilowatts qui reviennent le plus cher étant ceux qui sont consommés à l’extrême pointe, il n’est pas nécessaire que la puissance échangée soit grande pour arriver à un bénéfice notable; elle n’excède pas ici 2 pour 100 de la puissance totale du réseau français, mais une étude soignée a montré que c’est pour une installation de cet ordre de grandeur que la rentabilité serait la meilleure. Au cours de cette étude on a examiné les courbes de consommation des deux pays au cours de plusieurs années passées. On a ainsi déterminé quel aurait été le débit du câble d’interconnexion s’il avait été installé et quelles économies d’investissements il aurait fait réaliser. Ces économies se chiffraient à 150 millions de francs si l’installation était réalisée en courant alternatif et 350 si elle l’était en continu, ce qui explique le choix qui a été fait de cette dernière solution.
- Voyons comment s’explique la supériorité du courant continu dans ce cas.
- Pourquoi une liaison en continu ?
- Avant de répondre à cette question, il est bon de rappeler quelles sont les raisons qui avaient fait adopter le courant alternatif pour les réseaux de distribution.
- C’est tout d’abord la nécessité de transporter le courant sous de très hautes tensions. Des considérations élémentaires montrent en effet que les pertes en ligne dues à la résistance des fils sont inversement proportionnelles au carré de la tension, mais comme il est trop dangereux d’utiliser le courant à haute tension dans les petites installations, il est nécessaire de pouvoir aisément en abaisser le voltage. Cette conversion s’effectue très aisément et avec un excellent rendement en courant alternatif dans un transformateur, alors qu’elle nécessite des machines tournantes incommodes et bruyantes en courant continu.
- C’est donc le problème du transport à grande distance de l’énergie qui a fait adopter le courant alternatif. Celui-ci a cependant de graves inconvénients dès que l’on veut transporter l’énergie non plus par des lignes aériennes, mais par des câbles souterrains et, a fortiori, sous-marins. Dans les lignes à haute tension, les conducteurs sont isolés les uns des autres par l’air qui les sépare et des pylônes par les isolants en porcelaine bien connus. Dans un câble, il faut isoler les conducteurs du milieu ambiant, et les uns des autres par un isolant solide dont le prix et le poids sont des facteurs importants du prix de revient total.
- 468
- p.468 - vue 472/551
-
-
-
- Dans une liaison en continu, la quantité d’isolant peut être réduite parce que la tension maximale qu’il doit supporter est moindre. Le courant alternatif, comme son nom l’indique, circule alternativement dans un sens et dans l’autre dans la ligne; il s’annule donc à chaque période (ioo fois par seconde) avant de changer de sens. A puissance transférée égale, la tension maximale est plus grande pour l’alternatif : une tension alternative dite de 115 volts produit le même effet calorifique ou lumineux dans les appareils qu’une tension continue de 115 volts mais, à cause des changements de sens, la tension, pour ce faire, doit s’élever jusqu’à 163 volts à chaque demi-période. En employant le courant continu, on divise donc par 1,4 la tension que doit supporter l’isolant.
- Les alternances du courant provoquent d’autre part des efforts dans l’isolant qui finissent par le dégrader si sa résistance mécanique n’est pas suffisante. Finalement, les pertes en ligne sont bien plus faibles en courant continu, ce qui permet de réduire la section du conducteur en cuivre.
- Voilà donc trois raisons qui concourent pour diminuer notablement le poids du câble : 3 3 kg au mètre au lieu de 75, ce qui n’est pas négligeable.
- Une dernière raison fait pencher la balance en faveur du courant continu : c’est celle du réglage de synchronisme des réseaux. La fréquence du courant fourni en France par l’E.D.F. ne doit pas varier de plus d’un dixième de période : elle est effectivement maintenue entre 49,9 et 50,1 cycles par seconde. En Angleterre les normes ne sont pas tout à fait aussi strictes et aux moments où les fréquences des deux réseaux auraient été trop différentes, cela aurait entraîné des valeurs inadmissibles pour la charge du câble. En transformant le courant alternatif en courant continu et inversement à chaque extrémité du câble, on évite ces problèmes de synchronisme.
- Avec les stations de conversion, nous touchons au nœud du problème du transport en continu. Dès 1939, la firme helvétique Brown-Boveri s’était intéressée au problème de la conversion par redresseurs à gaz. Pendant la guerre une ligne expérimentale fut construite en Allemagne et cette expérience fut reprise par les ingénieurs soviétiques à partir de 1945. Une ligne expérimentale de 750 000 kilowatts à ± 400 000 volts sera bientôt inaugurée en U.R.S.S. entre Stalingrad et la région industrielle de Donbass. C’est finalement de la récente liaison entre l’île de Gotland et le réseau suédois que l’on s’est inspiré ici. Examinons rapidement les caractéristiques principales de la dernière née de ces liaisons.
- La réalisation
- La puissance maximale qui peut être transportée est de 160000 kW. Le courant passe par deux câbles (l’un à -f- 100 000 V, l’autre à — 100 000 V) de 7 cm de diamètre et 52 km de long, immergés entre le Portel en France et Dungeness en Angleterre. Chacun des deux pays a pris à sa charge la moitié du câble et le raccordement s’est fait en mer au milieu du Pas-de-Calais en juin 1961. La figure x montre la structure du câble : essentiellement une âme en cuivre, un isolant, une gaine en plomb et une armure en câble d’acier pour assurer la résistance mécanique nécessaire.
- Des séries d’essais avaient été poursuivis depuis plusieurs années pour éprouver les câbles et déterminer les
- Fig. 3. — L’opération de raccordement des deux tronçons lancés de part et d’autre de la Manche.
- C’est à bord du navire câblier Ampère que l’opération s’est faite.
- {Photo M. Brigaud, E.D.F.).
- p.469 - vue 473/551
-
-
-
- techniques de jonction, d’abord au Laboratoire central de Fontenay, puis en mer à Brest et à Bandol. La pose a été compliquée par le fait que les deux câbles doivent être très rapprochés pour annuler le champ magnétique créé par chacun d’eux. Ils ont été immergés simultanément de façon à ne pas se trouver éloignés de plus de z mètres. A proximité immédiate du câble, les compas magnétiques seront malgré tout déviés de i à 2 degrés par le champ magnétique résiduel dû au courant. Les deux câbles ont été immergés sur un parcours qui suit exactement une des hyperboles du système de navigation radioélectrique Decca, ce qui rend plus aisées les opérations de repêchage et d’immersion qui pourront être rendues nécessaires par d’éventuelles avaries.
- C’est pour la réalisation de la station de conversion que l’expérience suédoise a été précieuse. C’est la firme suédoise A.S.E.A. qui a fourni les équipements de conversion, constitués essentiellement par des redresseurs à vapeur de mercure (fig. 4). Les échanges d’énergie devant pouvoir se faire dans les deux sens, il faut que les circuits de redressement puissent faire passer du courant soit dans un sens, soit dans l’autre. On utilise pour cela des redresseurs à vapeur de mercure dont l’allumage est contrôlé par grille. Cette faculté de contrôle permet à la fois de changer le sens du courant continu et d’en régler l’intensité. On peut ainsi procéder avec une grande souplesse au réglage du sens et de la grandeur de l’échange d’énergie. Ces circuits sont connus dans le domaine des servomécanismes où
- Fi g. 4. — Vue d’une partie de la batterie de redresseurs à vapeur de mercure.
- {Photo Rainbow).
- des problèmes semblables de contrôle de courants continus se posent, mais la difficulté réside ici dans les grandes puissances qui sont mises en jeu.
- L’un des inconvénients de l’utilisation des redresseurs est qu’à chaque allumage ils émettent des parasites radioélectriques qu’il faut soigneusement filtrer. A cet effet, le bâtiment qui abrite les redresseurs est entièrement recouvert de grillage métallique et de plaques de tôle pour en faire une cage de Faraday. De plus, le système de redresseurs commandés par grille fournit un courant fortement «ondulé», c’est-à-dire un courant dont la tension n’est pas vraiment constante mais varie dans le temps suivant des harmoniques de la fréquence de 5 o hertz. Ces harmoniques constituent en quelque sorte un résidu du courant alternatif initial qu’il faut éliminer par des filtres appropriés.
- Malgré toutes les difficultés et les innovations qu’elle comporte, la liaison semble fonctionner de façon satisfaisante. Même si sa rentabilité n’est pas exceptionnelle, cette réalisation sera précieuse par les enseignements qu’elle doit apporter. L’expérience acquise pourra être mise à profit dans d’autres liaisons que l’on envisage déjà; la plus ambitieuse étant peut-être celle que l’on étudie entre la côte algérienne et la France pour importer du courant qui serait fabriqué par une centrale fonctionnant au gaz naturel de Hassi R’Mel. D’une manière générale, s’il ne faut pas s’attendre à un retour complet au courant continu, dans tous les cas où une liaison à grande distance par câble sera envisagée, la solution en courant continu devra être soigneusement étudiée et a de fortes chances de se montrer avantageuse.
- Félix Roy.
- p.470 - vue 474/551
-
-
-
- Le sol, siège d’une vie active et d’interrelations complexes
- La vie à la surface de la Terre n’est pas faite d’individus ni même d’espèces juxtaposés. Chaque espèce subit les influences de toutes celles qui l’entourent et avec lesquelles elle entretient des rapports de natures très diverses. Il se crée des équilibres naturels, plus ou moins stables, plus ou moins dynamiques, et il est de notion courante, maintenant, qu’une intervention dans cet équilibre (par exemple en détruisant une espèce, ou en introduisant une espèce nouvelle) peut avoir des conséquences d’une ampleur imprévisible.
- L’étude de ces rapports complexes entre les êtres vivants, d’un grand prix pour la science pure, a aussi un intérêt pratique. Une forêt, une prairie, un champ cultivé même restent à certains égards naturels, quelle que soit l’action de l’homme pour les aménager à sa convenance. Une plante cultivée reste sous l’influence de son environnement pour une multitude de facteurs que l’homme n’est pas entièrement maître de modifier à son gré : facteurs climatiques, géographiques, géologiques, et aussi facteurs vivants, en premier lieu les innombrables organismes qui peuplent le sol.
- On s’est depuis longtemps aperçu que le sol n’est pas un simple support inerte pour les plantes qu’on y cultive : la culture prolongée d’une même plante sur le même sol conduit à des récoltes de plus en plus mauvaises; d’où la pratique des assolements, ou la mise en friche, et les apports d’engrais. Mais par ces pratiques empiriques le problème n’est que très partiellement résolu. Le sol n’est pas non plus un simple réservoir de nourritures. Quand on eut découvert les microbes, on comprit assez vite que leur rôle n’était pas uniquement de déterminer des maladies, mais qu’avec les champignons ils assumaient dans la nature une mission d’importance primordiale, celle de dégrader les molécules organiques pour les ramener à l’état minéral, sous une forme assimilable pour les plantes. On eut même tendance à généraliser excessivement. Nous savons maintenant que les plantes peuvent absorber aussi des molécules organiques complexes, en premier lieu
- celles que sécrètent d’autres plantes, d’une autre espèce ou de la même espèce. Substances utiles parfois, ou nuisibles à divers degrés. Les anciens agronomes avaient déjà observé que certaines plantes empoisonnaient le sol pour elles-mêmes.
- Champignons et microbes, d’autre part, ne se bornent pas à dégrader les molécules organiques. Ils élaborent, eux aussi, des substances infiniment variées, substances de croissance, vitamines, toxines, antibiotiques, etc. Même cette nomenclature est quelque peu arbitraire, car un antibiotique, par exemple, qui est un poison pour certains microbes, peut être une substance favorable pour d’autres espèces (fig. i). Et la même substance peut être un aliment ou un poison selon la dose, et selon la présence d’autres substances, synergiques ou antagonistes.
- En outre, champignons et microbes n’interviennent pas uniquement par leur simple présence dans le sol. Certains entretiennent avec les racines, surtout des plantes vivaces, des rapports plus étroits, qui vont jusqu’à cette forme de parasitisme qu’on appelle une symbiose. On sait que si les plantes légumineuses enrichissent le sol en azote, c’est qu’elles hébergent dans les tumeurs de leurs racines des bactéries spéciales, capables de fixer et d’assimiler l’azote atmosphérique. D’autres plantes, comme les Orchidées, ne peuvent se développer que si elles sont parasitées par des champignons. Dans la forêt, la plupart des arbres ont leurs racines étroitement entourées ou même pénétrées par les mycéliums des champignons qui poussent leurs réseaux dans toute l’étendue du sol (fig. 2).
- Tous ces phénomènes et nombre d’autres aussi caractéristiques ont été l’objet de travaux souvent approfondis, mais qui sont restés en général morcelés. La microbiologie du sol a surtout été une science agronomique attachée à des problèmes particuliers. Les botanistes ont bien créé une science des rapports entre végétaux qu’on appelle la phytosociologie, mais ils se sont alors bornés à considérer les plantes dans leurs associations entre elles et si l’on voit évoluer ces associations vers certains équilibres, les causes de cette évolution demeurent obscures. Et même l’écologie végétale, c’est-à-dire l’étude des plantes dans leur milieu, si elle considère le climat, l’environnement, la nature du sol, n’a guère pris en considération l’ensemble des phénomènes de la vie qui se déroulent dans le sol.
- Cependant des botanistes et agronomes se
- Fig. 1. — Action des toxines des racines de plantes sur la croissance d’autres espèces.
- A gauche, aspect de jeunes plantules de Blé arrosées par des extraits aqueux de terre prélevée au contact des racines de deux espèces de plantes excrétrices. A droite, même expérience avec un Mélampyre (Melampyrum arvense). Expériences de L. Guyot.
- (Figure extraite de Sol, microflore et végétation, par B. Boullard et R. Moreau, et aimablement communiquée par la librairie Masson).
- sur Ferre prélevée à proximilé de Brachvpo-d ium
- a: aucun ©x Irait ajouté.
- b-F : acbon de
- g:achon du P ic r i s.
- sur
- sable pu
- sur Ferre pré-
- levée au pied
- d'H i eracium
- 471
- p.471 - vue 475/551
-
-
-
- sont préoccupés de cette question si vaste et si complexe et l’étude en a quelque peu progressé. A cet égard, il faut signaler un petit livre, Sol, flore et végétation, récemment publié par MM. Bernard Boullard et Richard Moreau (x). Il représente un effort de synthèse susceptible d’orienter de nouvelles recherches sur la vie du sol.
- Deux groupes de microbes
- Plus peut-être que les sols cultivés qui, par l’intervention annuelle et brutale de l’homme, sont en perpétuel déséquilibre, les sols de forêt et de prairie fournissent un terrain d’étude où l’on peut espérer mettre en lumière tous les facteurs qui règlent la vie de la végétation. Une première distinction utile a pu y être faite, par exemple, entre deux catégories de microbes du sol dont la physiologie et le rythme de vie sont très différents. C’est ce qu’on peut appeler la microfïore zymogène et la microflore autochtone. Les bactéries zymogènes peuvent rester inactives, sous forme sporulée, pendant de longues périodes. Elles entrent en activité lorsqu’il se produit un apport brutal de matière organique, par exemple lorsque tombent les feuilles des arbres à feuilles caduques, ou lorsqu’on apporte au sol du fumier et elles ont alors une activité intense. Selon l’expression imagée de MM. Boullard et Moreau, ces bactéries à développement rapide résorbent l’indigestion du sol. Elles opèrent une première dégradation grossière des matières mortes, puis elles rentrent très vite en repos. L’exploitation est alors reprise, de façon beaucoup plus lente, par des bactéries plus petites dont l’action est continue. La même distinction peut être faite d’ailleurs pour les champignons qui coopèrent avec les bactéries à la constitution de l’humus et à la mobilisation des molécules organiques.
- i. Sol, microflore et végétation; Equilibres biochimiques et concurrence biolo-gique, par B. Boullard et R. Moreau, i vol. 14X22,5, 172 p., 19 planches, 13 fig., 13 tableaux. Collection Evolution des Sciences, Masson, Paris, 1961. Prix, cartonné : 20 NF.
- Fig 2---Mise en évidence du rôle des champignons
- qui pénètrent les racines des plantes.
- En A, expériences de Noël Bernard faites au début du siècle : dans la boîte de Pétri, les graines d’une Orchidée (a) placées à la surface du milieu de culture m du champignon Cb germent quand elles ont été contaminées par celui-ci; déposées en b, sans contact avec le milieu de culture, elles germent également lorsque les filaments du champignon les atteignent (expérience similaire dans le tube à essais). En B, expérience plus récente de E. Melin : le champignon est cultivé dans le milieu m où l’on a introduit un traceur radioactif; la radioactivité permet de déceler ensuite la présence du champignon Ch dans les racines de la plantule de Pin sylvestre P.s. cultivée dans le milieu M.
- (Figure extraite de B. Boullard et R. Moreau, op. cit., et aimablement communiquée par la librairie Masson).
- Les plantes ont donc une première influence sur la microflore, par la nature et l’abondance des matières organiques mortes qu’elles mettent à leur disposition. Ensuite elles auront une autre influence plus directe : soit par les substances qu’elles sécrètent dans le sol, soit par les rapports intimes qui s’établissent entre leurs racines et les microorganismes. On a même appelé rhi^osphère la zone, d’ailleurs assez mal définie, qui entoure les racines des arbres; on peut y noter une quantité de bactéries considérablement plus importante que dans les parties du sol plus éloignées. Sur cette microflore autochtone, les racines agissent surtout par leurs sécrétions qui peuvent tenir en respect certaines bactéries et en favoriser d’autres. Inversement, les bactéries sécrètent des substances variées, et notamment des substances de croissance. Le phénomène est également connu pour des plantes cultivées, puisqu’on a pu isoler des souches bactériennes qui favorisent par exemple la germination et la croissance du Blé, le Blé lui-même excrétant des substances favorables à ces bactéries.
- Interrelations microbiennes
- Un grand chapitre de cette étude est celui des rapports que les microorganismes entretiennent entre eux. Ces rapports sont d’abord régis par leurs antagonismes. Il y a naturellement concurrence pour l’exploitation des ressources, mais les antagonismes prennent aussi un aspect plus direct. Nombre de champignons du sol, c’est bien connu, sécrètent des antibiotiques, sécrétion qui d’ailleurs dépend de quantité de facteurs, en particulier de leur nutrition. Les bactéries, elles aussi, sécrètent des substances qui peuvent être toxiques pour les champignons ou pour d’autres bactéries.
- Mais il existe aussi des facteurs favorisants, principalement de caractère nutritionnel. A cet égard on peut classer les bactéries du sol en plusieurs groupes, selon leurs besoins, par exemple en vitamines, ou en acides aminés, et selon leurs sécrétions qui peuvent satisfaire aux besoins des bactéries d’un autre groupe. L’étude de ces interrelations est extrêmement difficile. Leur analyse suppose évidemment que l’on cultive les bactéries en culture pure sur milieux artificiels en leur fournissant les substances dont on veut mesurer l’action. Mais, par définition, ces conditions sont extrêmement différentes de celles qui existent dans le sol,
- 472
- p.472 - vue 476/551
-
-
-
- et on imagine combien il faut être prudent dans les conclusions que l’on peut en tirer. Cette remarque est d’ailleurs à faire pour tous les éléments de cette étude, en premier lieu pour les champignons dont beaucoup d’espèces, d’ailleurs, refusent de se laisser cultiver.
- Un autre chapitre est celui du parasitisme et des associations symbiotiques auxquelles nous avons déj à fait allusion. En dehors de certains cas bien étudiés, comme ceux des Orchidées, le problème des relations entre les racines des plantes et les champignons du sol conserve de nombreuses inconnues. Il y a là encore un vaste champ de recherches que MM. Boullard et Moreau ont raison de signaler aux jeunes biologistes. Entre la symbiose et le parasitisme pur et simple, il y a des degrés qui peuvent être sans doute facilement franchis, et l’association bénéfique peut dans certaines circonstances tourner au désavantage de l’un des protagonistes ou même des deux.
- Végétaux et microbes du sol : Faction des Azotobacter
- Considérant le rôle des microorganismes de la rhizo-sphère proche, que d’aucuns appellent « rhizoplan » ou « histosphère », J. Pochon et H. de Barjac ont écrit {Traité de Microbiologie des sols, Dunod, 1958) :
- « La densité microbienne peut être telle dans cette zone que les racines sont entourées d’un véritable manchon qui, pratiquement, les isole presque complètement du sol (bactériorhize) ; toutes les activités nutritives de la plante se font par l’intermédiaire de ce manchon microbien, et l’on conçoit donc les répercussions qu’il peut avoir sur le développement et la santé de celle-ci».
- Fixer, dans les conditions normales de culture, le rôle exact et précis des divers aspects du métabolisme microbien serait une gageure. On conçoit aisément la chose. Le problème est plus simple, en ce qui concerne, par exemple, la symbiose des Rhizobium, bactéries fixatrices d’azote, avec les légumineuses, ou les mycorhizes (associations de champignons avec les racines).
- On a pu pourtant établir, dans des conditions contrôlées, le rôle de la microflore du sol sur tel ou tel aspect de la nutrition végétale. A titre d’exemple, rappelons les expériences de Gerretsen (1948), montrant clairement, pour plusieurs espèces végétales, l’action des microorganismes sur l’assimilation, par la plante, de divers types de phosphates et, corrélativement, l’augmentation de récolte qui en dérivait. Dans le même ordre d’idées, on aurait accru notablement l’assimilation des phosphates, en « bactérisant » les graines ou le sol par des espèces « phosphatolytiques » (Leszlo et Pop, 1957).
- Cependant, il arrive que l’action de la microflore soit négative. Citons, entre autres, Dikusar (1958). Et Katznel-son et Bose (1959), envisageant spécialement la rhizosphère, s’expriment ainsi : « Il apparaît donc clairement qu’un travail considérable soit encore requis afin d’établir avec certitude dans quelle mesure la plante bénéficie du manchon microbien colonisant ses racines ».
- Le sol « agricole » représente un milieu extrêmement
- Retenons que le sol se présente comme un complexe animé d’une vie intense où se mêlent les antagonismes et les dépendances réciproques. Il faudra encore de longues études pour débrouiller cette complexité. Si une conclusion provisoire s’impose, c’est bien celle de la prudence. Quand par exemple on répand des insecticides ou des herbicides sur le sol de la forêt, on constate des effets qu’on était loin de souhaiter. C’est qu’en voulant détruire les ronces, par exemple, on a détruit encore bien d’autres choses qu’il faudrait connaître mieux avant d’intervenir brutalement.
- Et dans ce tableau déjà si complexe, il n’est pas question des animaux du sol. On ne peut pourtant absolument pas en faire abstraction si l’on veut comprendre tout ce qui se passe autour des racines des plantes. C’est dire que les chercheurs ont encore du pain sur la planche.
- J. G.
- hétérogène et hautement variable d’une situation à l’autre quant à ses propriétés physiques, chimiques, biologiques; il est logique d’admettre a priori que l’effet de la microflore sur les plantes supérieures puisse différer selon les cas.
- Les Azotobacter
- Quittant ces généralités, nous voudrions évoquer rapidement un aspect particulier de l’influence de la rhizosphère sur les végétaux supérieurs, ou, plus précisément, de la « bactérisation » du sol ou des graines par les A.%oto-bacter. Signalons, en passant, qu’en U.R.S.S. notamment, on aurait obtenu des résultats phytotechniques intéressants avec d’autres bactéries : Pseudomonas aurantiaca, Ps. fluorescens, certains Streptomyces, etc. Mais nous nous en tiendrons ici au cas des Azotobacter qui, particulièrement étudié, a donné lieu à des controverses et jouit d’un regain d’intérêt depuis quelques années. Des résultats très intéressants sont signalés en divers pays.
- Les Azotobacter, dont il existe plusieurs espèces (la plus commune dans les sols normaux est Azotobacter chroococcum), sont des bactéries aérobies capables d’assimiler l’azote de l’air mais qui, à la différence des Rhizobium, ne vivent pas en symbiose dans les racines. Leur intérêt agronomique est indiscutable et a été mis en évidence récemment pat l’emploi de l’isotope de masse 15 de l’azote.
- La recherche et le dénombrement (relatif, tout au moins) des Azotobacter du soi s’effectuent aisément, par diverses méthodes. L’une d’elles utilise un milieu gélosé, sans azote, coulé en boîtes de Pétri. On dispose, à la surface de ce milieu, de petits granules de terre, et l’on observe, au bout de quelques jours, l’apparition de colonies vigoureuses typiques autour des granules possédant, à l’origine, des Azotobacter (fig. 1).
- On a tenté depuis longtemps d’inoculer le sol au moyen de cultures riches d’Azotobacter. A première vue, on peut objecter à cela les considérations suivantes : ou bien le sol
- 473
- p.473 - vue 477/551
-
-
-
- est favorable à la prolifération de ces germes et dans ce cas ils y seront naturellement abondants; ou le sol traité leur est défavorable, et alors leur introduction, même massive, n’aura qu’un effet éphémère ou nul. Mais la littérature mentionne cependant des résultats positifs, à côté de nombreux échecs.
- Ceci intéresse le sol, dans son ensemble. La chose se présente quelque peu différemment si l’on agit plus directement sur la rhizosphère, en « bactérisant » de façon massive, non le sol, ce qui serait du reste malaisé en pratique, mais les graines, ou les tubercules s’il s’agit de pommes de terre.
- Ouvrons ici une parenthèse. De nombreux travaux ont envisagé, depuis une trentaine d’années, la présence normale des A^otobacter dans la rhizosphère des végétaux supérieurs. Les conclusions furent très diverses. En certains cas, les A^otobacter se révélaient plus nombreux, en d’autres cas moins nombreux, dans la rhizosphère que dans le sol avoisinant. Et là où il y avait augmentation du nombre des A^otobacter, l’époque de cette augmentation, au cours du cycle végétatif des plantes étudiées, variait selon les cas. La question de l’adaptation éventuelle de certaines races d’A^otobacter à des espèces végétales différentes est également controversée. On voit la complexité du problème.
- La bactérisation des graines
- Revenons au traitement direct de plantes cultivées par A'pptobacter. Ici aussi, les résultats sont contradictoires et controversés. Cependant, de nombreux essais se sont soldés par un effet positif, parfois important.
- En Allemagne, Bukatsch et Heitzer (1952), après avoir procédé à une étude fouillée des diverses races d"A^otobacter isolées de la rhizosphère d’une série de plantes, sauvages et cultivées, effectuèrent des essais d’inoculation de Pois. Ils notèrent, pour une souche donnée d’ Ai^otobacter, une augmentation de récolte de 26 pour 100. D’autres souches eurent un effet moindre. La littérature soviétique abonde en références concernant l’effet d’un tel traitement. On utilise d’ailleurs en U.R.S.S. des produits commerciaux à base d’Apotobacter. Par exemple, pour une souche donnée, on signale des résultats positifs sur Froment (dans 12 cas sur 20), sur Avoine (15 cas sur 25), sur Trèfle (8 cas sur 12). Les suppléments de récolte obtenus oscillent entre 10 et 27 pour 100. Stankova et Stanek (1955) notèrent pour le Maïs un accroissement de 10 à 20 pour 100, surtout en sols bruns dégradés. Finkelstein (1958) obtint, pour la Vesce et l’Avoine, une augmentation de rendement de 27 à 70 pour ioo, dépendant en partie de la fumure appliquée, minérale ou organique.
- En Grande-Bretagne, à la Station expérimentale de Rothamsted, on nota, en i960 et 1961, à côté de résultats négatifs ou douteux, des résultats positifs indiscutables sur Cresson, Epinard, Orge, Froment, Tomate, Carotte. Fait intéressant, les chercheurs anglais observèrent, chez le Froment « bactérisé », une augmentation très importante du nombre des A^ptobacter présents dans la rhizosphère, vingt-trois semaines après le semis. Aux Indes, Iswaranet Abhiswar firent, pour le Trèfle d’Alexandrie et le Maïs, des observations du même ordre.
- Un de nos élèves, P. Grandjean, a observé, six semaines après le semis, dix fois plus d’A^otobacter dans la rhizosphère
- Fig. 1. — Recherche des A^otobacter dans le sol : méthode des « grains .de terre ».
- Chaque boîte de Pétri a reçu 25 grains de terre. 1, sol témoin; 2, rhizosphère de Colza (témoin); 3, rhizosphère de Colza (graines inoculées); 4, rhizosphère d’Orge (témoin); 5, rhizosphère d’Orge (graines inoculées). Analyses effectuées six semaines après le semis en vases de végétation
- (Photo L. Van Neste et P. Grandjean).
- de Colza et d’Orge « inoculés » que dans la rhizosphère des plantes témoins (fig. i). Les plantes étaient également plus vigoureuses. En Tchécoslovaquie, Vintikà relate de nombreux essais sur Pomme de terre, de 1956 à 1959. Les résultats positifs dominèrent, avec des accroissements de récolte allant jusqu’à 23 pour 100, selon les variétés.
- Nous aurions pu allonger cette liste de références. Les exemples relatés suffisent à démontrer l’effet favorable, dans certains cas, de la « bactérisation » par les A^oto-bacter. Il semble donc qu’un scepticisme exagéré ne soit plus de mise à ce propos.
- Quelles sont les conditions requises pour l’obtention de résultats positifs ? Pourquoi, souvent, l’inoculation a-t-elle un effet nul ou négatif ? Il est impossible de répondre actuellement à ces questions. De nombreux facteurs, très différents, peuvent en effet entrer en jeu : l’espèce végétale, la souche de bactéries utilisées, la fumure apportée, les propriétés du sol, le mode de bactérisation...
- Un dernier point : comment agissent les A'pptobacter sur la plante ? On a exclu l’influence d’un apport complémentaire d’azote dans la zone de la rhizosphère. Cet apport est réel, mais minime. Il s’agit, sans aucun doute, d’un apport d’auxine (hormone de croissance) : l’élaboration d’acide indole-acétique par les Apptobacter est connue depuis longtemps. D’autre part, des expériences sur des cultures de racines ou des plantes entières, au moyen d’extraits de cultures à’Aïçptobacter, confirment la chose. L’acide indole-acétique est-il la seule substance de croissance en jeu ? D’autres facteurs interviennent-ils ? L’avenir nous l’apprendra.
- Quoi qu’il en soit, il s’agit ici d’un exemple, assez curieux et inattendu, d’application à la phytotechnie de données d’ordre microbiologique.
- Paul Manil,
- Institut agronomique de l’Etat, Gembloux (Belgique).
- 474
- p.474 - vue 478/551
-
-
-
- Une science et un art : la topographie sous-marine
- Comment fut établie la carte de la Méditerranée occidentale
- par J.-P. Carbonnel
- De même que le géologue sur terre reporte ses observations sur une carte topographique qui deviendra le « fond » de sa carte géologique, le géologue sous-marin ne peut travailler sans posséder, au départ, le fond topographique du terrain qu’il se propose d’étudier. En mer ce préalable est d’autant plus indispensable que l’observateur, la plupart du temps, ne voit rien. Il est sur son bateau pendant que la drague sur le fond essaie de « casser du caillou ». Même si, utilisant un de ces engins merveilleux que la technique vient de lui donner (bathyscaphe, soucoupe plongeante...), il voit le fond et peut en observer la nature in situ, il n’aura pas de repère fixe et bien déterminé pour noter sa position. Une carte sous-marine est donc nécessaire. D’ailleurs son établissement permet au morphologiste, s’il est aussi géologue (ce qui est souvent le cas), de faire déjà de la géologie en faisant de la topographie. Les données de géologie sous-marine sont si rares et si difficiles à obtenir que le géologue est bien souvent forcé d’extrapoler ses observations en se fondant sur ce qu’il connaît de la topographie.
- La Méditerranée occidentale
- La Méditerranée occidentale a toujours été « l’enfant gâté » de l’océanographie. C’est sur ses bords que le prince Albert de Monaco fonda le premier institut qui eut pour tâche d’étudier les océans. Depuis lors de nombreux laboratoires spécialisés se sont installés sur ses rivages. Nous ne citerons que les laboratoires français principaux : en biologie marine : la station de Banyuls, celle d’Endoume et celle de Villefranche-sur-Mer (ancienne station créée par les Russes sous le dernier tsar); en géologie marine: la station océanographique de la Vieille Forge de Ville-franche-sur-Mer.
- Le Musée océanographique de Monaco, en plus de ses activités en biologie qu’il n’a jamais abandonnées, s’est spécialisé, depuis qu’il a à sa tête le commandant Cousteau, dans l’exploration sous-marine (cinéma, photo, soucoupe plongeante...). Enfin le Service hydrographique de la Marine, dont quelques bâtiments sont basés à Toulon, poursuit depuis de longues années ses recherches en topographie et en hydrologie.
- Il est normal qu’une telle réunion de chercheurs autour de la Méditerranée ait fait progresser la connaissance de cette mer. Cependant les problèmes qu’elle pose sont si variés et si complexes qu’on a cru bon de créer une « Commission internationale pour l’Exploration de la Méditerranée ». C’est pour cette commission que le laboratoire de géologie sous-marine de la Sorbonne vient de publier une carte topographique de la Méditerranée occidentale, les chercheurs italiens se réservant de publier celle de la Méditerranée centrale.
- Le nom de Méditerranée occidentale a été conservé pour la mer limitée à l’Est par la barrière corso-sarde. Elle s’oppose à la Méditerranée centrale ou mer Tyrrhénienne. La
- Légende
- TCSTT plateau continental
- limite de la plaine abyssale lignes de fractures probables]
- Fig. x. — Le plateau continental et la plaine abyssale en Méditerranée occidentale.
- (D’après J. Bourcart).
- 475
- p.475 - vue 479/551
-
-
-
- Méditerranée occidentale a la forme d’un grand triangle rectangle dont l’hypoténuse serait une droite SO-NE allant du cap de Gâte à Gênes. Des deux autres côtés, l’un longe la Corse et la Sardaigne, le deuxième les côtes tunisiennes et algériennes. Une mer de forme ovale s’annexe à ce triangle, c’est la mer d’Alboran, dont le relief compliqué, sûrement d’origine volcanique, se poursuit jusqu’à Gibraltar. Les communications à l’Ouest avec l’Atlantique et à l’Est avec la Tyrrhénienne sont peu profondes, si l’on excepte le passage au Sud de la Sardaigne, mais dans chaque cas il s’agit de portions submergées des continents.
- La Méditerranée occidentale est coupée en deux par un relief assez extraordinaire, le promontoire des Baléares, qui se trouve dans le prolongement de la Cordillère bétique. Ce promontoire est découpé en panneaux par deux séries de champs de fractures, l’une SO-NE, l’autre sensiblement N-S. Le Sud de ce promontoire est limité par la mer d’Oran, cuvette abyssale qui communique largement vers l’Est avec la plaine abyssale centrale de la Méditerranée occidentale. Au Nord de l’ensemble insulaire, un sillon sous-marin profond semble continuer le détroit nord-bétique des géologues.
- Les formes de terrain
- Les reliefs sous-marins sont divisés en deux groupes de terrains, nettement en opposition, tant au point de vue topographique qu’au point de vue de leur nature géologique. Ce sont : le prêcontinent ou marges continentales et les bassins
- Fig. 2- — U Amiral Mouchenavire hydrographique de 960 tonnes de la Marine française (Service Hydrographique).
- Ce navire a effectué en 1961 une importante campagne de relevés bathymétriques en Méditerranée occidentale. Le Service Hydrographique de la Marine dispose pour ses travaux de levé de onze bâtiments d’un tonnage global de près de 8 000 tonnes
- {Photo aimablement communiquée par le Service Hydrographique).
- océaniques ou plaines abyssales. La figure 3 montre une coupe théorique du relief sous-marin. On voit que le précontinent, qui géologiquement fait partie du continent, se divise lui-même en trois parties qui, en allant de la côte vers la plaine abyssale, sont : le plateau continental (continental shelf), la pente continentale (continental slope) et le glacis continental (continental rise).
- côte -
- plateau continental ' —----------------------
- rebord continental 'Dente continentale p/3lacis contments,
- ûlaine abyssale
- Fig. 5. — Couche schématique du précontinent.
- Le plateau continental. — Le plateau continental est la terrasse sous-marine qui prolonge la plaine côtière. Sa pente est très faible (0,5° en moyenne) et son extension vers le large peut être très grande (plusieurs centaines de milles) ou au contraire très réduite. Le plateau continental est inexistant devant Nice par exemple, ainsi que sur la côte Ouest de la Corse et une partie de la côte algérienne, alors qu’il est très développé à l’Ouest de Marseille (fig. 1). On observe que le plateau continental est étroit ou inexistant quand une chaîne de montagnes borde le rivage. Au contraire, il est très développé quand le continent est un vieux pays plat et sans plissements récents (cas de la Bre-tagne).
- Le plateau continental n’a pas de relief particulier; sa surface présente de petites irrégularités sans répercussion sur son modelé d’ensemble. Sur la côte française le niveau rocheux qui imprime son caractère au plateau est une «dalle» de grès calcaire quaternaire (« Tyrrhénien » pour certains auteurs).
- p.476 - vue 480/551
-
-
-
- La limite vers le large du plateau ne correspond pas nécessairement à une profondeur uniforme. Les anciennes cartes l’avaient fixée à l’isobathe — 200 mètres (100 brasses). Il est, en effet, courant que la rupture de pente qui concrétise cette limite (appelée rebord continental') soit aux alentours de cette profondeur. Mais ce n’est pas toujours le cas.
- Rupture de pente, avons-nous dit; l’inclinaison passe en effet de 0,5 pour 100 en moyenne à plus de 4 pour 100. C’est donc une limite parfaitement nette et généralement bien tranchée.
- Presqu 7/e |
- de Giens I
- Fig. 4. — Le relief du précontinent devant Toulon.
- De gauche à droite, les canyons sous-marins de Sicié, de Toulon et de Porque-rolles, qui entaillent profondément le plateau continental. Equidistance des courbes de niveau : 50 m.
- (.D’après J. Bourcart).
- La pente continentale. — Le terme de « talus continental» fut longtemps utilisé pour désigner cette région extrêmement intéressante du relief sous-marin qui prolonge le rebord continental vers les plus grandes profondeurs. Il fut abandonné car il exprimait une notion fausse de la nature de cette pente. On croyait y voir un talus formé par des sédiments meubles, alors que la pente est, en général, rocheuse.
- Le gradient type de la pente continentale est de 4,25°. Cependant de plus forts gradients ont été reconnus, par exemple devant Toulon, où les pentes atteignent 70 dans l’axe des canyons sous-marins. C’est en effet dans cette pente que la plupart des canyons sous-marins ont creusé leurs profondes incisions. La côte française de la Méditerranée en possède plus de vingt. Ces canyons sont un des traits les plus caractéristiques du relief de la pente continentale.
- Les différents levés topographiques de ces canyons ainsi que les nombreuses explorations en soucoupe plongeante déjà effectuées dans leur partie amont, ont permis de préciser leur morphologie (fig. 4) qui rappelle les gorges des terres émergées. Leur pente en long est très variable ; sur le littoral du golfe du Lion elle décroît régulièrement du Cap Creus à Sète, puis croît de Sète au Cap Couronne. Ces pentes sont beaucoup moins fortes que celles des vallées sous-marines au large des Maures ou du pays
- niçois, mais elles sont toujours plus fortes que celles des affluents du Rhône, l’Ardèche par exemple.
- Les canyons sous-marins sont généralement séparés par des reliefs convexes appelés « interfluves » (fig. 5). Ces interfluves présentent souvent deux ruptures de pente : une à — 300 m et une autre vers — 1 000 m. Ces changements de pente doivent correspondre à une érosion différentielle entre des couches géologiques, différant par la nature des roches.
- La coupe transversale des vallées sous-marines présente de nombreuses variations; elle peut avoir une forme en V symétrique et plus ou moins aplatie, mais le plus souvent elle est dissymétrique, un des flancs étant beaucoup plus raide que l’autre (on a photographié des pentes de 450 dans le canyon de Toulon). Cette section peut être taillée en « marches d’escalier » et présenter ainsi d’étroites terrasses sur la nature desquelles les auteurs ne sont pas encore d’accord; des aiguilles rocheuses peuvent accidenter les versants.
- Méandres, vires, aiguilles rocheuses, affluents..., tous ces caractères concourent à donner aux canyons sous-marins une allure de vallées aériennes. Les pentes en long sont seules aberrantes ; différentes déformations tectoniques expliquent l’exagération de ces pentes : l’hypothèse, avancée par le professeur Jacques Bourcart, d’une « flexure continentale » (bombement du continent et exagération du creux des océans à la limite des domaines océanique et continental), ayant pu jouer à différentes époques, est actuellement une des explications les plus logiques de ces déformations.
- Fig. J. — Bloc diagramme du précontinent dans le golfe du Lion.
- Des reliefs convexes, appelés interfluves, séparent les canyons sous-marins.
- 477
- p.477 - vue 481/551
-
-
-
- Le glacis continental. — Le mot glacis signifie en morphologie « un revêtement de faible pente ». Le glacis continental, à la base de la pente continentale, correspond à une rupture de pente très nette. Il forme le raccord entre la pente et la plaine abyssale. Son gradient de pente varie de 1/200 à 1/1000. On l’explique comme étant un relief formé par l’accumulation des produits qui tombent et glissent de la pente continentale où il n’y a pratiquement pas de sédimentation.
- Certains canyons sous-marins se poursuivent sur le glacis, mais la plupart du temps les morphologies des vallées se perdent sous ce glacis. Les formes mineures du relief du glacis ne sont représentées que par des collines, monticules peu élevés et assez larges. Elles peuvent manquer.
- seules des études géophysiques pourront confirmer cet aperçu (fig. 6).
- Nous avons vu que la pente continentale se raccordait à la plaine abyssale par un « talus » souvent sableux, le glacis continental. Ce glacis masque le raccord entre le domaine continental formé par le précontinent et le domaine purement océanique qui commence avec la plaine abyssale. Le glacis cache-t-il une discontinuité majeure de l’écorce terrestre, la fameuse discontinuité de Mohorovicic («Moho»)? C’est ce qu’une expédition océanographique tentera de tirer au clair dans un proche avenir, par de très profonds sondages (voir : Projet Mohole : percer l’écorce terrestre sous les océans, La Nature-Science Progrès, décembre 1961, p. 518, 526).
- Cette description sommaire des « provinces » sous-
- -1000
- -3000
- -1000 _
- -2000 _
- 2700m
- -3 000 _ ,i°Km,
- Fig. 6• — Coupes du relief sous-marin de Nice à Ajaccio (en haut) et du Cap Ferrât à Calvi (en bas).
- RN, rivière de Nice; P, golfe de Porto; C, rivière de Chioni; S, golfe de Sagone; L, golfe de Lava.
- (D’après J. Bourcart).
- La plaine abyssale. — En Méditerranée occidentale, la plaine abyssale commence vers — 2 500 m de profondeur environ, et ne descend guère au-dessous de — 2 800 m. Elle est extrêmement plate et uniforme, accidentée seulement de quelques fosses allongées et de collines peu élevées, peut-être d’origine volcanique. Son relief ou, pour employer un terme plus technique, sa morphologie actuelle semble résulter d’un remplissage uniforme par des alternances entre des produits dont on présume qu’ils sont issus de la côte et ont été transportés jusqu’à ces profondeurs par courants de turbidité et des vases très fines d’origine essentiellement pélagique. Ce remplissage, à première vue, serait très épais (quelques milliers de mètres) ;
- marines est théorique, son application à tous les océans appelle quelques modifications évidemment, mais la coupe reste toujours valable dans ses grandes lignes. Seules les étendues relatives de ces unités morphologiques varient.
- Les levés topographiques sous-marins
- Tout point de sondages sous-marins réclame la connaissance de trois coordonnées : les deux coordonnées géographiques et la profondeur. Les coordonnées géographiques sont données par les méthodes de navigation, la profondeur par les méthodes de sondage.
- (g) \iooo
- .2500 pj\
- -I 000.
- 2500 Z4QL
- Fig. 7. — Diverses coupes du précontinent de la Méditerranée occidentale.
- La carte donne les emplacements des coupes. PC, plateau continental; p, pente continentale; PA, plaine abyssale; Vsm, vallée sous-marine.
- 478
- p.478 - vue 482/551
-
-
-
- Navigation. — Il faut distinguer la navigation en vue de terre de la navigation océanique sans horizon terrestre.
- Dans le premier cas, le « point » peut se faire de façon très sûre, par relèvements au compas ou mieux au cercle hydrographique (relèvement d’angles entre des amers, c’est-à-dire des points fixes terrestres connus). Ce moyen peut être très précis, la précision pouvant atteindre le mètre dans des conditions idéales de travail (mer calme, bonne visibilité...). Il va sans dire que cette méthode n’est valable que très près des côtes. Quand on s’en éloigne, les méthodes radiogoniométriques et le radar prennent le relais. Mais ces méthodes sont de moins en moins précises à mesure qu’on s’éloigne des côtes. Depuis quelques années, de nouveaux procédés de navigation sont en service (Loran, Shoran, Decca...), mais ces procédés ne sont pas généralisés sur tout le domaine océanique. C’est ainsi que le «navigateur Decca» (précision ± ioo yards) n’est utilisable qu’autour des Iles Britanniques. Aussi le seul moyen de navigation en pleine mer reste-il l’estime et le point astronomique. La précision maximale du point astronomique est de ± 0,5 mille et le plus souvent de 2 à 5 milles. Quant à la navigation à l’estime, son erreur qui dépend de nombreux facteurs (points, vitesse du navire, vents, courants...) croît très rapidement avec la durée du parcours.
- Ainsi l’erreur initiale que l’on commet sur le point est généralement grande. Et ce fait situe tout le problème de la topographie sous-marine par comparaison avec la topographie terrestre où ce genre d’incertitude n’existe pas.
- Les sondages. — Les sondages sont maintenant continus et il n’est plus un navire océanographique qui utilise le sondage ponctuel au fil. Tous les appareils de sondages sont fondés sur le principe suivant : on enregistre l’écho donné par le fond sous-marin d’une onde ultrasonore dont on connaît le « top » de départ et le « top » de retour au bateau. Le temps qui sépare ces deux impulsions (aller et retour de l’onde) donne la distance parcourue (le double de la profondeur), si l’on connaît la vitesse du son dans l’eau (fonction de la température et de la salinité). Le principe est donc relativement simple, et c’est le mécanisme d’horlogerie qui est le cœur du sondeur.
- Fig. 8. — Coupe schématique d’un bateau avec les positions des diverses parties du sondeur acoustique.
- (Document R.B.T.).
- Fig. 9. — Coffret enregistreur de sondeur à ultrasons.
- Cet appareil permet un enregistrement continu des sondes et met en évidence tout le relief du fond de la mer sur le chemin parcouru par le navire. L’aspect de l’enregistrement permet de distinguer les fonds vaseux (mous) des fonds sablonneux (durs) ou rocheux (très durs).
- {Photo aimablement communiquée par les Etablissements B.B.T.)
- Malgré cette simplicité, de nombreuses causes d’erreur sont à redouter :
- — Variations de la vitesse du son en fonction de la température 0 et la salinité S des couches d’eau traversées; des tables donnent directement la vitesse du son en fonction de 0 et de S, mais une connaissance parfaite de cette vitesse nécessite une connaissance tout aussi parfaite des conditions hydrologiques du milieu;
- — Erreurs inhérentes au mécanisme d’horlogerie qui
- ENREGISTREUR
- COFFRET D'ALIMENTATION
- ENREGISTREUR
- RELAIS D'ÉMISSION
- OSCILLATEURS
- MAILLE ETANCHE
- OSCILLATEURS
- 479
- p.479 - vue 483/551
-
-
-
- dépend souvent de régulateurs mécaniques et d’une source plus ou moins constante de courant alternatif;
- — Erreurs dues à la topographie du fond. En effet le faisceau d’ondes ultrasonores n’est jamais aussi mince qu’on le désire; la plupart du temps l’ouverture de ce faisceau est de 6oc. L’écho qu’on recevra à bord correspondra donc au premier réflecteur rencontré par le pinceau d’ondes (fig. io). Dans le cas de cette figure, le bateau est supposé naviguer suivant la plus grande pente du relief, et ici la correction de pente équivaut à ajouter à la sonde enregistrée la distance CD. Mais ce genre de correction suppose connue au préalable l’allure de la topographie du fond.
- Surface de la mer
- fond sous marin
- Fig. 10- — Correction des sondages par écho en fonction de la pente du
- fond.
- AB, sondage enregistré; AC, sondage déduit; AD, sondage réel,
- L’épaisseur du faisceau sonore a un autre inconvénient : les vallées étroites dont la largeur est plus petite que celle du cône du son ne sont pas enregistrées sur les écho-grammes.
- Ces quelques exemples des difficultés que le topographe sous-marin rencontre dans l’emploi des instruments mis à sa disposition montrent combien une étude des reliefs sous-marins est délicate et combien l’interprétation des résultats est nécessaire.
- C’est cette interprétation qui sera œuvre scientifique. A l’encontre des cartographes terrestres, le topographe sous-marin donnera à sa carte un cachet personnel qui dépendra de son expérience et de sa plus ou moins grande habileté de synthèse. C’est ainsi que Heezen a publié une carte de l’Atlantique Nord, non pas en courbes de niveau, mais en figurés correspondant aux grandes provinces topographiques qu’un très long travail de sondages lui a permis de classer et de hiérarchiser.
- Méthodes de travail en mer
- Bien qu’un grand pas ait été fait en topographie sous-marine quand on a utilisé le sondage continu, il est évident qu’aussi rapprochées que soient les lignes de sondages, il faut toujours extrapoler entre elles. D’un autre côté les conditions de temps (et donc d’argent, car la journée d’un bateau en mer revient très cher) et de précision des points en mer, font que ces lignes de sondages ne peuvent être
- aussi rapprochées qu’on le voudrait idéalement. Il est évident, par exemple, que deux lignes de sondages parallèles ne peuvent pas être éloignées d’une distance moindre que la distance maximale de l’erreur qu’on commet dans l’établissement du point géographique.
- En pratique, toute campagne topographique se déroule selon le schéma suivant. Une première campagne est faite pour connaître les lieux de travail et se faire une idée de sa topographie. Prenons le cas d’un canyon sous-marin. Durant la première campagne, la route du bateau a coupé un canyon sous-marin; cette coupe donnera déjà une idée de la direction du canyon et peut-être de son extension. Avec ce renseignement, on pourra construire une route rationnelle pour la seconde campagne. Cette route consistera en « grecques » plus ou moins serrées suivant le temps dont on dispose et le degré de précision qu’on tient à obtenir dans cette étude. Ces « grecques » consistent à faire décrire au navire sondeur des lignes dont le dessin rappelle les « grecques » des motifs décoratifs, d’où leur nom. Elles se font perpendiculairement à l’axe du canyon (fig. ii). On pourra ensuite faire une ou plusieurs radiales au canyon dans le but d’avoir des lignes de sondages supplémentaires pour contrôler les lignes de sonde en grecques.
- Le travail consiste ensuite à reproduire sur la carte marine les routes suivies, puis de reporter sur cette route les points de sonde donnés par les bandes de sondeur et sur lesquelles ont été inscrits les divers changements de route du bateau. On inscrit le point toutes les io minutes; entre deux points la vitesse du bâtiment est connue et considérée comme constante.
- Les points d’égale profondeur sont reliés entre eux par des courbes qui seront les futures courbes de niveau. L’allure de ces courbes entre deux points d’égale profondeur dépend du dessinateur et de son « intuition » du relief général.
- L’établissement de la carte de la Méditerranée occidentale
- Jusqu’ici les cartes bathymétriques ne donnaient qu’un nombre de courbes de niveau assez réduit, limitant des espaces bathymétriques arbitraires. De plus cette représentation fixait les ruptures de pente aux seules courbes de niveau existant sur la carte. C’est ainsi que la limite du plateau continental était fixée, a priori, à — zoo mètres.
- Le professeur Jacques Bourcart et ses collaborateurs, au contraire, ont essayé de rendre leur carte « parlante » comme une carte topographique terrestre. Pour ce faire, ils ont dessiné leur carte en courbes de niveau d’équidistance assez réduite : 50 m la plupart du temps. Ce dessin a d’abord été tracé à grande échelle, puis réduit photographiquement en laissant la totalité des courbes; c’est ainsi qu’une fois réduite, la carte donne une impression de relief, due à ce que les courbes sur les pentes assez fortes se confondent les unes dans les autres et forment un épais trait noir.
- Cette carte n’est évidemment qu’un croquis représentatif, car pour tracer le relief sous-marin avec un aussi grand nombre de courbes il a fallu interpoler et même extrapoler les points de sonde. Mais ces extrapolations ont été faites suivant des règles précises. Pour les reliefs du précontinent, on a admis les lois de la topographie
- 480
- p.480 - vue 484/551
-
-
-
- C. Corse
- C. Muro{
- S: Florent
- CORSE
- -1500
- Légende
- //) route suivie parle / I navire sondeur c£W courbes de niveau / principales
- Fig. il- — Exemple de route suivie en sondage continu pour l’établissement d’une carte sous-marine.
- Sondages de la Calypso, mai 1957 (D’après J. Bourcart).
- subaérienne, celles formulées par le commandant de Laminat par exemple, et on a dessiné ces reliefs en fonction de ces lois. Au contraire pour les reliefs qui émergent de la plaine abyssale, on suppose qu’ils n’ont pas subi les lois de l’érosion continentale et on les a dessinés comme en surimposition sur cette surface. Jusqu’ici ces principes n’ont pas été contredits par l’expérience.
- La carte a donc un « style » qui provient de la longue expérience de morphologiste du professeur Bourcart et de son expérience du relief sous-marin, acquises durant ses campagnes océanographiques, effectuées soit à bord des
- Fig. 12. — Autre exemple de sondage continu.
- C.Gargalo
- Légende
- lignes de niveau principales
- route suivie par / 1 le bateau
- unités de la Marine nationale, soit à bord de la Calypso.
- C’est donc une image suggestive du fond de la Méditerranée occidentale plutôt qu’un levé parfaitement rigoureux que le Laboratoire de Géologie sous-marine nous présente ici. C’est un « fond» sur lequel les chercheurs, géologues, zoologistes, géophysiciens pourront reporter commodément leurs observations ou leurs mesures. C’est en. plus une base de travail pour des levés de détail plus précis.
- *
- * *
- Cette étude sommaire du travail particulier du morphologiste en mer, en posant les limites de l’investigation sous-marine, montre combien l’esprit des recherches océanographiques diffère de celui des recherches morphologiques et géologiques terrestres.
- Nous voudrions en finissant en donner quelques exemples. Avant même d’avoir trouvé des galets d’origine fluviale à plus de 2 000 mètres de profondeur, l’origine aérienne des vallées sous-marines avait été pressentie, rien que par leur étude morphologique. De même une étude de détail des pentes du précontinent peut fournir des renseignements sur les changements de la nature des roches de cette pente, sans qu’aucun dragage les confirme. Un dragage géologique réussi est si rare que, pratiquement, seule la morphologie peut fournir des résultats d’ordre géologique. En mer, la géologie n’est pas une science purement descriptive, elle devient le résultat d’appréhensions successives dont on peut mettre en doute la validité, mais qui demeurent indispensables si l’on veut généraliser les quelques résultats concrets obtenus à grand peine. La géologie sous-marine se cache donc sous différents noms, dont les plus courants sont la morphologie et la géophysique.
- J. P. Carbonnel,
- Stagiaire de recherches au C.N.R.S.
- 481
- p.481 - vue 485/551
-
-
-
- La reine abeille attire les faux-bourdons par une puissante émanation chimique
- Les conditions qui facilitent la réunion des abeilles des deux sexes au cours du vol nuptial n’ont pas manqué de retenir l’attention des biologistes. L’accouplement a lieu généralement à une certaine distance du sol et est difficile à observer, d’autant plus que l’activité sexuelle de la reine ne se manifeste qu’au cours d’un à quatre vols d’une durée moyenne de dix minutes. L’étendue exacte du vol de la reine n’est pas connue mais il est certain que les mâles sont attirés par elle de fort loin. Bien que cette attraction soit un phénomène qui échappe à l’observation directe, on peut évaluer à une quinzaine de kilomètres la distance à laquelle elle peut se manifester. C’est l’ordre de grandeur des chiffres dûment reconnus chez les Lépidoptères; ainsi des marquages ont permis de fixer à 11 kilomètres la distance parcourue par des mâles du Grand Paon de nuit (Saturnin pyrï) pour atteindre une femelle. On sait depuis longtemps déjà que l’attraction sexuelle est due chez les papillons à une substance émise par les femelles. C’est sans doute ce qui a amené M. Norman E. Gary, entomologiste à l’Université de Californie, à rechercher si l’attraction à distance des faux-bourdons par la reine d’abeille répond à la présence d’une sécrétion analogue. Les premiers résultats de ses recherches ont été publiés dans la revue américaine Science (ier juin 1962).
- Dans une première série d’expériences, des reines vierges âgées de 1 à 3 semaines furent lâchées en demi-liberté, reliées par un fil de nylon fixé sur le thorax à un ballon rempli d’hélium; le fil, long d’un mètre environ, leur permettait de voler dans un cercle assez réduit autour du ballon. Chaque après-midi, pendant la période de vol des mâles, les reines étaient élevées à une hauteur de 10 à 25 mètres et à une distance de 100 mètres environ du rucher. Les mâles étaient rapidement attirés et volaient autour d’elles en grand nombre. On constatait seulement que l’attraction cessait dès que les reines étaient descendues au-dessous de 15 pieds (4,50 m environ); les mâles se dispersaient alors rapidement.
- Ces observations avaient surtout pour but de vérifier si les conditions expérimentales étaient favorables à des essais sur la substance qui assure le pouvoir attractif de la reine. A cet égard, les premiers essais furent faits avec des papiers filtres imprégnés de la substance de reines écrasées;
- Vestiges d’êtres
- Dans ces récentes années, à diverses reprises, il a été question de matière organique ou même de corps figurés découverts dans des météorites et établissant, par conséquent, que des organismes vivants, ou à tout le moins leurs débris ont été véhiculés sur terre, à travers l’espace interplanétaire. MM. G. Clauss et B. Nagy ont même publié récemment des microphotographies dans lesquelles ils croient reconnaître des organismes végétaux de types inconnus sur la terre et pour lesquels ils ont créé une série de noms spécifiques (Nature, Londres, 1961; Bulletin de la Société américaine de Phycologie, 1962).
- M. Georges Deflandre, qui a examiné certaines des préparations de ces auteurs, a fait la critique de leurs conclusions dans une note à
- ces papiers se montrèrent très fortement attractifs. La seconde étape eut pour but de localiser le point d’émission de la substance attractive. A cet effet furent employés des extraits éthérés de différentes parties du corps de l’abeille et il fut facile de reconnaître que l’origine de la substance recherchée se trouve dans les glandes mandibulaires qui sont particulièrement développées chez la reine d’abeille comparée aux autres Hyménoptères.
- Le résultat de ces recherches apporte donc la première preuve expérimentale de l’existence, chez l’abeille, de substances chimiques volatiles qui fonctionnent comme attractifs sexuels. Ces corps se classent parmi les phéro-mones, sécrétions glandulaires comparables aux hormones mais qui, au lieu d’être déversées dans la circulation sanguine, sont rejetées hors du corps (voir Læ Nature, juillet 1959, p. 297). Des phéromones sexuelles sont d’ailleurs connues chez les papillons, les blattes et les grillons du genre Oecanthus. Les phéromones semblent jouer aussi un rôle important dans la régulation sociale chez les abeilles où le développement des ovaires des ouvrières est inhibé par la présence de la reine. Mlle Pain, travaillant à la Station de Recherches apicoles de Bures-sur-Yvette, a même montré récemment que les phéromones sécrétées par la reine restent actives après sa mort et qu’une reine conservée en collection depuis trois ans provoque encore l’inhibition du développement ovarien chez les ouvrières qui sont mises en contact avec elle.
- Au point de vue chimique, la phéromone sexuelle de la reine d’abeille se montre composée de trois séries de lipides solubles dans l’éther dont deux seulement sont attractifs pour les mâles; la troisième fraction n’a montré qu’en un seul cas une faible valeur attractive.
- La communication chimique entre la reine d’abeille et les mâles pendant le vol nuptial peut être considérée comme un mécanisme efficace, assurant des accouplements rapides et multiples et diminuant le plus possible l’exposition de la reine aux attaques des prédateurs. On peut penser aussi que l’attractif chimique pourra être utilisé pour contrôler la population des mâles d’une vaste région au point de vue de la portée et de la distribution des vols, ainsi que de leur origine génétique.
- L. Chopard.
- extra-terrestres ?
- l’Académie des Sciences. Il observe que les structures présentées, ou bien sont méconnaissables en tant que vestiges d’êtres vivants, ou bien sont attribuables à des types connus sur terre. La méthode même qui a été employée lui paraît sujette à caution et avoir comporté tous les risques de contamination par des bactéries, des algues, des spores, etc., et il conclut : « Seuls des prélèvements dans la masse interne des météorites, suivis de la confection de lames minces, le tout effectué selon des méthodes d’une grande rigueur, permettront de donner une réponse indubitable à cette grande question : les météorites contiennent-elles des preuves de l’existence d’êtres organisés extra-terrestres ? »
- 482
- p.482 - vue 486/551
-
-
-
- Les lignes de métro dans le monde
- Vingt-huit villes dans le monde possèdent actuellement une ou plusieurs lignes de métro. En tête viennent les Etats-Unis, où cinq agglomérations sont dotées d’un métro : New York, Boston, Chicago, Philadelphie et Cleveland. Les réseaux y sont d’ailleurs très inégaux, puisque le dernier nommé n’a qu’une ligne, ouverte en 1955, longue de 24 km; alors que le métro new yorkais, beaucoup plus ancien/en compte 29, longues au total de 380 km.
- Après les Etats-Unis viennent l’U.R.S.S., avec trois réseaux (Moscou, Léningrad et Kiev), à égalité avec le Japon (Tokio, Osaka, Nagoya). L’Espagne (Madrid et Barcelone), l’Allemagne (Berlin et Hambourg), le Royaume-Uni (Londres et Glasgow), et bientôt l’Italie (Rome, puis Milan d’ici peu) comptent chacun deux réseaux.
- Le plus ancien métro est celui de Londres, où la première ligne fut ouverte il y a près d’un siècle, en 1863. Le plus récent est celui de Kiev, inauguré en i960. Parmi les réseaux entrés en service au cours des récentes années, citons Haïfa (1959), Lisbonne (1959), Nagoya (1957), Léningrad (1955), Cleveland (1955), Toronto (1954).
- Le réseau le plus important, aussi bien par le nombre de ses lignes que par leur longueur totale, est sans contredit le réseau new yorkais, comme en témoigne le tableau ci-dessous :
- Nombre de lignes Longueur totale Stations
- New York................... 29 380 km 482
- Paris...................... 15 190 km 344
- Berlin..................... xo 83 km 101
- Londres..................... 7 363 km 230
- Moscou ..................... 6 77 km 58
- On voit que le métro parisien est d’assez loin le plus fourni en stations (une tous les 550 m en moyenne, contre une tous les 800 m à Berlin et New York, une tous les 1 250 m à Moscou, une tous les 1 600 m à Londres). Deux conceptions s’opposent ainsi depuis longtemps : celle du métro à points d’arrêt rapprochés, donc commodes pour la desserte complète d’une ville (Paris, Glasgow, Berlin, Lisbonne, Madrid, Buenos Aires, Toronto, New York, Haïfa), mais à vitesse commerciale forcément handicapée
- (24 km à Paris, 26 à Berlin, 27 à New York) ; et la conception d’un métro plus rapide, aux stations relativement éloignées les unes des autres (Londres, Moscou, Léningrad, Boston, Cleveland, Osaka), roulant à des vitesses commerciales moyennes de 35 à 40 km/h. Parfois même ce dernier type de métro se prolonge par un véritable chemin de fer de banlieue : cas d’Athènes-Le Pirée, cas peut-être bientôt de la future transversale Est-Ouest de Paris.
- Un autre élément intéressant à connaître est la fréquence d’utilisation, autrement dit le nombre de voyageurs par an : New York, on s’en doute, se classe en tête; il est suivi de Paris et de Moscou. Mais ces chiffres, exprimés en valeur absolue, doivent être rapportés à la longueur totale du réseau. Le tableau suivant est assez instructif à cet égard :
- Voyageurs par an Voyageurs (en millions) par kilomètre
- New York ................ 1 329 3 497 000
- Paris.................... x 200 6315 000
- Londres............................. 669 1 843 000
- Moscou .................. 1 000 13 000 000
- Madrid.............................. 416 14 850 000
- Berlin.............................. 240 3 000 000
- On remarque que le nombre de voyageurs est relativement très élevé dans les villes où les transports en commun constituent le moyen de déplacement essentiel (Madrid, Moscou; cas également de Buenos Aires, Tokio, Osaka, Barcelone). Il est encore important dans les métropoles où le métro est le plus commode moyen de transport (Paris, New York). Il devient faible dans les cités bien desservies par moyens de surface, autobus ou taxis (Londres, Cleveland).
- Un dernier détail à cet égard : une comparaison entre Paris, Londres et New York au sujet de la fréquentation comparée du métro et des autobus. Dans les trois villes, le rapport voyageurs-autobus/voyageurs-métro est assez différent : 73 pour 100 à Paris, 30 pour cent à New York, plus de 300 pour 100 à Londres.
- D. C.
- Pouf une « promotion » de l’arsenic
- On a annoncé récemment la formation d’un « Comité pour la promotion de l’Arsenic», 26, rue Lafayette, Paris-9e, qui s’est donné mission d’être un centre d’information et de stimuler la recherche dans le domaine de l’arsenic. A cette nouvelle qui peut intéresser certains de nos lecteurs, nous ajouterons un commentaire d’ordre littéraire. Par « promotion » de l’arsenic, il faut entendre sans doute une extension de ses usages et non son élévation à un grade supérieur dans l’échelle des éléments chimiques ! Somme toute, il s’agit d’une image, moins abusive que quand on parle de « promotion d’une politique», ce qui ne veut plus rien dire du tout. Acceptons donc cette promotion, tout en tâchant de conserver à notre langue sa logique et sa précision.
- La culture du tabac en France
- La culture du tabac occupe en France une superficie d’environ 27 000 ha déclarés, répartis entre quelque 100 000 planteurs. La surface moyenne de chaque exploitation de tabac s’établit donc à 27 ares; mais il faut retenir qu’il s’agit d’une exploitation complémentaire dans le cadre familial et qu’il n’existe pratiquement pas de grosse exploitation indépendante ne cultivant que du tabac.
- Les rendements moyens, à peu près constants dans les principales régions productrices, tournent autour de 2 oookg/hectare (2 800 en Alsace). La production totale métropolitaine atteint 60 0001 annuellement. Les principaux départements producteurs sont, dans l’ordre, le Lot-et-Garonne, la Dordogne et le Bas-Rhin : à eux trois, ils fournissent près de la moitié de la production totale.
- 483
- p.483 - vue 487/551
-
-
-
- SUPPORT-ÉLÉVATEUR de LABORATOIRE BOY
- Ces petits engins peuvent supporter, soutenir juste à la hauteur voulue, soulever, faire monter ou descendre, jouer le rôle de cale, de cric. Dans bien des ensembles usuels, il faut se réserver la possibilité d’éclipser certains éléments pour pouvoir démonter sans peine : par exemple, dans un ensemble d’appareils à distiller, il faut pouvoir retirer vers le bas le chauffe-ballon, le bain-marie ou le bain d’huile pour enlever le ballon sans déplacer le reste de l’appareil. Dans d’autres circonstances, ce sera un récipient, un vase Dewar, un agitateur magnétique, qu’il faudra placer en hauteur en conservant la latitude de le retirer vers le bas.
- Le support BOY apporte une solution immédiate à ces petits problèmes. Il augmente la sécurité du travail : son emploi évite bien des casses d’instruments en verre, en fournissant le moyen de régler la position des pièces sans les brider. Il sert à soulever sans danger des objets lourds ou dangereux à manipuler (cas du bain d’huile chaud).
- Support BOY, modèle normal,
- hauteur 9 à 29 , cm
- Support BOY modèle micro,
- hauteur 4,5 à 14,5 cm
- PROLABO
- TEL VOL 11-90 ET 41-19 —
- 12, RUE PELEE, PARIS XIe
- MULTIMESUREUR E.R.I.C
- appareil universel à hantes performances pour laboratoires
- Galvanomètre de 165, classe 0,5. - Robustesse à toute épreuve des surcharges.
- MESURE :
- directement ou par adjonction d'organes de référence ; e : 0,5 mV à 35 fcV r : 20 CL à 1012 Dh
- i : 10-3 à 10-n a c : 10 pF à 10.000 pP
- q : 10 pico coulombs à 10 mC Fluctuations de tension : AV = 1 V/1.000 V Champs : depuis 1 oersted
- Tensions : piézoélectriques; électro-statiques; d'hystérésis, de corrosion, pH, rH.
- Intègre au sens mathématique du terme depuis 1 seconde à 60 minutes.
- Documentation et démonstrations sur demande
- Fournisseur de 1.900 laboratoires T français et étrangers
- [EMOUZr.
- FONDE EN 1915
- 63 RUE DE CHAREJÎTOPÎ, PARIS 12e. DID. 07-74
- NOUVEAU
- SPECTROPHOTOMÈTRE
- ENREGISTREUR
- « ULTRASCAN-HILGER »
- 2 000-7 500 A Double faisceau
- É,s F. C. DANNATT
- 198 rue Saint-Jacques, PARIS 5e
- 484
- p.484 - vue 488/551
-
-
-
- U ACTUALITE INSTRUMENTALE
- Ultrafiltre pour la concentration
- des substances
- de poids moléculaire élevé
- Il est fréquent, en chimie biologique, d’avoir à concentrer des substances de poids moléculaire élevé telles que les protéines, et l’ultrafiltration à travers un boyau de dialyse en cellulose constitue à cet égard une des techniques les plus efficaces.
- Une firme suédoise, LKB-Produkter, propose depuis peu un ultrafiltre particulièrement bien adapté à la concentration des protéines et éventuellement de suspensions d’éléments biologiques tels que bactéries, algues, fragments cellulaires, etc. Il se compose essentiellement d’un châssis en nylon recouvert d’un boyau de dialyse en forme de sac (fig. i). L’étanchéité entre le châssis et le sac est assurée à la partie supérieure, au moyen d’un anneau de serrage en caoutchouc synthétique autour duquel le boyau est étroitement appliqué. La partie inférieure du filtre est obturée par un double nœud fait sur le boyau. Un bouchon de caoutchouc, à travers lequel passe un tube d’aspiration en verre, vient se loger dans la partie supérieure, légèrement évasée, du châssis. Le tube d’aspiration est prolongé par un tuyau de caoutchouc qui peut être serré au moyen d’une pince à vis, rendant ainsi l’ensemble parfaitement étanche. Ce sac peut être vidé par une pompe aspirante, soit en une seule fois avant de commencer la filtration, soit d’une façon continue pendant toute la durée du processus de concentration. Lorsqu’on immerge l’appareil dans la solution à
- Pince à vis-
- Anneau de serrage
- Tube d'aspiration
- Boyau de Filtration
- Solution à concentrer
- o .O
- Fig. i. — Ultrafiltre LKB.
- Explications dans le texte.
- concentrer, les substances de faible poids moléculaire (au-dessous de 30 000 environ) ainsi que le solvant traversent la membrane de cellulose vers l’intérieur du sac tandis que les molécules plus grandes, telles que les protéines et les bactéries, restent à l’extérieur, augmentant ainsi la concentration de la solution.
- La surface de filtration est d’environ 60 cm2. La vitesse de filtration dépend évidemment de la viscosité de la solution. Lorsque toute la surface de filtration est immergée dans l’eau pure, la vitesse est de 14 cm3/h environ. Le diamètre moyen des pores de la membrane est de 24 À.
- Les avantages de cette technique sont nombreux : les risques de contamination sont minimes, la solution à concentrer n’étant en contact qu’avec le verre du récipient et la membrane filtrante. La filtration peut être faite dans des conditions de parfaite stérilité, chaque composant de l’appareil étant capable de résister en autoclave à une température de 1250 C. La concentration saline de la solution n’est pas modifiée au cours de la filtration. Le pH et la force ionique de l’échantillon restent donc constants au cours de la concentration. L’encombrement de l’appareil est très réduit. Lorsqu’il s’agit de substances sensibles à la température, on peut très bien ranger plusieurs appareils dans n’importe quel réfrigérateur. Enfin de hautes concentrations sont réalisables : en effet, le filtre est étanche à l’air, même lorsqu’il n’est que partiellement immergé dans la solution. Par suite on peut concentrer les solutions jusqu’à de très faibles volumes.
- Un certain nombre d’applications ont déjà été réalisées avec l’ultrafiltre : concentration des fractions protéiniques obtenues après séparation par chromatographie ou électrophorèse, concentration de solutions diluées de protéines, par exemple urine ou liquide céphalo-rachidien, avant séparation ultérieure. D’autres utilisations semblent possibles, comme la filtration et la séparation par groupes de substances de poids moléculaire élevé autres que les protéines, ou la concentration de suspensions d’éléments biologiques tels que bactéries, algues et fragments cellulaires.
- L’appareil est représenté en France par la Société Sofranié.
- R. R.
- Le plus puissant microscope
- Un nouveau microscope métallographique, beaucoup plus puissant que les microscopes électroniques classiques, a été mis au point par M. Erwin W. Muller, de la Pennsylvania University et construit par la Central Scientific Cy de Chicago. A une température très basse, entretenue par de l’azote liquide, des atomes d’hélium sont ionisés à la surface du métal à observer et les électrons en sont extraits et accélérés dans un champ électrique puis dispersés en éventail vers un écran fluorescent, où l’image de la surface métallique apparaît avec un grossissement qui peut atteindre 20 millions. Un microscope de ce type vient d’entrer en service à l’Université Columbia.
- 485
- p.485 - vue 489/551
-
-
-
- Le Ciel en Décembre 1962
- SOLEIL : du Ier au 22 (à oh) sa déclinaison décroît de — 2i°4i/ à — 23°27' (minimum), puis revient à —23°5/ le ier janvier 1963 (à oh), la durée du jour passe de 81231™ je jer à 8hii™ le 22 (minimum), puis revient à 8hi5m le 31, diamètre app. le iRr (à oh) = ^z zy",<ÿ, le 31 (à 24b) = 32^35",o. — LUNE : Phases : P.Q. le 4 à 161148™, P.L. le 11 à 91128™, D.Q. le 18 à 221143™, N.L. le 26 à 22I159m-, périgée le 8 à 17b, diamètre app. = 32^45" ; apogée le 20 à nh, diamètre app. = ze) . Principales conjonctions : avec Saturne le 2 à 3b, à o°i2/ N; avec Jupiter le 4 à 3b, à i°46/ S; avec Mars le 16 à 7b, à o°5 5' S; avec Uranus le 17 à 3b, à 2°2o/ N ; avec Neptune le 22 à 22b, à 3°29/ N; avec Vénus le 23 à 7b, à i°^z' N ; avec Mercure le 28 à uh, à 2°28' N; avec Saturne le 29 à 14b, à o°9/ S; avec Jupiter le 31 à 15b, à z°i^' S. Principales occultations : le 8, de p Baleine (mag. 4,4) immersion à I9b7m,5 ; le 13, de L Gémeaux (mag. 3,8) immersion à 5h56m,6 et émersion à 61156™,2 ; le 14, de 85 Gémeaux (mag. 5,4) émersion à 3h44m,3; le 14, de 0 Cancer (mag. 4,2) immersion à 22h47m,7 et émersion à 23h35m38; le 24, de 49 Balance (mag. 5,5) émersion à 6h2im,4; le 31 de 74 Verseau (mag. 5,9) immersion à I9h2m,6. — PLANÈTES : Mercure, étoile du soir dans le dernier tiers du mois, se couche le 31 à I7h29m, soit ih28m après le Soleil; Vénus, splendide étoile du matin, se lève le 27 à 31156™, soit 3h49m avant le Soleil, mag. — 4,4; Mars, au N-W de Béguins, bel astre rouge, se lève dans la soirée, le 27 à I9h57m, diamètre app. n",3 et mag. — 0,3 ; Jupiter, dans le Verseau, étoile du soir bien visible, le 15, se couche à 22b5™, diamètre pol. app. 35",5 et mag. — 1,9; Saturne, dans le Capricorne, se couche 2h3om environ avant Jupiter, le 15 à 191130™; Uranus, stationne à i° environ au N
- de p Lion, le 15, lever à 211153™, position : ioh29m et + io022r, diamètre app. 3//,7, mag. 5,8; Neptune, au N-E de a Balance, est visible le matin, le 15, lever à 41113™, position : I4h5im et— i4°35/, diamètre app. z",4, mag. 7,8 ; Cérès et Vesta, dans le Lion, positions respectives, le i«’: 11I14™ et + i6°2i', 111127™ et + 8043 ', le 11 : 11^4™ et + i6°9/, 11I140™ et -j- 7°59/, le 21 : 11I123™ et -+- i6°I2/, iibjx™ et + ~j°z6', le 31 : 1^30™ et + i6°3o/, i2hom et ~f- ~j06', mag. 7,1.— ÉTOILES VARIABLES : minima observables d’Algol (2m,2-3m,5) le 10 à 4h,6, le 13 à ih,4, le 15 à 22b, 1, le 18 à 19b,o, le 30 à 6b,2; minima de (i Lyre (3m,4-4m,3) le 10 à nh,o, le 23 à 9^4,; maxima de ô Céphée (3™,7-4™,6) le 3 à iih,^, le 8 à 20b,7, le 14 à 5^5, le 19 à 14b,3, le 24 à 23b,x, le 30 à 711,9; maximum de T Céphée (5m,4-nm,o) le 27. — TEMPS SIDÉRAL : au méridien de Paris à oh (T.U.) : le Ier : 4h46m5os, le 11 : 5h26mi5s, le 21 : 61>5m4is, le 31 : 6h45m7s.
- Phénomènes intéressants : Solstice d’hiver le 22 à 8^5™. — Surveiller l’activité solaire. — Du 20 au 24, lumière cendrée de la Lune, le matin. — On continuera de suivre à la jumelle ou dans une petite lunette les astéroïdes Cérès et Vesta, respectivement dans les régions Û et v-~ du Lion. — Les deux grosses planètes Jupiter et Saturne sont toujours visibles le soir. — Etoiles filantes : du 9 au 13, Geminides (maximum le 12), radiant Castor. — On observera les belles constellations d’hiver : Taureau, Gémeaux, Cocher, Orion, Grand et Petit Chiens.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur. L. Tartois.
- LES L I V R
- Eléments de mécanique rationnelle à l’usage des électroniciens, par Franz Bultot. i vol. 16 X 25, 280 p., nombr. fig. Gauthier-Villars, Paris, 1961. Prix, cartonné : 35 NF.
- L’auteur a cherché à présenter de façon toute nouvelle les lois de la mécanique et si la base de son ouvrage est bien classique, les nombreux exemples et applications proposés le sont moins puisqu’ils ont un rapport direct ou indirect avec la physique moderne et l’électronique. Par exemple l’auteur traite avec beaucoup d’élégance le mouvement des particules électrisées dans des champs électriques ou magnétiques de configurations diverses. Bien d’autres questions à l’ordre du jour comme la modulation de fréquence, le fonctionnement d’un klystron, la spectrographie de masse ou les fusées, sont abordées à l’occasion des principales propositions de la mécanique rationnelle.
- Les livres arithmétiques d’Euclide, par Jean Itard. 1 vol. 14X21, 232 p., 8 fig. Collection Histoire de la Pensée, n° X. Editions scientifiques Hermann, Paris, 1961. Prix : 15 NF.
- Dans l’immense production du célèbre mathématicien grec, l’auteur a choisi un groupe réduit et homogène formé des cent deux propositions arithmétiques des Eléments VII, VIII et IX, éclairé de quelques études latérales et de quelques documents annexes, ceci parce que ces propositions sont les moins connues et qu’elles forment un ensemble très cohérent qui a influencé toute la théorie des nombres. Cette nouvelle traduction française est accompagnée de nombreux commentaires qui éclairent le sens de chacune des propositions d’Euclide. Belles illustrations sur le thème universel du quadrillage qui apparaît comme une des origines incontestables de la théorie des nombres.
- Proceedings of the Fourth Berkeley Symposium on Mathematical Statistics and Proba-bility, édité par Jerzy Neyman. 4 vol. 17,8 x 26; vol. I : xn-767 p.; vol. II : xn-633 P-> vol. III : xn-335 p.j vol. IV : xn-413 p.; nombr. fig.
- ES NO
- University of California Press, Berkeley (Californie), 1961. Prix, relié et respectivement: 16 dollars, 13,50 dollars, 7 dollars, 8,50 dollars. Le volume I est consacré à la statistique mathématique théorique; le volume II à la théorie des probabilités; le volume III aux applications en astronomie, météorologie et physique; le volume IV aux applications en biologie. Ces symposiums se tiennent régulièrement tous les cinq ans et fournissent une excellente occasion aux chercheurs de se rencontrer et d’échanger des idées. Ces quatre volumes reflètent donc fidèlement l’état actuel des statistiques mathématiques grâce à la contribution des auteurs les plus réputés.
- Jean-François astronome, par Pierre Rousseau. 1 vol. 13 X 20, 224 p., nombr. fig. Hachette, Paris, 1962. Prix, relié : 10 NF.
- Vous commencez à lire cet aimable petit roman,
- ------ A NOS LECTEURS -------------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- est à la disposition des lecteurs de LA NATURE - SCIENCE PROGRÈS pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- U V E A U X
- écrit dans le style qui plaît aux jeunes, et dévorez (même si vous ne faites pas partie de cette catégorie) les premières pages qui racontent... le bricolage d’une lunette astronomique par une famille d’adolescents enthousiastes, sous la direction d’un astronome. Le reste est connu par avance : le roman, qui n’en est pas un, va entraîner la lunette et la famille dans de nombreuses observations célestes. Les jeunes du livre, comme ceux qui le liront, apprennent en douceur une foule de choses sur la lune, le soleil, les planètes, la carte du ciel, etc. L’auteur a ceives fait du bon travail et avoue par surcroît s’être bien amusé en écrivant son livre.
- L’Univers et les frontières de la vie, par Pierre Rousseau, i vol. 13 x 20, 184 p. Collection Les grands problèmes. Hachette, Paris, 1962. Prix ; 7,50 NF.
- Ce livre répond, par une série d’hypothèses logiques, à la question souvent posée ces derniers temps : la vie et l’intelligence se sont-elles manifestées en d’autres lieux de l’Univers que notre planète Terre ? C’est en décrivant l’histoire de cette dernière que l’auteur prend le départ : base nécessaire pour les extrapolations attendues qui débouchent sur les perspectives les plus variées, y compris la communication par messages avec les autres mondes civilisés.
- La poussière cosmique, les milieux interplanétaire, interstellaire et intergalactique, par A. Dauvillier, professeur au Collège de France. 1 vol. 14 X 22,5, 210 p., 31 fig., 9 planches hors texte. Collection Evolution des Sciences. Masson, Paris, 1961. Prix, cartonné : 25 NF.
- L’espace que l’on considérait naguère comme vide est en réalité peuplé de gaz et de poussières qui représentent une bonne part de la masse totale de l’univers, et jouent certainement un grand rôle dans son évolution. Entre ces poussières et les corps de dimensions visibles existent tous les intermédiaires (météorites, astéroïdes) qui entrent donc dans le cadre de cette étude. L’auteur, dont
- 486
- p.486 - vue 490/551
-
-
-
- on connaît les théories originales sur les problèmes cosmogoniques (planètes jumelles, etc.) présente une revue des connaissances récentes sur toutes les matières dispersées, dans le système solaire, dans la galaxie, dans les espaces intergalactiques. Discutant les théories, il apporte là encore des vues personnelles, dans le cadre de cette grande idée : l’univers n’évolue pas vers un état final de dispersion et de mort thermique, à chaque phénomène correspond un phénomène compensateur, gaz et poussières expulsés sont récupérés par les astres, et statistiquement rien ne change.
- Les Sciences (Chimie, Physique, Astronomie), publiée sous la direction de J. Bronowski, avec la collaboration de Sir Gerald Barry, James Fisher, Sir Julian Huxley. Présentation de Louis Leprince-Ringuet, de l’Académie française. Dessins de Hans Erni. i vol. 20 x 27,5, 368 p., 1 856 illustr. en noir, 244 en couleurs. Collection Pour connaître. Larousse, Paris, 1962. Prix, relié : 49,50 NF.
- Ce magnifique album, richement illustré, y compris de vastes compositions allégoriques en double page qui pourront plaire (ou le contraire), est destiné aux adolescents. Tl est indéniable que, séduits par cette belle présentation, ils seront tentés de pénétrer plus avant dans le texte qui accompagne les images et qui leur procurera une initiation sans douleur (parce que didactique avec modération) aux sciences qui interviennent dans la connaissance de la Terre et de l’Univers.
- Compléments de dynamique des fluides et d’acoustique, par Plenri Bouasse. (Œuvres inédites). Tome I. 1 vol. 16,5 X 25, xvi-258 p., nombr. fig. Librairie scientifique et technique Albert Blanchard, Paris, 1962. Prix : 22 NF.
- Un groupe d’anciens collaborateurs et de disciples de Henri Bouasse se sont chargés de rassembler ses derniers travaux non publiés. On retrouvera la clarté d’exposition et les pertinentes remarques d’un des plus prestigieux maîtres de la physique en France. Trois sujets sont traités en détail dans ce Ier tome : vents d’onde et vents résiduels, circulations dues à la force exifuge, constitution de la houle.
- Cours de Physique, par Marc Jouguet. Tome II : Electricité. 1 vol. 16 X 25, 355 p., 100 fig. Eyrolles, Paris, 1962. Prix : 43 NF.
- Cet ouvrage, issu du cours professé par l’auteur à l’Ecole nationale des Ponts et Chaussées et à l’Ecole nationale supérieure des Télécommunications, traite de l’électricité « macroscopique », ainsi nommée pour l’opposer à l’électronique. L’exposé est très moderne et l’auteur a mis constamment en lumière le caractère foncièrement relativiste des phénomènes électromagnétiques. La notion de champ y joue le rôle essentiel. L’électrostatique et la magnétostatique sont traitées en huit chapitres où sont étudiés les champs permanents. Les lois des états variables, exprimés par les équations de Maxwell, sont déduites de celles des états permanents par simple application du principe de Relativité. Les questions relatives à l’énergie sont exposées par les méthodes de la
- thermodynamique, ce qui leur donne une grande unité. Deux systèmes sont utilisés dans l’ouvrage : le système Giorgi employé par l’ingénieur et le système de Gauss qui convient mieux au physicien.
- Thyratrons, par C.M. Swenne. i vol. 15 X 21,5, vui-76 p., 68 fig., 4 photos hors-texte. Série Vulgarisation. Bibliothèque technique Philips, Eindhoven (Pays-Bas), 1961; dépositaire France et Communauté française : Dunod, Paris. Prix, relié : 11,50 NF.
- Description élémentaire des thyratrons et de leurs applications. L’utilisation des mathématiques a été réduite au maximum, comme dans tous les ouvrages de cette collection destinée aux débutants en électronique.
- Photo and thermoelectric effects in semi-conductors, par Jan Tauc. Traduit par Margaret Laner. i vol. 15,5 X 23,5, xu-248 p., fig. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1962. Prix, relié : 60 sh.
- Cet ouvrage sur les propriétés photo et thermoélectriques des semi-conducteurs comporte une excellente introduction dans laquelle l’auteur présente une synthèse courte mais assez complète de la théorie générale de la conductibilité dans les semi-conducteurs. Dans la suite de l’ouvrage, l’accent est mis sur l’interaction des différents facteurs, éclairement, température, champ magnétique. La théorie est appliquée à de nombreux problèmes, barrière de potentiel, jonctions n-p, contacts métal-semi-conducteur, cellules. D’un niveau théorique assez élevé, l’ouvrage nécessite de solides connaissances mathématiques, en particulier dans le domaine de la mécanique quantique dont il est fait une constante application. L’ingénieur y trouvera les résultats fondamentaux précis et le chercheur, malgré la concision de l’ouvrage, une base solide et une importante bibliographie bien informée des travaux conduits dans ce domaine en Tchécoslovaquie et en U.R.S.S.
- Transistors à jonctions dans les montages à impulsions, par P.A. Neeteson. i vol. 15,5 X 23,5, vi-168 p., 105 illustr., 4 photos hors-texte. Bibliothèque technique Philips, Eindhoven (Pays-Bas), 1961; dépositaire pour la France et la Communauté française : Dunod, Paris. Prix, relié : 24 NF.
- Cet ouvrage décrit les méthodes à employer pour l’étude des montages fondamentaux à impulsions par transistors, ce qui permet de réduire considérablement tant la puissance d’alimentation que la chaleur dissipée et les dimensions des appareils si on les compare aux tubes à vide. Trois chapitres principaux traitent des générateurs d’impulsions, des conformateurs, des diviseurs de fréquence et commutateurs de niveau. Importante bibliographie.
- Les rayons cosmiques, par Max Morand, professeur à la Faculté des Sciences de Paris. 1 vol. 11 X 16,5 212 p., 82 fig. Collection Armand Colin, Paris 1962. Prix : 5,70 NF.
- Ce petit ouvrage donne un bon résumé, à jour,
- d’une des branches les plus attrayantes de la physique moderne. Après avoir retracé les découvertes des particules chargées dans la radiation ultra-pénétrante, celle du signe de la charge des particules primaires, des gerbes, de l’électron positif (avec ses conséquences théoriques), il donne les éléments de la théorie des gerbes de la composante molle, puis il passe aux grandes gerbes de l’air et à la composante dure. Après l’exposé de la méthode photographique, on étudie la cascade nucléonique et les interactions nucléaires, la mise en évidence des mésons ~ et de nouvelles particules. Bref chapitre sur l’otigine des rayons primaires.
- L’eau, par Clément Duval, directeur de recherches au C.N.R.S. 1 vol. 11,5 X 17,5, 128 p., 37 fig. Collection Que sais-je ? Presses Universitaires de France, Paris, 1962. Prix : 2,50 NF.
- Etat naturel de l’eau; purification; composition et structure; synthèse; propriétés physiques; l’eau comme dissolvant; ionisation; propriétés chimiques ; analyse ; répartition des molécules ; usages. Bibliographie sommaire. Des notions de chimie sont utiles pour le lecteur de ce petit condensé.
- Cahiers de synthèse organique. Méthodes et tableaux d’application. Collection publiée sous la direction de Léon Velluz. Volume IX : Cyclisations (suite), par J. Mathieu, A. Allais et J. Valls. i vol. 15,7 x 22,5, 326 p. Masson et Cie, Paris, 1962. Prix, broché : 90 NF; cartonné : 100 NF.
- A la suite des volumes VII et VIII consacrés aux « carbocyclisations », le volume IX traite des « hétérocyclisations », c’est-à-dire des créations de cycles par établissement de liaisons entre un hétéroatome et un atome de carbone (Z —• C) ou entre deux hétéroatomes (Z — Z). Délaissant délibérément la forme habituelle d’étude par cycle déterminé, les auteurs ont cherché à dégager les principes généraux des diverses méthodes en les groupant en fonction du type des transformations qui assurent la fermeture des cycles. Chaque chapitre est précédé d’une introduction dans laquelle sont analysés les principes des diverses cyclisations. De nombreux exemples sont rassemblés dans des tableaux dont la lecture est rendue aisée par la représentation marginale des types de cycles créés, avec l’emplacement de leur fermeture.
- Synthetic materials from petroleum, par A.V. Topchiev, M.F. Nagiyev et T.N. Shakhtakh-tinskii. Traduit du russe par J. Bijrdon. i vol. 14 X 22, x-136 p., 16 fig. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1962. Prix, relié : 25 sh.
- Ouvrage consacré à la synthèse organique à partir des produits dérivés des pétroles. Nombreux renseignements sur la constitution chimique des dérivés des pétroles et sur les méthodes de préparation de divers matériaux synthétiques (matières plastiques, caoutchoucs synthétiques, fibres artificielles, détergents, colorants, produits pharmaceutiques, etc.). En outre, aperçu élémentaire de la chimie des hydrocarbures et de leurs
- Transformez votre Microscope en un
- MICROSCOPE INTERFËRENTIEL
- pour la mesure et le contrôle des Etats de Surface
- à l'aide de
- l'OBJECTIF INTERFËRENTIEL DE WATSON
- Applications .• Métaux, Semiconducteurs,
- Peintures, etc.
- LES PROCÉDÉS MARCEL LOCQUIN
- 20, Avenue Rapp - PARIS 7* - INV. 96-53
- silicomètre
- INDUSTRIEL
- Véritable chimiste automate N’exige pas d’entretien spécialisé
- • Documentation à :
- DEGREMONT - B, P. Rio 46 - Suresnes (Seine)
- Degrémont
- 487
- p.487 - vue 491/551
-
-
-
- dérivés, ainsi que des processus fondamentaux de la pétrochimie (craquage, polymérisation, aromatisation, etc.).
- Michel Eugene Chevreul, pionner of organic chemistry, par Albert B. Costa.- i vol. 15,5 X 22,5, 116 p. The State Historical Society of Wisconsin, Madison, 1962. Prix, cartonné : 3,5 dollars.
- Après avoir retracé la vie de Chevreul, l’auteur rappelle les principales découvertes qui avaient permis le développement de la chimie organique jusqu’en 1825, notamment de la chimie des corps gras et des savons. Il décrit ensuite les travaux de Chevreul dans ce domaine et indique l’influence de ce savant sur les progrès ultérieurs de la chimie organique. Importante bibliographie.
- Hermann Staudinger, découvreur de l’univers macromoléculaire, par Robin Livio; suivi de Qu’ est-ce que la vie? par Magda Staudinger. 1 vol. 18 x 23,5, 140 p., nombr. illustr. Editions du Pont Royal, Paris, 1961.
- La ire partie constitue une leçon élémentaire, assez agréable, sur la constitution de la matière et les macromolécules, où est mis en relief l’apport considérable de H. Staudinger, avec une évocation variée de tout ce que les plastiques ont apporté à la vie moderne. La z° partie, résumant quelques problèmes fondamentaux de la biologie, montre les biochimistes s’efforçant de démonter les mécanismes de la reproduction et de l’hérédité. Belle illustration.
- La prévision du temps. 1 vol. 14,5 x 17, 112 p., 8 pl. hors-texte. Coll. La Science en marche. Editions Les Yeux ouverts, Paris, 1962. Prix: 3,50 NF.
- La collection à laquelle appartient cet ouvrage reproduit des séries de trois entretiens, dirigés sur les antennes de la R.T.F. par M. F. Le Lionnais. Dans ce cas particulier, les personnalités invitées à traiter de la météorologie étaient M. Viaut, directeur général de la Météorologie nationale et ses collaborateurs MM. Bessemoulin, Clausse et Facy. C’est donc avec une exceptionnelle compétence que trois sujets ont été traités : Les progrès dans la prévision du temps; Peut-on modifier le temps qu’il fait ? ; Le monde des nuages.
- Géologie des gîtes minéraux, par E. Raguin, professeur à l’Ecole nationale supérieure des Mines. 3e édition entièrement refondue et mise à jour. 1 vol. 17 X 25, 686 p., 134 fig. Masson, Paris, 1961. Prix, broché: 70 NF; cartonne toile : 80 NF.
- Voici la 3e édition de ce traité bien connu, dont la ire a paru en 1940. Les progrès acquis dans ce domaine ont nécessité une refonte complète. Pour ne pas alourdir l’ouvrage, les chapitres sur l’hydrogéologie et sur les combustibles minéraux
- (charbons, pétrole) ont été supprimés. En revanche les généralités sur la métallogénie ont été développées, ainsi que la classification des gîtes. Après avoir examiné les quatre grandes catégories classiques (exogènes sédimentaires, exogènes liés aux eaux d’infiltration, endogènes hydrothermaux, endogènes liés au plutonisme), l’auteur étudie les gîtes dans leur cadre géologique et propose des bases originales pour leur classification. Les matières minérales sont ensuite étudiées, non plus par catégories d’ordre utilitaire, mais dans le cadre géochimique qui permet de montrer leurs relations naturelles. Trois index : références bibliographiques, termes techniques, mines et gîtes métallifères.
- Annuaire hydrologique des Etats d*Outre-Mer, de la Communauté des territoires et départements français d’Qutre-Mer, du Cameroun et du Togo. Année 1958. Publié avec le concours de l’E.D.F. et de la S.FI.F. 1 vol. 19 X 27, 562 p., nombr. fig. et cartes. Office de la Recherche scientifique et technique Outre-Mer, Paris, 1961.
- L’ouvrage donne, outre des articles sur les transports solides des grands fleuves, sur les mesures d’évaporation dans l’Afrique de l’Ouest et sur les caractéristiques de l’année 1958, une vue d’ensemble des variations des débits journaliers des principaux cours d’eau, des tableaux d’échelles limnimétriques et de températures moyennes mensuelles, 98 cartes des stations de l’Annuaire.
- Flore de l’Afrique du Nord, par le docteur René Maire, membre de l’Institut, professeur à l’Université d’Alger, publiée par les soins de Pierre Quézel, professeur à l’Université d’Alger. 2 vol. 16,5 x 25,5. Volume VII: 330 p.,
- 145 fig. Volume VIII: 304 p., 143 fig. Paul Lechevalier, Paris, 1961 et 1962. Prix, chaque volume : 60 NF.
- Au milieu de mille difficultés, M. Quézel poursuit la publication de cette flore que le regretté René Maire n’avait pu mener à bien avant sa mort. Les six premiers volumes concernaient les Mono-cotylédones. Voici le début des Dicotylédones. Le volume VU s’ouvre par une « clé artificielle des familles » et ouvre la description des Archichla-mydées avec les ordres suivants : Casuarinales, Pipérales, Salicales, Juglandales, Fagales, Urticales, Protéales, Santalales, Aristolochiales, Polygonales. Le volume VIII traite des Centrospermales : Ché-nopodiacées, Amaranthacées, Nyctaginacées, Phy-tolaccacées, Thelygonacées, Aizoacées, Portula-cacées, Basellacées.
- La Vie, par Jean Rostand, de l’Académie française, et Andrée Tétry, directeur adjoint à l’Ecole pratique des Hautes E.udes. 1 vol. 22 X 30, 468 p., 960 fig., 23 hors-texte en couleurs. Collection in-quarto. Larousse, Paris, 1962. Prix, relié : 77 NF.
- Le grand public et même le public cultivé, à
- qui on répète que nous sommes à l’ère atomique, n’estiment certainement pas à leur valeur les développements de la biologie qui, au même degré que l’électronique et la chimie nucléaire, est en mesure de bouleverser notre existence. C’est ce que Jean Rostand et Andrée Tétry soulignent par quelques exemples au seuil de leur magnifique ouvrage, dans lequel ils nous offrent un panorama de la biologie moderne. Partant de la cellule et de la sexualité, ils décrivent le développement de l’être vivant et ses diverses modalités, la croissance, les métamorphoses, le vieillissement, la régénération, et les principales techniques biologiques : culture des tissus, greffe. On aborde ensuite les bases de la génétique, les mutations, les caractères particuliers de l’hérédité, pour aboutir à l’eugénique et aux principaux problèmes que pose l’évolution des espèces et l’avenir de l’homme. Dessins et photos en abondance illustrent tous les chapitres. Il est dommage que l’importance de la biochimie n’ait pu être soulignée dans un chapitre spécial, mais évidemment on ne pouvait tout dire et tout montrer; cette agréable et utile initiation incitera le lecteur à s’informer davantage.
- Nos enfants lisent, par Louis Emrain et Marcel Jadin. 1 vol. 12 X 17,5, 228 p. Editions du Soleil levant, Namur (Belgique).
- Septième édition (1962) de ce « répertoire des meilleurs livres pour la jeunesse». On y trouve nombre d’ouvrages d’initiation aux sciences.
- Short Glossary of Space Terms, par W.H. Allen et B.A. Mulcahy. i vol. 10 X 17,5, 58 p. National Aeronautics and Space Administration, Washington, 1962. Prix : 25 cents.
- Bref lexique des principaux termes employés dans la technique des engins spatiaux. Tous les termes et précisions non fournis ici sont à chercher dans le NASA Dictionary of Space Terms, dont ce petit livre est un extrait.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- M. Adolphe KOVACHE, à Sorgues (Vaucluse), RECHERCHE Almanach Hachette années 1944-1945. Lui écrire.
- OCC. UNIQUE. Gd microscope Stiasnie gr. tube Révol. à 4, condens. platine r. microm. et surplatine à mouv. rect. 3 ocul. 4 obj. 3, 5, 7 et immers. 1,25, X 97, av. boite. Etat parfait garanti. Pr. 700 NF. S’adresser à la revue sous N° 275.
- ÉCOLE SUPÉRIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'État — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e — ODE 54-83
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d'Etat. Brevets de Techniciens d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir
- Section d'enseignement " à domicile "
- (Joindre timbre pour notice)
- ____ VIENT DE PARAITRE _________
- HISTOIRE
- DE LA
- CHIMIE
- PAR G. LOCKEMANN
- TRADUIT DE L’ALLEMAND PAR F. STOEBER
- VIII-288 pages I4 x 22. I962. Broché sous couverture illustrée.................. 18 NF
- En vente dans toutes les bonnes librairies et chez
- DUKTOD Éditeur, 92, rue Bonaparte, Paris 6e. DAN 99-15.
- Le Gérant : F. Dunod. •— DUNOD, Éditeur, Paris. — Dépôt légal : 4e trimestre 1962 N° 3957. —Imprimé en France. Imprimerie Bayeusaine, 6-8, rue Royale, Bayeux (Calvados), N° 3425. — 11-1962.
- 488
- p.488 - vue 492/551
-
-
-
- Les synthèses fondamentales de la vie en voie de s9éclaicir
- De l’ADN à P ARN et aux protéines
- par Jean Pelmont
- Imaginons une usine où des machines-outils fabriqueraient des pièces détachées, y compris celles qui constituent ces machines-outils elles-mêmes, et où d’autres machines (assembleuses) réaliseraient le montage de ces pièces, tant pour édifier les machines-outils que les machines assembleuses. En effet, couronnant le tout, une des machines assembleuses serait capable d’associer les pièces pour édifier une machine entièrement semblable à elle-même.
- Transposons cela dans la cellule vivante (en négligeant ici le fait que la cellule, en outre, se divise finalement pour donner deux cellules semblables) et nous avons une image grossière de son fonctionnement chimique.
- La machine assembleuse n° i (acide désoxyribonucléique, ou ADN) peut se copier elle-même à l’aide de certaines pièces détachées (nucléotides à désoxyribose) et procède aussi au montage de la machine assembleuse n° z (acide ribonucléique, ou ARN) à l’aide de pièces détachées analogues (nucléotides à ribose). Cette machine assembleuse n° z (ARN) procède à son tour à la fabrication de machines ou matières extrêmement diverses (protéines) parmi lesquelles figurent les machines-outils (enzymes) qui servent elles-jnêmes à la fabrication de pièces détachées variées, en particulier des nucléotides et des acides aminés.
- Tel est en effet le schéma, très simplifié, qui paraît être celui de l’édification des acides nucléiques et des protéines. Cet article a pour but de montrer quelques-uns des progrès récemment réalisés dans Télucidation de ces mécanismes au sein de la celhile vivante. 7.e biochimiste est même arrivé à reproduire in vitro une partie de ces mécanismes.
- UN acide nucléique (ADN ou ARN) est formé par une longue chaîne de nucléotides, d’une centaine environ jusqu’à plusieurs dizaines de milliers. Un nucléotide est constitué d’une base azotée reliée à un sucre, lui-même fixé sur de l’acide phosphorique. Dans l’acide ribonucléique (ARN) le sucre est du ribose; dans l’acide désoxyribonucléique (ADN) le sucre est du désoxyribose, qui ne diffère du ribose que par le remplacement d’un groupe —OH par un atome d’hydrogène—H en position z (fig. 2).
- Les bases azotées des nucléotides peuvent être de quatre sortes. Dans l’ARN, ce sont l’adénine, la guanine, la cyto-sine et l’uracile; on retrouve les trois premières dans les nucléotides de l’ADN, mais l’uracile y est remplacé par la thymine, chimiquement très voisine (fig. 2). Un ARN ou un ADN ne diffère donc d’un autre que par les proportions dans lesquelles y figurent les quatre bases et par
- l’ordre dans lequel elles sont rangées. Ces proportions et cet ordre varient pratiquement à l’infini; ils constituent certainement le code qui sert à gouverner l’édification de tout être vivant et suffisent à expliquer l’énorme diversité de la vie.
- Dans la cellule, les chaînes d’ADN et d’ARN sont presque toujours associées deux à deux; chaque base azotée de l’une des chaînes est reliée à une base de l’autre chaîne, de sorte que la molécule figure une échelle dont les couples de bases azotées sont les barreaux, le tout étant enroulé en hélice (escalier dit en colimaçon). La figure 1 montre cette structure (proposée par Watson et Crick) que nous préciserons par la suite. Rappelons cependant tout de suite que la guanine est toujours liée à la cytosine, et l’adénine à la thymine (ou à l’uracile dans l’ARN).
- L’ADN, sauf « mutations » qui expliquent l’évolution des êtres vivants, est l’élément constant et stable de la cellule (chromosomes). A son contact se forme l’ARN, plus varié, plus mobile et aussi moins stable, qui émigre
- j-EHEH
- jSHïfj
- KM-I
- RàHlhi
- Fig. 1. — Structure de l’ADN d’après Watson et Crick.
- a : L’ADN complet est formé de deux chaînes parallèles de nucléotides enroulées en hélice et unies par leurs bases azotées. — b : Détail des chaînes déployées; dans chaque chaîne le désoxyribose (dR) s’attache au groupe phosphorique (P) du nucléotide suivant, les bases 'azotées étant latérales; chaque adénine (A) d’une chaîne s’attache à la thymine (T) de l’autre chaîne (et inversement) et chaque cytosine (C) à une guanine (G) (et inversement). On n’a représenté ici, arbitrairement, dans chaque chaîne, qu’une base de chaque sorte. — c : Portion imaginaire d’un ADN où seules les bases azotées sont figurées. L’ARN est constitué identiquement, sauf que le sucre y est le ribose, et que la thymine y est remplacée par l’uracile. Voir la figure 3.
- 489
- p.489 - vue 493/551
-
-
-
- Nucléotide à ribose et adénine
- Adénine
- NH2
- C
- Acide
- phosphorique
- ©
- O — P
- ^ HC® ®C CH
- HCWCX AH
- N N
- Guanine
- OH
- I
- C
- N
- CH
- Cytosine
- NrL
- C
- <^tSN
- 5
- Ï0
- i(D
- ,CH
- CH
- Ribose (dans l’A R N)
- Désoxyribose (dans l'A D N) (un OH remplacé par H en position 2)
- Uracile (dans l'A R N) OH
- N-\h
- /S /CH
- OH N
- OH
- CH-
- C
- CH
- HO N
- Thymine (dans l'A D N)
- Fig. 2. — Les principaux constituants des acides nucléiques.
- A gauche on a représenté un nucléotide complet tel qu’il entre dans la composition de l’ARN (acide ribonucléique). Le ribose (entouré d’un pointillé) s’attache par son 5e carbone (extérieur au cycle) à l’acide phosphorique, et par son Ier carbone à une base azotée, qui est ici l’adénine et qui pourrait être aussi bien la guanine, la cytosine ou l’uracile. Les nucléotides qui forment l’ADN (acide désoxyribonucléique) sont identiques, sauf que le ribose y est remplacé par le désoxyribose, et qu’on n’y rencontre pas l’uracile, mais une autre base azotée, la thymine, qui n’en diffère que par CH3 remplaçant H en position 5. Pour la façon dont les nucléotides s’attachent entre eux dans une chaîne d’acide nucléique, voir les figures 1 et 3.
- dans le cytoplasme et particulièrement dans des organites cellulaires spéciaux, les ribosomes. Une partie de cet ARN contient le même arrangement linéaire de bases azotées que l’ADN modèle (à ceci près que l’uracile y remplace la thymine) et l’on parlera alors, par convention, d’un « AR*N de même composition que l’ADN ».
- C’est l’ARN qui joue le rôle d’initiateur et de support dans la synthèse des protéines au sein des ribosomes. Les protéines sont des chaînes plus ou moins longues d’acides aminés, et ceux-ci étant au nombre d’une vingtaine (1), les combinaisons en sont pratiquement infinies, comme celles des nucléotides dans les acides nucléiques. L’ordre de rangement des acides aminés, qui confère ses propriétés à chaque protéine, est déjà connu pour certaines enzymes, pour des hormones, pour les hémoglobines de plusieurs espèces animales, et pour les protéines de certains virus. Cet ordre est réglé par celui des bases azotées de l’ARN qui préside en quelque sorte à l’arrangement des acides aminés et nous verrons plus loin les hypothèses que l’on peut faire sur le fonctionnement de ce « code ».
- 1. Voici la liste des vingt acides aminés usuels : alanine, arginine, asparagine, acide aspartique, cystéine, glutamine, acide glutamique, glycocolle, histi-dine, isoleucine, leucine, lysine, méthionine, phénylalanine, proline, sérine thréonine, tryptophane, tyrosine, valine.
- Toutes les cellules induites à fabriquer beaucoup de protéines commencent par faire un tel acide ribonucléique. Cela se voit bien lorsque des bactéries sont infectées par des particules de virus, ou bactériophages. Les premiers bactériophages qui ont été connus sont de ceux qui contiennent presque uniquement de l’ADN et des protéines spécifiques. Seul l’ADN du bactériophage s’injecte dans la bactérie; les synthèses bactériennes sont alors déviées de leur voie normale et engendrent de nouvelles particules de bactériophage, complètes, avec leurs protéines. Or, dès le début de l’infection apparaît dans la bactérie un nouvel ARN, et celui-ci a précisément la composition de l’ADN du phage (c’est-à-dire, rappelons-le, les mêmes séquences de bases azotées).
- On peut synthétiser in vitro les acides nucléiques à partir de nucléotides. On imagine combien cette possibilité est précieuse pour les biochimistes en vue d’élucider un des mécanismes les plus importants de la vie.
- La polynucléotide-phosphorylase et TARN artificiel
- La premier grand progrès réalisé dans la synthèse des acides nucléiques fut obtenu en 1954 par Granberg Manago et Ochoa aux Etats-Unis. Ils remarquèrent dans une bactérie, Aerobacter (ou A? otobac ter) Vineiandii, des quantités notables d’une enzyme qu’on pouvait séparer assez facilement des autres protéines de la bactérie. Sous l’influence de cette enzyme, on pouvait, à partir des nucléotides contenant l’adénine, la guanine, la cytosine et l’uracile (que nous symboliserons par les lettres A, G, C et U) synthétiser de l’acide ribonucléique. La réaction n’est
- 490
- p.490 - vue 494/551
-
-
-
- possible que si les nucléotides sont « activés », c’est-à-dire sous une forme chimique qui leur confère un niveau d’énergie plus élevé, en l’espèce s’ils possèdent un groupement phosphorique supplémentaire fixé sur le premier. Ce sont alors, non plus des « monophosphates », mais des nucléotides « diphosphates ».
- En supposant que les nucléotides introduits dans l’expérience ne contiennent tous que l’adénine (A) et en conférant au ribose et à l’acide phosphorique les symboles R et P, la réaction peut s’écrire :
- n A-R-PP (A-R-P-)n + n P;
- les groupements phosphoriques supplémentaires étant libérés et les nucléotides de l’ARN formé étant revenus à l’état de monophosphates.
- Dans l’exemple choisi, le polymère formé (A-R-P)n est l’acide poly-adénylique, ou en abrégé poly-A. C’est en somme un acide ribonucléique où la base est toujours la même. On peut ainsi fabriquer du poly-U, du poly-C, et même un polymère ne contenant que de la thymine, poly-T. A l’état naturel, la thymine, nous l’avons vu, est pourtant toujours liée au désoxyribose (étant remplacée par l’uracile dans l’ARN), mais on peut artificiellement l’associer au ribose et on obtient ainsi un ARN à thymine qui n’existe pas dans les êtres vivants. Le polymère le plus difficile à obtenir est le poly-G.
- Bien entendu des mélanges de nucléotides contenant A, G, C et U engendrent des polymères mixtes, bien plus intéressants car ils ressemblent alors aux ARN naturels. Comme pour ceux-ci, leur masse moléculaire peut atteindre des valeurs considérables et dépasser le million. Mais leur composition en bases azotées est livrée au hasard, dépendant seulement des proportions des divers nucléotides-diphosphates qu’on a introduits dans le mélange de départ. Deux chaînes synthétisées dans ces conditions ne sont jamais identiques entre elles, et la séquence de leurs bases n’a évidemment aucune chance de reproduire celle d’un ARN naturel.
- On a vu que de l’acide phosphorique (sous forme d’ions phosphates) est libéré au cours de la synthèse. Or il s’agit d’un équilibre : le processus peut jouer en sens inverse. Si l’on ajoute au milieu de réaction un petit excès de phosphate, l’acide nucléique ne peut se former et, s’il est déjà présent, il fait retour presque entièrement à l’état de nucléotides diphosphates. C’est ce qui a valu à l’enzyme qui catalyse cette réaction réversible le nom de polynucléotide phosphorylase.
- La synthèse naturelle de l’ARN se réalise selon le même schéma. De l’énergie, provenant indirectement de la respiration ou des fermentations, est absorbée, sous l’influence d’enzymes spéciales, dans la réaction de fixation d’un groupement phosphorique supplémentaire sur les nucléotides (fig. io). Au cours de la synthèse de l’ARN, cette énergie est libérée par le départ du groupe phospho-
- Fig. 3. — Accroissement linéaire d’une chaîne d’ARN.
- Chaque lettre encadrée désigne une base azotée; on a arbitrairement imaginé que ce court tronçon d’ARN contient quatre bases différentes. On voit que le groupe phosphorique de chaque nucléotide est attaché à l’oxygène de la position 3 du ribose du nucléotide précédent. En bas de la chaîne, le nucléotide à uracile, à l’état de diphosphate, est mis en place grâce à l’enzyme. Seul son groupe phosphorique directement attaché au ribose (en position 5) sera conservé ; l’autre groupe phosphorique se détachera selon le pointillé, cette rupture dégageant l’énergie nécessaire à la réaction. Pour alléger la figure, et selon un usage courant, les carbones de la partie cyclique du ribose, non plus que les atomes
- d’hydrogène isolés, ne sont pas représentés.
- rique supplémentaire, mais elle est supérieure à celle que nécessite la liaison d’un nucléotide à l’autre, et l’excédent est vraisemblablement dissipé sous forme de chaleur.
- L’analyse de voisinage
- Pour étudier la réaction en détail et voir comment se fait la synthèse, on utilise généralement des nucléotides marqués par un «traceur» radioactif, soit le carbone 14 (par exemple en lieu et place d’un carbone de la base azotée), soit par le phosphore 32 (sur le phosphate). Le pourcentage de radioactivité que l’on retrouve incorporée à l’ARN formé donne par un calcul simple la quantité de cet ARN. Dans le cas du phosphore 32, on voit qu’il faut placer le radioisotope le plus près du ribose, car le deuxième atome de phosphore est détaché avec son groupe phosphate et n’est pas incorporé à l’ARN.
- 491
- p.491 - vue 495/551
-
-
-
- Sur les figures 2 et 3 les atomes de carbone du ribose ont été numérotés. On voit que c’est la position 5, extérieure à la partie cyclique du sucre, qui porte l’acide phosphorique. Pour représenter les nucléotides, on les note habituellement ainsi (en négligeant le ribose) : pA, pU, pG, pC, la lettre p, placée ici en avant du symbole de la base, indique conventionnellement que l’acide phosphorique est fixé en position 5 sur le ribose. C’est en position 3 que vient se fixer l’acide phosphorique du nucléotide suivant (voir la figure 3) et l’ARN peut se symboliser, par exemple, par :
- pA pU pA pC pC pG pA pU pG pG pC ...
- le choix des bases indiquées ici étant évidemment arbitraire.
- La chaîne ainsi formée est facilement démolie en milieu alcalin, mais la rupture des liaisons, au lieu de se faire en position 3, là où elles s’étaient formées, se fait en position 5, de sorte qu’au lieu d’obtenir des nucléotides pA, pU, etc., comme ceux du départ, on obtient des nucléotides qui doivent s’écrire Ap, Up, etc., le p placé après le symbole de la base indiquant que maintenant la liaison qui subsiste est en position 3 sur le ribose (fig. 4).
- Ce changement est très intéressant pour le biochimiste, car il lui permet de faire ce qu’on appelle une « analyse de voisinage », première étape de la détermination de l’ordre dans lequel sont rangées les bases azotées. En effet, supposons que l’on ait marqué au radiophosphore 32 l’acide cytidylique diphosphate, c’est-à-dire tous les nucléotides à cytosine introduits dans la synthèse, et que nous symboliserons alors par pp* C.
- La chaîne imaginée précédemment devient :
- ... pApUpAp*Cp* CpGpApUpGpGp*C...
- Elle se démolit en donnant :
- ... Ap, Up ,Ap*, Cp*, Cp, Gp, Ap, Up, Gp, Gp*, ...
- On voit que les nucléotides marqués maintenant par p* portent les bases qui précédaient C dans la chaîne. En séparant chimiquement les quatre sortes de nucléotides et en mesurant leur radioactivité, on a une indication sur les proportions respectives de A, de C, de G, qui précédaient les C dans la chaîne. Comme dans l’exemple choisi, il pourrait n’y avoir aucun Up* (radioactivité nulle dans la fraction Up); aucun U ne précédait un C, ce qui serait un renseignement important, mais ce cas limite est évidemment imaginaire.
- Une telle méthode est précieuse pour analyser et comparer les acides nucléiques naturels. En particulier, deux acides nucléiques semblables doivent donner le même résultat. S’il s’agit de comparer un ARN à l’ADN qui a gouverné sa synthèse, un résultat identique de l’analyse de voisinage fournit une quasi-certitude de leur similitude de composition. Nous y reviendrons plus loin.
- ARN amorceuf
- La réaction de synthèse effectuée par la polynucléotide-phosphorylase in vitro ne peut démarrer d’elle-même. Il lui faut un « amorceur », sous forme d’un fragment d’ARN déjà constitué. Cette condition n’est d’ailleurs devenue évidente qu’avec des préparations d’enzyme très pures; sinon, il restait toujours assez d’ARN de la bactérie pour amorcer la réaction.
- Fig. 4 — Analyse de voisinage par transfert du phosphore au cours de l’hydrolyse alcaline.
- Chaque nucléotide est schématisé par un pentagone (ribose) lié d’une part à un groupe phosphorique P, de l’autre à une base azotée (A, G, C ou U). A gauche, les quatre sortes de nucléotides diphos-phates qui sont introduits dans l’expérience. Dans tous ceux qui contiennent la cytosine (C) le phosphore du groupement phosphorique directement attaché au ribose (en position 5) est radioactif (entouré de rayons). Au milieu, une portion de la chaîne d’ARN synthétisée, prête à être démolie en milieu alcalin. Les ruptures vont s’y faire, non en position 3 (là où s’est soudé chaque nucléotide au groupement phosphorique du nucléotide suivant), mais en position 5 (flèches), de sorte que chaque radiophosphore va se trouver lié (comme on le voit à droite), non plus à sa cytosine primitive, mais à la base qui la précédait immédiatement dans la chaîne. Ces nucléotides « anormaux » étant ensuite séparés chimiquement, et la radioactivité de chaque fraction étant mesurée, cette mesure fournira le « taux de voisinage» de chaque base avec la cytosine.
- «P
- a.
- 492
- p.492 - vue 496/551
-
-
-
- Fig. jr. — Formation d’une chaîne d’ADN complémentaire sous l’influence d’une chaîne d’ADN modèle.
- Mêmes symboles que dans la figure 4, mais la thymine (T) a remplacé l’uracile. A droite, la chaîne d’ADN modèle. Les nucléotides disponibles viennent se souder de façon que l’adénine d’une chaîne se lie à la thymine de l’autre, la cytosine à la guanine (et inversement). Une chaîne exactement complémentaire vient donc se former et le tout s’enroulera en hélice. On remarquera les orientations inverses des deux chaînes. Les nucléotides incorporés étaient triphosphates; la rupture des deux groupements phosphoriques terminaux (selon le pointillé) apporte l’énergie nécessaire. Une enzyme spéciale préside à la synthèse.
- Cet amorçage n’a besoin que de très courts fragments; deux nucléotides placés bout à bout, par exemple pApA, sont encore actifs, bien qu’avec une très mauvaise efficacité. La chaîne se développe en prenant pour point de départ l’amorceur pourvu que celui-ci possède un radical —OH libre sur le ribose en position 3, afin de permettre la fixation d’un nouveau nucléotide. Ainsi pApApApA amorçant la synthèse du poly-U deviendra pApApApApUpU pUpUpUpUpU..., alors que pApApApAp, dont la position
- terminale est occupée par un groupe phosphorique, ne peut être le point de départ de la synthèse.
- On sait donc réaliser artificiellement des polymères nucléiques à très haute masse moléculaire, dont on peut faire varier à volonté la composition globale. De multiples questions peuvent alors être abordées et précisées.
- Autoreproduction de T ADN « in vitro »
- On a obtenu aussi in vitro de l’ADN, mais dans des conditions différentes de celles que nous avons vu présider à la confection d’un ARN artificiel. En premier lieu, il ne s’agit plus ici de synthétiser un ADN « fantaisiste » à partir de nucléotides quelconques, en particulier d’un seul genre de nucléotides, mais, bien mieux, de reproduire artificiellement une des réactions majeures de la vie. Kornberg, en 1957, a découvert un système enzymatique avec lequel on peut synthétiser, à partir d’un ADN naturel servant de modèle, un ADN identique.
- Comme l’ADN modèle est un ADN naturel, il comprend en général les quatre bases A, T, G et C (T, thymine, au lieu de l’uracile de l’ARN). Il faut donc introduire les quatre nucléotides correspondants et la réaction s’arrête si l’un des nucléotides vient à manquer. Rappelons que les nucléotides sont ici ceux du désoxyribose (et non plus du ribose comme dans l’ARN); on les symbolise par pdA, pdT, etc. (le d indiquant le désoxyribose).
- Autre différence, les nucléotides qui entrent dans la synthèse doivent se présenter, non plus sous forme de diphosphates (par exemple ppdA), mais de triphosphates (pppdA), ayant donc trois groupes phosphoriques en ligne sur la position 5 du désoxyribose. Au moment de l’incorporation du nucléotide qui les porte, les deux groupes phosphoriques terminaux se détachent sous forme de pyrophosphate (fig. 5). A ceci près, le schéma du processus est le même que pour l’ARN. La figure 6 symbolise cette réaction.
- Nous avons vu (fig. 2) que l’ADN naturel se présente sous forme de deux chaînes reliées par les bases azotées des nucléotides, l’adénine se liant toujours à la thymine (A-T), la cytosine à la guanine (C-G). On peut produire in vitro la rupture des deux chaînes en chauffant (par exemple 10 mn à ioo°) : les «liaisons hydrogène» qui attachent les bases deux par deux se brisent, la structure en hélice s’effondre, les chaînes se séparent et se replient en pelotes compactes, un tel ADN à chaînes simples est aussi très
- En présence de :
- Enzyme +
- \
- A - dR - P
- G - dR - P
- \
- C - dR - P
- \
- T-dR- P
- \
- P
- ( A D N \
- yModèle/
- On obtient la réaction :
- 4 " \
- A - dR ~ PPP A- dR- P
- -h \
- G- dR - PPP G - dR - P
- + \
- C - dR — PPP C -dR-P
- 4 \
- T-dR-PPP T- dR- P
- + \
- P
- Nucléotides / A D_N \
- triphosphates (Synthétisé)
- à désoxyribose
- + nPP
- Acide
- pyro-phos-
- -phorique
- Fig. 6. — Symbolisation chimique de la réaction fournissant un ADN conforme à un ADN modèle.
- C’est la réaction schématisée dans la figure 5. dR, désoxyribose; P, groupement phosphorique. A, G, C, T, bases azotées.
- 493
- p.493 - vue 497/551
-
-
-
- Fig. 7. — Représentation schématique de la reproduction complète d’un ADN â double chaîne.
- Une séparation des deux chaînes de l’ADN modèle précède son autoreproduction. Chaque chaîne séparée se contracte en pelote (c’est du moins ce qui se passe quand l’ADN est observé en dehors de la cellule vivante). En-' suite chaque chaîne gouverne la synthèse d’une chaîne complémentaire et reproduit avec elle une double hélice. Le mécanisme de ces phénomènes in vivo est encore très mal connu.
- actif. On connaît d’ailleurs un ADN naturel n’ayant qu’une seule chaîne, celui du bactériophage <D X 174; cet ADN est un très bon initiateur de la réaction. Avec les préparations enzymatiques les plus purifiées, les ADN à simple chaîne sont même les seuls véritablement actifs et la synthèse par copie fabrique toujours des chaînes doubles, en quantités qui peuvent atteindre 20 fois celle du produit de départ.
- On a toutes raisons de croire que la reproduction de l’ADN dans la cellule vivante se fait ainsi après séparation des deux chaînes de l’ADN modèle. Une enzyme spéciale, que l’on n’a pu encore séparer, provoque sans doute cette dissociation que nous savons obtenir artificiellement par la chaleur. (On peut penser qu’une telle enzyme contaminait la préparation dans l’expérience de Kornberg citée plus haut.)
- Les deux chaînes, que nous pouvons appeler 1 et 2, sont évidemment complémentaires l’une de l’autre par la succession de leurs bases, puisque l’adénine de l’une correspond à la thymine de l’autre (et inversement), la cytosine à la guanine (et inversement). Au contact de chacune d’elles viennent se ranger les nucléotides complémentaires par leurs bases. La chaîne 1 reproduit donc la chaîne 2, et inversement. Ensuite 1 et 2 se soudent par leurs bases complémentaires et l’ADN primitif est exactement copié (%• 7)-
- Si une telle synthèse n’est que la copie d’une structure déjà existante, on s’explique la nécessité d’ajouter dans le milieu réactionnel non seulement l’ADN modèle, mais aussi les quatre nucléotides triphosphates, l’absence de l’un d’eux étant suffisante pour bloquer très tôt la formation des répliques. Pour confirmer ces faits, il ne fallait pas seulement contrôler la composition en bases de l’acide nucléique synthétisé, mais montrer que les nucléotides étaient rangés dans le même ordre.
- Comme pour l’ARN, l’emploi de nucléotides triphosphates radioactifs fournit un moyen sensible de suivre l’incorporation et de déterminer la composition du produit formé. On peut en effet constater d’abord que chaque nucléotide est incorporé à une vitesse d’autant plus grande qu’il est lui-même plus abondant dans l’ADN initial. Quant à l’ordre de rangement des nucléotides, il est confirmé par l’analyse de voisinage déjà brièvement exposée à propos de l’ARN.
- Ici encore, l’un des nucléotides introduits dans la synthèse est marqué au radiophosphore 3 2. La synthèse obtenue, on rompt la chaîne de façon que chaque groupe phospho-
- rique soit relié non plus à sa base de départ, mais à la base qui la précède dans la chaîne. Cette rupture en position 5 s’obtient non plus en milieu alcalin, car l’ADN est plus résistant, mais à l’aide d’une enzyme spéciale. Après séparation, le taux de radioactivité de chaque sorte de nucléotides indique alors, comme nous l’avons vu, ce qu’on pourrait appeler le « taux de voisinage » avec le nucléotide marqué au radiophosphore. Ce taux est nécessairement le reflet de l’ordre spécifique des bases dans l’ADN. Si toutes les analyses de voisinage des ADN obtenus à partir d’un même ADN modèle donnent toujours le même résultat, il y a plus que des chances pour que ces ADN soient bien la copie pure et simple du modèle initial.
- Cette conclusion est confirmée par une expérience particulière. On a pu obtenir par exemple une portion d’ADN à chaîne simple et courte dont les seules bases sont l’adénine et la thymine, présentant une alternance régulière (cet ADN est appelé poly-dAT). Utilisées dans la synthèse de Kornberg, de telles chaînes ne peuvent donner naissance qu’à un polymère ne contenant que l’adénine et la thymine (puisque celles-ci sont complémentaires), à l’exclusion de toute guanine et cytosine. En outre, l’analyse de voisinage montre que si le radiophosphore est par exemple introduit dans les nucléotides à adénine, on le retrouve ensuite intégralement avec la thymine, ce qui confirme l’alternance absolument régulière des bases dans chaque chaîne. L’ordre des bases du modèle est bien conservé, quel qu’il soit.
- Une réaction qui construit de l’ARN spécifique
- Revenons à l’ARN. Une partie au moins de l’ARN de la cellule vivante se forme dans le noyau sous l’influence directe de l’ADN et émigre ensuite dans le cytoplasme (fig. 8). On imagine tout l’intérêt d’une réaction capable, dans le tube à essais du biochimiste, de modeler un ARN en présence et sous l’influence d’un ADN. C’est ce qui a pu être fait récemment par divers chercheurs en utilisant des enzymes extraites aussi bien de tissus animaux que de bactéries. Ainsi, presque simultanément, en 1960-61, Weiss, Hurwitz et Stevens ont réalisé l’expérience schématisée par la figure 9.
- Cette synthèse présente des différences importantes avec celle que nous avons vu réaliser sans ADN en présence de la polynucléotide-phosphorylase. Les quatre nucléotides du ribose sont ici nécessaires et à l’état de triphosphates
- 494
- p.494 - vue 498/551
-
-
-
- Fig. 8. — Transport d’ARN marqué du noyau au cytoplasme.
- En haut à gauche : Microphotographie d’une coupe de racine de fève (Vicia faba) nourrie pendant une heure avec de la cytosine marquée au tritium (hydrogène radioactif). A droite : Autoradiographie de la même coupe; on voit que les points noirs, décelant la radioactivité de l’ARN qui s’est incorporé la cytosine marquée, sont essentiellement limités aux noyaux des cellules, où l’ARN vient de se former sur le modèle de l’ADN des chromosomes. En bas à gauche : Microphotographie d’un tissu identique mais qui, après fourniture de la cytosine marquée au tritium, a continué à croître pendant 5 h sur un milieu où la cytosine n’était pas marquée. A droite : Autoradiographie de la même coupe; l’ARN nouvellement formé n’est plus marqué et les noyaux ne montrent plus de points noirs; ceux-ci sont au contraire dispersés dans les cellules, montrant que l’ARN formé 5 h plus tôt dans le noyau avec de la cytosine marquée a émigré dans le cytoplasme,
- {Photos Philip S. Woods et J. Herbert Taylor, Département de Biologie, Laboratoire national de Brookhaven, Upton, New York aimablement communiquées par M. P.S. Woods).
- comme pour la synthèse de l’ADN. Le processus ne peut se dérouler qu’en présence d’ADN. Quel que soit celui-ci, à simple ou à double chaîne, qu’il provienne ou non d’une espèce vivante différente de celle qui a fourni l’enzyme, la réaction forme en tout cas un acide ribonucléique dont la composition en bases reproduit celle de l’ADN, l’ura-cile remplaçant seulement la thymine. L’ordre des bases est également conservé comme le montre l’analyse de voisinage. Dans ces conditions, notamment, le poly-dAT conduit à la formation de poly-AU, où l’adénine et l’uracile
- alternent régulièrement (puisque l’adénine attire alors à elle l’uracile, et la thymine l’adénine).
- Quel est le mécanisme intime de cet assemblage ? On l’ignore encore. Peut-être chacune des deux chaînes de l’ADN est-elle copiée séparément; des chaînes ribonucléi-ques viendraient se former à leur contact par complémentarité des bases. Des savants ont en effet observé dans certains cas des acides nucléiques « hybrides », montrant une chaîne d’ADN associée à une chaîne d’ARN.
- Enzyme +
- r \
- A - dR - P A - R — PPP A — R- P
- \ + \
- G“ dR- P G - R — PPP G — R — P
- \ On obtient la réaction : + —> \
- C- dR- P C - R - PPP C — R— P
- \ + \
- T — dR — P U — R — PPP U - R -P
- \ \
- P n . . P
- (A D N)
- I à ribose ) \triphosphates/
- (ARN)
- + nPP
- Acide
- pyro-phos-
- phorique
- Fig. 9. — Symbolisation chimique de la synthèse de l’ARN conforme à un ADN modèle.
- Comparer avec la figure 6. dR, désoxyribose; R, ribose. La thymine de l’ADN est remplacée par de l’uracile dans l’ARN.
- 495
- p.495 - vue 499/551
-
-
-
- De TARN aux protéines
- L’importance des acides ribonucléiques dans les processus vitaux est connue depuis longtemps. Là où les synthèses de protéines sont abondantes se tiennent de grandes quantités d’ARN. C’est ce que montrent les cellules à prolifération active des tissus en voie de régénération, des organes formateurs de globules sanguins, des tumeurs, etc. Une forte teneur en ARN confère au cytoplasme des cellules cette « basophilie », ou affinité pour les colorants basiques, bien connue des cytologistes.
- La synthèse des protéines à partir des vingt sortes connues d’acides aminés se fait en effet sous l’influence directe de l’ARN, principalement dans les « ribosomes », ces organites minuscules que contient le cytoplasme cellulaire.
- Tout comme les nucléotides pour la synthèse des acides nucléiques, les acides aminés subissent d’abord une « activation», c’est-à-dire sont placés sous une forme chimique qui recèle l’énergie nécessaire à leur incorporation. Cette activation est accomplie par diverses enzymes et aboutit à la fixation de chaque acide aminé sur un acide ribo-nucléique spécial, appelé ARN de transfert, de masse moléculaire relativement faible (environ 30 000 au lieu de 1 600 000 pour l’ARN des ribosomes). Il existe peut-être au moins un ARN de transfert par acide aminé. La fixation a lieu au bout de la chaîne de cet ARN, qui se termine toujours par la séquence ...pCpCpA.
- La synthèse proprement dite poursuivie dans les ribosomes obéit à un plan encore très mal connu. Par des expériences de fractionnement, il est possible d’isoler des ribosomes intacts à partir des bactéries ou des cellules animales et d’observer le déroulement de synthèses de protéines in vitro. La réalité du phénomène est prouvée par l’incorporation d’acides aminés radioactifs dans les protéines. Les produits formés dans ces ribosomes isolés n’ont parfois aucune activité biologique. On peut penser, soit que la synthèse est incomplète, soit que l’information génétique qui détermine l’enchaînement des acides aminés fait défaut, ou comporte des « erreurs » qui rendent le produit formé biologiquement inerte. Un chercheur français, Nisman, a le premier réussi à obtenir la synthèse in vitro d’enzymes actives à partir d’acides aminés.
- Dans les ribosomes en place dans la cellule vivante, cette information génétique provient certainement de l’extérieur à mesure que se font les synthèses de protéines. En effet, l’analyse de l’ARN des ribosomes ne montre pas une composition conforme à celle de l’ADN du noyau cellulaire. Mais en revanche, on peut déceler la présence d’un tel ARN spécifiquement conforme dans les cellules en état de fabriquer beaucoup de protéines. On peut donc penser que cet ARN est alors synthétisé dans le noyau sous l’infiuence de l’ADN et qu’il dirige sur les ribosomes le « flux d’information » nécessaire.
- Des savants français, J. Monod et F. Jacob, ont les premiers fourni une démonstration élégante de l’existence d’un tel acide nucléique, qu’ils ont appelé « messager », déduite de leurs travaux sur l’adaptation enzymatique et le cycle de reproduction des virus chez des bactéries. Chaque jour de nouvelles expériences viennent vérifier ces conceptions, bien que certains aspects restent encore très obscurs. Cet ARN aurait une existence transitoire dans la cellule et serait rapidement détruit après avoir servi, ses nucléotides pouvant faire individuellement retour au
- dXMP ADN
- xxxxxxxxxxx
- XXXXXXXXXXXX>' ADN
- Acides aminés
- Protéines
- Ribosomes
- Fig. 10• — Les acides nucléiques dans le cycle vital.
- Au centre l’ADN : il constitue les « gènes » et contient l’information (tous les plans de construction). Il sert de modèle pour du nouvel ADN (en haut à droite) ou de l’ARN messager (ARN ni) qui porte l’information dans les ribosomes, où les protéines sont synthétisées selon le plan apporté. Le réservoir d’énergie E (alimenté par la respiration et les fermentations) transforme l’AMP (nucléotide à adénine, ou adénosine-mono-phosphate) en ADP et ATP (adénosine di- et triphosphate). Une partie de cet ATP (que nous symbolisions ailleurs par pppA) va entrer en jeu dans la synthèse de l’ARN au même titre que les autres nucléotides, mais la plus grande partie sert elle-même de fournisseur d’énergie à ces autres nucléotides en leur cédant des groupements phosphoriques; les nucléotides monophosphates XMP et dXMP (X désignant une base azotée quelconque) vont ainsi devenir XTP et dXTP pour les synthèses respectives de l’ARN et de l’ADN. Démoli après avoir servi dans les ribosomes l’ARN retourne à l’état de XMP qui ira de nouveau se transformer en XTP au contact de l’ATP. ADP et ATP fournissent aussi l’énergie d’activation des acides aminés pour leur synthèse en protéines. Ainsi, les nuléotides à adénine, outre leur rôle de constituants des acides nucléiques, constituent (sous le nom d’adénosine mono-, di- et triphosphate) des transporteurs d’énergie essentiels pour toute la chimie cellulaire. On a compris que la lettre d symbolise les nucléotides à désoxyribose (les autres étant à ribose).
- noyau pour être réemployés après avoir été « rechargés » en énergie en passant de nouveau à l’état de triphosphates (fig. 10).
- On peut imaginer des expériences où des ribosomes isolés recevraient un ARN « messager » provenant d’une espèce très différente afin de changer la nature des protéines fabriquées. En utilisant l’acide ribonucléique d’un virus végétal, la mosaïque du tabac, des chercheurs américains sont parvenus récemment à faire synthétiser par les ribosomes d’une bactérie des protéines rappelant celles du virus par leur composition et leurs caractères immunologiques.
- La synthèse de l’ARN spécifique se fait vraisemblablement dans le noyau à la façon dont nous avons vu qu’on peut la réaliser in vitro en présence d’ADN. En préparant des acides ribonucléiques artificiels ayant les propriétés d’un « messager», on peut espérer élucider une étape importante du fonctionnement physico-chimique des êtres vivants.
- Un code formé de triplets ?
- Une question se pose maintenant : quelle est la correspondance qui existe entre la composition de l’ARN messager (donc de l’ADN) et celle des protéines dont cet ARN gouverne la synthèse ? Il apparaît certain qu’une
- 496
- p.496 - vue 500/551
-
-
-
- succession déterminée de bases azotées dans P ARN induit une succession correspondante d’acides aminés dans la protéine. Plus précisément, la protéine se construisant par addition bout à bout d’acides aminés, on peut supposer qu’à chaque acide aminé correspond une certaine suite de bases. En effet, il y a 20 acides aminés et il n’y a que 4 bases. Deux bases ne sauraient même suffire pour chaque acide, puisque prises deux à deux 4 bases n’offrent que 16 combinaisons. Chaque symbole du «code» doit comprendre au moins trois nucléotides (un « triplet ») et ce système nous offre même, en apparence, une trop grande richesse de combinaisons : 43 = 64.
- Si cette hypothèse est juste, dans une chaîne représentée par exemple par ...A-G-U-A-U-U-C-G-A-C..., les triplets A-G-U, A-U-U, C-G-A, etc., seraient des symboles dont chacun pourrait représenter un acide aminé. Comme il y a 64 triplets possibles, un certain nombre ne posséderaient aucune signification, à moins qu’un même acide aminé puisse correspondre à plusieurs triplets différents. Nous aurions bien pu, d’ailleurs, découper la même chaîne en d’autres triplets, par exemple G-U-A, U-U-C, G-A-C, ou encore U-A-U, U-C-G. Mais si à chaque enchaînement de nucléotides ne correspond qu’une seule protéine, comme il est logique de l’admettre, le code ne doit pouvoir être lu que d’une seule façon : au moins deux triplets sur trois pourraient alors ne correspondre à rien qu’à délimiter peut-être des coupures dans la chaîne ? Mais nous verrons plus loin qu’on peut faire une autre hypothèse. Car on n’en est pour l’instant, à ce sujet, qu’au stade des spéculations, quoiqu’elles aient déjà quelque consistance.
- Les séquences complètes de plusieurs protéines sont déjà connues, mais une analyse parallèle effectuée dans l’acide nucléique correspondant soulève de grosses difficultés. Les cas les plus favorables sont offerts par les virus; dans l’acide nucléique du virus se trouve le code nécessaire pour la synthèse de nouvelles particules de virus par la cellule. Quand cet acide est de l’ARN, on admet que celui-ci fonctionne directement comme « messager », sans passer par l’ADN; les synthèses cellulaires sont déviées vers la production du virus. On a même isolé chez une bactérie un système enzymatique capable de faire de l’ARN, non plus en fonction d’ADN, mais directement d’ARN.
- La mosaïque du tabac est précisément un virus contenant de l’acide ribonucléique; c’est aussi le mieux connu par sa structure. La particule est un bâtonnet allongé et creux. L’ARN s’y présente sous forme d’une seule chaîne, enroulée en hélice et noyée dans les protéines. Elle correspond à 6 400 nucléotides environ (donnant une masse moléculaire totale de deux millions). Le virus contient 2 000 molécules de protéines identiques entre elles, ayant chacune une masse moléculaire de 17420 (soit moins de 200 acides aminés par molécule). Si le code est réellement composé de triplets, ce qui n’est pas définitivement prouvé, il y a beaucoup plus de nucléotides qu’il n’en faut pour déterminer la séquence des acides aminés dans la partie protéique, sauf s’il existe le long de la chaîne ribonucléique une certaine répétition d’un même motif. On peut provoquer artificiellement des mutations du virus en le soumettant à l’acide nitreux. Ce réactif a la propriété de « désa-miner » l’adénine et la cytosine, c’est-à-dire de remplacer les groupes aminés —NH2 par —OH (voir fig. 2). La cytosine est alors transformée en uracile ; pour l’adénine les choses sont moins simples, mais tout se passe parfois
- comme si l’on obtenait la guanine. Naturellement le virus ne reste actif que si les modifications de son acide nucléique sont relativement discrètes et on peut alors observer des changements corrélatifs survenus dans la protéine qu’il fabrique.
- L’analyse quantitative est aujourd’hui très perfectionnée : elle peut déceler le remplacement ou la suppression d’un seul acide aminé dans la séquence protéinique. Dans ces mutations provoquées de virus, des remplacements sont effectivement observés; voici quelques exemples, tirés des travaux de Whittmann et Tsugita (le chiffre indique le nombre de fois où le remplacement est observé) :
- Acides aminés Acides aminés
- initiaux remplaçants
- I Isoleucine ~> Valine
- I Leucine -> Phényl-alanine
- 5 Arginine Glycocolle
- 2 Proline Leucine
- 3 Proline -> Sérine
- 3 Sérine -> Phényl-alanine
- 1 Thréonine —> Sérine
- 7 Thréonine Isoleucine
- 1 Tyrosine Valine
- On sait que les substitutions d’acides aminés dans les
- protéines furent découvertes dans les hémoglobines anormales de l’homme (2). Lorsqu’on analyse un même produit, par exemple une hormone, dans plusieurs espèces animales, on trouve souvent une séquence presque invariable où les différences ne portent que sur certains acides aminés, toujours placés dans les mêmes régions de la chaîne. Ces différences sont probablement le reflet de mutations anciennes, survenues indépendamment dans les diverses lignées évolutives. Nous n’observons ces substitutions que lorsqu’elles se produisent dans des portions où une perturbation dans l’ordonnance des acides aminés n’affecte en rien la structure générale de la protéine et son activité biologique. La découverte de l’acide ribonucléique « messager » ouvre une nouvelle voie d’approche pour étudier les changements liés à ces mutations au niveau des acides nucléiques.
- Début de déchiffrement
- La synthèse des protéines en dehors de la cellule nécessite l’isolement des ribosomes ou de structures apparentées. Les ribosomes de chaque espèce ont des caractéristiques qui leur sont propres; ils contiennent toujours de l’ARN et des protéines. Comme nous l’avons vu, il est probable que ces synthèses ne peuvent fonctionner que par l’apport d’un ARN capable de jouer le rôle de messager.
- De telles synthèses in vitro de protéines ou de leurs ébauches peuvent être suivies en surveillant l’incorporation des acides aminés marqués par un élément radioactif. Nirenberg, en particulier, a obtenu des synthèses instructives dans une préparation contenant des ribosomes en lui additionnant un acide ribonucléique de composition bien
- 2. Voir : Les protéines livrent peu à peu les secrets de leur constitution, par Jean Pelmont, La Nature, octobre i960, p. 414-419.
- 497
- p.497 - vue 501/551
-
-
-
- connue, par exemple du poly-U, réalisé artificiellement par le procédé que nous avons déjà vu, sous l’influence de la nucléotide-phosphorylase, en partant uniquement du nucléotide diphosphate de Furacile (ppU).
- Or l’addition de ce poly-U au milieu d’expérience ne stimule l’entrée dans le système réagissant (ribosomes) que d’un seul acide aminé, la phényl-alanine : le produit formé est une chaîne protéinique qui ne contient que cet acide aminé. Si le poly-U fonctionne bien comme un ARN messager, on en déduit évidemment que le triplet qui commande l’incorporation de la phényl-alanine ne peut être que U-U-U.
- Ce précieux résultat a été le point de départ d’une étude importante menée parallèlement par les équipes de Niren-berg et d’Ochoa. La polynucléotide-phosphorylase permet, on l’a vu, de réaliser des ARN mixtes où les proportions des bases incorporées sont réglées par celles des nucléotides diphosphates introduits dans la réaction. On peut donc, en particulier, fabriquer de l’ARN qui contienne U (uracile) et G (guanine) dans le rapport 5/ x. Si nous calculons les proportions des différents triplets qui doivent alors se former, nous trouvons que U-U-U est 5 fois plus fréquent que les triplets contenant 2 U et 1 G, 25 fois plus fréquent que 1 U et 2 G, 125 fois plus enfin que G-G-G. Or on constate que l’ARN purement artificiel ainsi composé stimule non seulement l’incorporation de la phényl-alanine, mais aussi de la cystéine, du glycocolle, de la leucine, du tryptophane et de la valine.
- Analysons maintenant la protéine artificielle ainsi formée pour voir la quantité de chacun de ses acides aminés par rapport à la phényl-alanine. On trouve respectivement 1/5, 1/24, 1/8, 1/20 et 1/50. D’après les fréquences énoncées plus haut, il est clair que les rapports 1/24 et 1/20 pour le glycocolle et le tryptophane (introduits en deux expériences séparées) font prévoir que l’incorporation de ces acides aminés est réglée par des triplets contenant 1 U et 2 G. Pour les autres ce serait 2 U et 1 G (la valine étant mise à part, le résultat provenant de recoupements avec d’autres polymères expérimentés).
- Une analyse progressive de ce genre a permis de dresser un tableau des correspondances pour 19 acides aminés, la glutamine étant seule absente :
- Phényl-alanine 3U
- Alanine iU iC iG
- Arginine iU iC iG
- Asparagine iU 2A (iU iA iC)
- Acide aspartique iU iA iG
- Cystéine 2U xG
- Acide glutamique iU iA iG
- Glycocolle iU zG
- Histidine iU iA iC
- Isoleucine 2U iA
- Leucine 2U Æ iC (2U iA, 2U xG)
- Lysine iU zA
- Méthionine iU iA iG
- Proline iU 2C
- Sérine 2U iC
- Thréonine iU iA iC (iU 2C)
- Tryptophane iU 2Cr
- Tyrosine 2U iA
- Valine 2U iG
- Entre parenthèses figurent des solutions accessoires : les acides aminés sont-ils déterminés par plusieurs tri-
- plets ? Comme nous le verrons plus loin, il est probable qu’il en est bien ainsi : toutes les solutions ne figureraient pas au tableau. D’autre part ces résultats, s’ils établissent une correspondance entre chaque acide aminé et quelques nucléotides, ne préjugent en rien de l’ordre des bases dans les triplets. Le groupe 2 U 1 A, par exemple, paraît « coder » à la fois l’isoleucine et la tyrosine : force est d’admettre que la position de A, l’adénine, est différente dans les deux cas.
- Seule de ce tableau la glutamine est absente. Aucun polymère contenant de l’uracile ne s’est montré capable de stimuler l’incorporation de cet acide aminé. Sans doute Furacile fait-il défaut dans le triplet ou les triplets qui lui correspondent. Si maintenant nous nous reportons à la liste, précédemment donnée, des mutations provoquées chez la mosaïque du tabac par l’acide nitreux, nous remarquons une concordance satisfaisante entre le remplacement des acides aminés et le tableau. Nous savons que la cytosine est désaminée en uracile et que dans une certaine mesure l’adénine fait place à la guanine. Le remplacement d’une base comme la cytosine par une autre, Furacile, suffit à substituer la phényl-alanine, par exemple, à la leucine, et la sérine à la proline.
- Dans le code proposé un grand rôle est tenu par Furacile. Grâce aux nombreuses protéines complètement analysées quant à leur teneur en chaque acide aminé, on peut calculer, d’après l’hypothèse faite, la composition des acides nucléiques correspondants, et la confronter avec la réalité. Celle-ci nous est fournie par les analyses d’acide désoxyribonucléique effectuées dans chaque cas ou, à défaut, par celles des acides ribonucléiques messagers isolés par chromatographie ou par ultra-centrifugation. Or aucun de ces acides nucléiques ne présente des teneurs en uracile (ou en thymine, qui la remplace dans l’ADN) aussi fortes que notre tableau le fait prévoir. Parmi les solutions proposées pour vaincre cette difficulté, nous mentionnerons celle d’un statisticien, C.R. Woese, qui paraît séduisante.
- L’hypothèse part d’une supposition déjà faite, à savoir qu’un même acide aminé correspond à plusieurs triplets différents. Si Furacile est partout présent dans les triplets mis ici en correspondance, c’est que l’ARN synthétisé puis utilisé contenait surtout de Furacile. Mais certains au moins des acides aminés peuvent aussi correspondre à des triplets sans uracile, que l’expérience ne pouvait faire ressortir. Pour des raisons que nous ne comprenons pas encore, en effet, ces expériences particulièrement délicates n’ont pu réussir, jusqu’ici, qu’avec des polynucléotides contenant des teneurs assez fortes en uracile.
- L’hypothèse de C.R. Woese
- C.R. Woese remarque que l’on peut faire abstraction de la forme du noyau chimique des bases (fig. 11) pour ne considérer que la présence de —NH2, —OH ou —H en position 2 ou 6. La cytosine et l’adénine, par exemple, se ressemblent en ce qu’elles ont —NH2 en position 6. On peut supposer alors que seule la façon dont les positions 2 ou 6 sont occupées a de l’importance, et que cette « occupation» prend une signification particulière selon le rang qu’occupe la base dans le triplet. Ainsi, on aurait à considérer seulement :
- — Pour la première base du triplet, une combinaison déterminée des substituants en 2 et 6;
- 498
- p.498 - vue 502/551
-
-
-
- Adénine
- Cytosine
- Fig. il- — Parties significatives des bases azotées dans le système proposé par C.R. Woese.
- Les substitutions dans les positions 2 et 6 seraient seules à considérer (ici en gras) à l’exclusion des autres constituants de la base azotée. Explications dans le texte. Les autres substituants éventuels et les-' des cycles n’ont pas
- été représentés.
- N X Combinaison déterminée
- 1ers base du triplet 1 de@et(2) : une base à
- SX / l’exclusion
- des autres.
- 2e base
- N
- N
- @compte seul. Pour(î)= NH2:
- A ou C Pour@= OH G ou U
- Pour (2)— NH2:
- N/ Guanine
- 3e base Pour®= H : Adénine
- N / Pour ®= OH :
- N C ou U
- Fig. 12. — Le système de codage de C.R. Woese.
- Pour les substitutions possibles en 2 et 6 selon les cas, voir la figure 11. Explications complémentaires dans le texte.
- — Pour la deuxième, présence soit de —NH2, soit de
- — OH en 6;
- — Pour la troisième, présence de —NH2, —OH ou
- — H en 2.
- En se reportant à la figure 12 on voit les conséquences : la base qui occupe la premier rang dans un triplet est déterminée et ne peut être remplacée; au deuxième rang,
- uracile et guanine sont équivalentes, de même qu’adénine et cytosine; au troisième rang enfin, on a trois possibilités : soit adénine, soit guanine soit indifféremment uracile ou cytosine. Le nombre total des triplets efficacement différents n’est plus de 64, mais de 4 x 2 X 3 = 24. Les acides aminés connus étant au nombre de 20, la correspondance est bonne. (On pourrait supposer, d’ailleurs, que quatre acides aminés nous sont encore inconnus, parce que n’existant qu’en quantité infimes, ou encore que quelques triplets, quatre au plus, ne correspondent à aucun acide aminé et servent alors, peut-être, de « ponctuations » pour séparer les portions significatives du code).
- On voit en tout cas que, dans cette hypothèse, certains acides aminés peuvent correspondre à quatre triplets; c’est le cas de la phényl-alanine : UUU peut être remplacé, d’après ce qui précède, par UUC, UGU, UGC. La base invariable en première position est l’uracile. Pour l’asparagine, le tableau nous donne iU 2A0U iU iA iC; l’adénine qui peut être remplacée ici par la cytosine est donc celle qui se trouve en deuxième position, et on trouve d’autre part que le triplet contient nécessairement de l’uracile; le problème admet donc deux solutions : U A A, UCA. Pour la valine les différentes solutions sont GGU,. GUU, GUC, GGC. Comme les trois positions n’ont pas la même valeur, on voit aisément qu’un tel code ne peut être établi qu’après de laborieux tâtonnements, en tenant compte des données expérimentales et des remplacements d’acides aminés observés au cours des mutations.
- Une fois ce patient travail d’assemblage réalisé, le résultat doit subir de multiples tests, afin d’en vérifier le bien-fondé. En regard de la composition en acides aminés d’un virus ou d’une bactérie par exemple, on peut écrire les triplets correspondants et prédire les taux de bases possibles dans l’acide nucléique responsable. Selon les triplets choisis pour chaque acide aminé, le résultat varie entre un certain maximum et un certain minimum pour chacune des bases. Habituellement on utilise le taux de G -fi C dans l’ADN, la guanine et la cytosine étant complémentaires l’une de l’autre dans les doubles chaînes. Ce taux ne fournit pas seulement une donnée sur la composition chimique de l’acide nucléique : la teneur en G -fi- C est une caractéristique de chaque espèce, mais varie assez largement dans le monde vivant, puisqu’il est compris entre 25 et 74 pour 100 environ. On se préoccupe également d’évaluer le taux des paires de bases, par exemple les pourcentages de séquences -A-U-, -G-A-, -U-G-,... (en tout 16 combinaisons) tels qu’on les trouve le long d’une même chaîne. Comme nous l’avons vu, ce résultat s’obtient en étudiant le transfert du phosphore au cours de l’hydrolyse de l’acide nucléique en nucléotides Ap, Gp, Cp, Tp : certaines paires sont plus fréquentes que d’autres, ce qui est naturel puisque nous savons que la succession des nucléotides dans l’ADN n’est pas vouée au hasard. Ce sont autant de corrélations à établir entre les résultats d’innombrables analyses et les prédictions du code.
- *
- * *
- Chose curieuse, nous quittons la biologie traditionnelle pour entrer dans un domaine qui n’est pas sans analogie avec la recherche opérationnelle. Pour effectuer ce travail énorme, il faut maintenant avoir recours à des calculatrices électroniques, seules capables d’établir des corrélations statistiques dans un nombre aussi grand de données. Or
- 499
- p.499 - vue 503/551
-
-
-
- les résultats des analyses effectuées jusqu’à ce jour cadrent assez exactement avec les prédictions.
- Malgré ces résultats extrêmement encourageants, il subsiste encore des difficultés. Si nous examinons le schéma de Watson et Crick d’après lequel la molécule d’ADN contient deux chaînes appariées en double hélice, nous voyons que celles-ci, tout en étant complémentaires, ont forcément des séquences très différentes. Si les deux chaînes sont « déchiffrées » séparément, ce qui n’est pas certain, il ne peut en provenir que deux protéines, elles-
- mêmes très différentes. Peut-être une seule chaîne serait-elle alors utilisée (l’autre servant à la duplication de l’ADN, éventuellement de l’ARN ?). C’est là un problème que les recherches n’ont pas encore résolu. En réalisant complètement in vitro certains processus vitaux, on peut espérer en élucider les différentes étapes. Aussi la mise au point de préparations capables d’effectuer jusqu’au bout des synthèses en dehors de la cellule est-elle une préoccupation majeure de la recherche actuelle.
- Jean Pelmont.
- Les propriétés antibiotiques du blanc d’œuf
- Les propriétés antibiotiques du blanc d’oeuf ont été signalées depuis longtemps. Il se trouve même qu’une des publications les plus anciennes sur ce sujet (1890) a été faite en France, dans La Semaine médicale, par M. R. Wurtz. Toutefois, dans les dernières années, ce sont surtout les biologistes et les zootechniciens russes qui ont accumulé des recherches en ce domaine. Un article récent de N.A. Movtchan, dans le Bulletin de /’Université de Leningrad (1962, n° 3), fait état de plusieurs séries d’expériences exécutées sur le blanc d’œuf de poule, de cane et de pintade.
- Pour les premières expériences, la gélose des boîtes de Pétri avait été ensemencée par les espèces suivantes de bactéries : Micrococcus lysodeikticus, Sarcina lutea, Bacterium heteroceum, Proteus vulgaris, Bacterium fluoréscens, B. prodigio-sum, Staphylococcus aureus, Salmonella pullorum, Pasteurella sp., Bacillus mesentericus, B. mégathérium, B. suhtilis. Avant la mise en autoclave, quelques gouttes de blanc d’œuf furent déposées sur chacune des préparations.
- Au bout de 48 h, le blanc d’œuf des trois oiseaux a provoqué un arrêt radical du développement pour M. lysodeikticus, S. lutea, B. heteroceum. Par contre, S. pullorum, Pasteurella (pathogène pour les oiseaux) et St. aureus ont résisté, mais leurs colonies mises en contact avec le blanc d’œuf étaient composées d’individus plus petits que dans les colonies du voisinage.
- On peut également noter que la capacité destructive de l’albumine sur M. lysodeikticus, S. lutea, P. vulgaris et Escherichia coli était plus grande lorsque cette substance avait été prélevée dans la couche externe du blanc d’œuf. Autre observation : c’est le blanc d’œuf de poule qui manifeste les meilleures propriétés antibiotiques; celui de la cane est le moins efficace.
- La deuxième série d’expériences avait pour but de mettre en évidence la vitesse de destruction des divers microorganismes par le blanc d’œuf. On procéda en premier lieu à un mélange des diverses cultures, mises en suspension dans une solution physiologique, avec le blanc d’œuf. Les boîtes de Pétri furent ensemencées à des intervalles variés, certains ensemencements ayant lieu 30 s après la préparation du mélange, alors que pour d’autres cette opération fut étagée jusqu’à un délai extrême de 96 h. Les résultats précédents furent en général confirmés, tout en apportant les précisions suivantes : destruction d’Escherichia coli et de Salmonella pullorum, au bout de 24 à 48 h après la mise en contact avec le blanc d’œuf de poule, beaucoup plus tardive s’il s’agit de l’albumine de pintade ou de cane : de même, la
- destruction de S. aureus, obtenue entre 48 et 72 h par le blanc d’œuf de poule ne survenait qu’au bout de 72 à 96 h avec celui des autres oiseaux. Par ailleurs, une diminution sensible était constatée dans les colonies B. heteroceum, P. vulgaris, B. fluoréscens, sans toutefois aller jusqu’à la destruction totale, même passé le délai extrême de 96 h.
- Autre observation intéressante : des spores de B. mesentericus, B. mégathérium et B. suhtilis, soumises à la même expérience, ont été légèrement atteintes, mais aucune destruction totale n’est intervenue. Comme on pouvait s’y attendre, les spores sont donc plus résistantes que les cellules végétatives.
- Les expériences se présentent tout différemment lorsqu’on modifie le dosage des préparations. C’est ainsi qu’en ensemençant la gélose avec un blanc d’œuf très fortement contaminé par E. coli, S. aureus, S. pullorum, on voit se produire un phénomène paradoxal : non seulement les microorganismes ne sont pas détruits mais leur prolifération est accélérée.
- Voici comment Movtchan interprète ce phénomène : certaines bactéries peuvent, en vertu de leur métabolisme propre, modifier lepH du milieu où elles vivent; mais cette capacité dépend de la plus ou moins grande vitalité de la colonie microbienne. On peut donc supposer que de petites colonies, sans influence sur un milieu défavorable, périssent, tandis que les plus fortes ont une sécrétion suffisante pour réaliser une adaptation préalable qui, au cours d’une deuxième phase, stimulerait leur multiplication.
- Une autre explication réside dans le fait qu’en pratiquant un ensemencement massif on provoque inévitablement l’agglutination des microorganismes. Il se peut qu’en ce cas les substances antibiotiques du blanc d’œuf n’entrent pas en contact direct avec de nombreuses bactéries qui pourraient ainsi se multiplier sans aucun obstacle.
- Ajoutons en terminant que si le blanc d’œuf est délayé dans 5 à 10 fois son volume de solution physiologique, il conserve partiellement son pouvoir bactériostatique. Les colonies qui résistent sont morphologiquement différentes des colonies témoins : les individus sont plus petits et leur couleur est plus pâle.
- De l’ensemble de ces expériences, il ressort que, sous certaines restrictions, le pouvoir antibiotique du blanc d’œuf (et spécialement de sa couche externe) est une barrière efficace contre l’infection et assure donc la protection de l’embryon dans les premières phases de son développement.
- S. Clavel.
- 500
- p.500 - vue 504/551
-
-
-
- Les prix Nobel de Sciences 1962
- par Fernand Lot
- Physique : L.D. Landau
- Théoricien de renommée internationale, dont les ouvrages font autorité, le professeur Lev Davidovitch Landau, né à Bakou en 1908, reçoit cette année le prix Nobel de Physique pour ses travaux sur la matière condensée et principalement sur l’hélium liquide. Il passa à dix-neuf ans sa thèse de doctorat, consacrée à la mécanique quantique, et à vingt-neuf ans il entrait à l’Académie des sciences de l’U.R.S.S. Durant les deux années où il fut l’hôte du laboratoire de Niels Bohr, à Copenhague, il élabora une théorie sur le magnétisme qui est devenue classique. Il était déjà titulaire d’un prix décerné par le Congrès international de Physique, réuni à Toronto en 1960, et du prix Lénine, qui lui a été attribué le 21 avril dernier. Son nom a été mis en vedette, il y a quelques mois, par la grande presse, mais, malheureusement, à propos d’un dramatique accident de voiture dont il fut victime, le 7 janvier dernier, dans la banlieue de Moscou, alors qu’il revenait de l’Institut nucléaire de Doubno. Il resta longtemps dans le coma, et les autorités soviétiques appelèrent à son chevet des sommités médicales françaises, tchécoslovaques et canadiennes. Il se trouve encore immobilisé sur un lit de clinique.
- On sait que l’hélium est le seul corps qui, dans les conditions de pression ordinaires, ne devient jamais solide, quel que soit l’abaissement de la température. Il ne se liquéfie qu’à environ 50 au-dessus du zéro absolu, et acquiert alors des propriétés étranges.
- Les efforts qui avaient été déployés dans les laboratoires cryogéniques des différents pays avaient surtout visé, après qu’eut enfin été obtenue, par le savant hollandais Kamerlingh Onnes, en 1908, la liquéfaction de ce gaz, le plus rebelle de tous, la production d’un nouveau réfrigérant permettant d’étudier les propriétés des autres corps à des températures de plus en plus proches du zéro absolu. Mais il devait bientôt apparaître que l’hélium liquide méritait, à lui seul, de retenir toute l’attention des chercheurs.
- On découvrit l’existence d’un hélium I et d’un hélium II, ce dernier se montrant paradoxalement superfluide et capable de grimper à l’intérieur du vase qui le contient, en se propageant le long des parois à travers une fine couche capillaire dont l’épaisseur est celle d’une centaine d’atomes, pour redescendre ensuite à l’extérieur.
- Par des considérations de mécanique quantique, et en faisant appel, artifice mathématique, à la notion de quasi-particules, le professeur Landau est parvenu à formuler une théorie qui rend compte de l’insolite phénomène de la superfluidité. C’est là une nouvelle et profonde avancée dans la connaissance de la matière.
- Chimie :
- J.C. Kendrew et M.F. Perutz
- Le prix Nobel de Chimie a été partagé entre le docteur John Cowdry Kendrew, né à Oxford en 1917, et le docteur Max Ferdinand Perutz, né à Vienne en 1914, tous deux venus à Cambridge, celui-ci à partir de 1936, celui-là à partir de 1947, et travaillant, depuis le début de cette année, au laboratoire de biologie moléculaire récemment créé à l’Institut de recherches médicales de l’université. Grâce à la méthode d’analyse par diffraction des rayons X, ces deux chercheurs ont pu établir la structure tridimensionnelle de deux protéines globulaires de grande importance, l’hémoglobine et la myoglobine.
- L’hémoglobine, pigment respiratoire par excellence de tous les Vertébrés, où elle présente quelques différences selon les espèces, capte l’oxygène, avec lequel elle se combine de façon réversible, pour le transmettre aux cellules des tissus.
- La myoglobine, elle, est une protéine musculaire. Son autonomie par rapport à l’hémoglobine n’a été que tardivement établie. Le biochimiste Thevrell l’isola, en 1932, et montra son individualité. Analogue à l’hémoglobine, elle s’en distingue pourtant, d’abord par son poids et son volume moléculaires, environ quatre fois moindres.
- La myoglobine se trouve surtout (fixée, non circulante) dans les muscles rouges à action lente et puissante. C’est elle, non l’hémoglobine, qui leur donne leur coloration. Elle augmente au cours de l’entraînement musculaire et des adaptations à l’altitude. Elle diminue sous l’effet des compressions musculaires ainsi que dans les paralysies nerveuses et dans les myopathies. Les anémies ne modifient pas son taux. On manque encore de données sur son rôle physiologique exact. On suppose qu’elle intervient en tant que réserve d’oxygène, qu’elle doit céder, lors des contractions musculaires en anaérobiose, aux ferments respiratoires qui interviennent dans les différentes étapes de la respiration tissulaire. Ce fait paraît bien ressortir d’expériences qui ont consisté à comparer le comportement de la myoglobine et celui de l’hémoglobine sanguine chez des phoques en plongée : au bout de dix minutes, en effet, on à constaté que toute la myoglobine était réduite (on n’en trouvait plus trace d’oxygénée), tandis que le processus de réduction n’avait intéressé que la moitié seulement de l’hémoglobine. La myoglobine s’est donc comportée, en l’occurrence, comme une réserve d’oxygène pour les tissus.
- Hémoglobine et myoglobine organisent, autour d’un noyau non protéinique (un complexe fer-porphyrine), leurs longues chaînes d’acides aminés, repliées et soudées ça et là par des « ponts ». Elles cristallisent facilement mais pour analyser aux rayons X des corps cristallisés aussi
- 501
- p.501 - vue 505/551
-
-
-
- complexes (la myoglobine pour sa part comprend i 200 atomes sans compter les atomes d’hydrogène) les difficultés sont énormes et naguère encore il était impossible de préciser dans le détail la structure de telles protéines. C’est un artifice dû à M. Perutz qui a permis d’y parvenir : il a consisté à introduire, en des sites particuliers des molécules, des dérivés de corps lourds, mercure et or, plus facilement repérables sur les clichés aux rayons X. L’analyse des longues séries de clichés obtenus n’a pu se faire qu’avec le secours des calculatrices électroniques.
- Médecine : M.H.F. Wilkins,
- F.H.C. Crick et J.D. Watson
- Le prix Nobel de Physiologie et Médecine couronne deux Anglais, Maurice Hugh Frederick Wilkins et Francis Harry Compton Crick, et un Américain, James Dewey Watson, que l’on ne s’étonne pas de voir récompenser pour leurs retentissants travaux sur les acides nucléiques. Comme pour le prix Nobel de Chimie de cette même année, il s’agit de biologie moléculaire. Les frontières entre la chimie et la physiologie sont devenues indécises.
- M.H.F. Wilkins est né le 15 décembre 1916 et soutint sa thèse de doctorat ès sciences à Cambridge. Il est directeur adjoint de l’Institut de recherches biologiques du King’s College, à Londres.
- F.H.C. Crick, né le 8 juin 1916, après avoir travaillé dans les services scientifiques de l’Amirauté britannique, a été
- A propos des
- Rendant compte, d’après un article de M. V. Charrin dans Le Génie civil, du renouveau d’activité des mines cévenoles (La 'Nature-Science Progrès, septembre 1962, p. 383), nous écrivions, à propos des mines des Malines et de Carnoulès (Gard), que la reprise de leur activité était envisagée. C’était là une erreur d’interprétation. A ce sujet, nous avons reçu de la Société minière et métallurgique de Penarroya, les précisions suivantes.
- L’exploitation des Malines, reprise pendant la guerre, s’est normalement poursuivie depuis lors : actuellement cette mine produit annuellement en moyenne 9 500 t de
- Pfotéines industrielles
- Une usine nouvellement ouverte à Plymouth (Grande-Bretagne) fabrique désormais des protéines comestibles, à raison de 2 000 t par an. La matière première consiste en arachides qui, on le sait, fournissent normalement des corps gras. Il est d’ailleurs spécifié que la substance nutritive qui en est extraite à l’usine de Plymouth est en réalité une lipoprotéine. Elle a reçu, de ce fait, le nom de lypre. Un sérieux appoint en aliments protéiniques pourrait être dû à l’extension de ce procédé. On remarquera cependant qu’il ne fait que réaliser un transfert entre les tourteaux dont se nourrit le bétail et un aliment destiné à l’homme.
- attaché au département de la biologie moléculaire du Medical Research, à Cambridge, et il enseigne la biochimie au Collège Churchill.
- J.D. Watson, né le 6 avril 1928, est donc le cadet des lauréats de cette année ; il est titulaire de la chaire de biologie de l’Université Harvard.
- MM. Crick et Wilkins avaient déjà reçu le prix Albert-Lasker, qui leur fut décerné en 1960. Il est à noter qu’aucun des nouveaux lauréats du Nobel de Physiologie et Médecine n’est médecin. Pasteur ne l’était pas non plus, qui révolutionna la médecine tout entière.
- Tous trois ont été distingués par le jury de l’Institut Karolinski pour « avoir déterminé la structure tridimensionnelle de l’acide désoxyribonucléique».
- M. Wilkins, physicien spécialisé dans l’analyse spectrale par diffraction des rayons X, a étudié par ce moyen, en x 9 5 3, divers échantillons d’ADN, en particulier d’ADN du colibacille et du thymus de veau, et il a pu en préciser la structure.
- A partir de ces données, complétées par des observations diverses, et en tenant compte de toutes sortes de considérations d’une grande subtilité, MM. Crick et Watson ont conçu un modèle de l’ADN, aujourd’hui universellement connu (voir dans ce même numéro, p. 489) et que les travaux ultérieurs semblent bien avoir confirmé. Ils apportaient ainsi une contribution de premier ordre à des recherches d’une portée immense sur les mécanismes essentiels de la vie.
- Fernand Lot.
- mines cévenoles
- concentrés de zinc et 2 500 t de concentrés de plomb. Quant à la mine de Carnoulès, son exploitation, commencée en 1956, s’est arrêtée en août 1962, le gîte étant épuisé.
- La Société de Penarroya signale qu’elle a ranimé sept des anciennes mines françaises, produisant un total annuel de 26 000 t de concentrés de plomb et 24 000 t de concentrés de zinc. Elle poursuit d’autre part l’équipement de l’important gisement de Largentière, déjà signalé dans l’article précité, et l’on précise que la teneur en argent y est de peu supérieure à celle du gisement de Carnoulès.
- Y. M.
- Pétrole et rendement du sol
- Une mince pellicule d’une émulsion à base de pétrole, répandue à la surface d’un champ, peut augmenter le rendement des terres en empêchant l’évaporation de l’eau contenue dans le sol, affirme l’Esso Research and Engineering Company, qui a procédé à des expériences en Europe, en Amérique du Sud, en Afrique du Nord et aux Etats-Unis. Les chercheurs ont utilisé une émulsion de résines de pétrole et d’eau, vaporisée directement sur les plants. Cette émulsion conserve l’humidité du sol et en augmente la température, en absorbant les rayons solaires. L’émulsion favoriserait aussi une production hâtive. (Centre culturel américain).
- 502
- p.502 - vue 506/551
-
-
-
- Les câbles téléphoniques
- sous-marins
- et leurs répéteurs
- ri ont pas droit à la panne
- par Jacques Fouchet
- En attendant la liaison téléphonique d’un continent à l’autre par ondes ultra-courtes rebondissant sur des satellites ou retransmises par eux (La Nature — Science Progrès, mai 1962, p. 193), deux procédés de communication transocéanique sont en présence : la radiocommunication par ondes courtes ou moyennes, la communication par câbles sous-marins.
- On connaît les multiples inconvénients de la première solution où l’unique conducteur, l’éther (1), est déjà très encombré et présente en outre des phénomènes d’affai-bbssement (fading) qui rendent souvent les conversations inaudibles ou peu nettes. Ces conversations enfin ne peuvent rester secrètes.
- Le câble sous-marin éliminerait tous ces inconvénients, à condition d’exister, sur une même Hgne, à plusieurs exemplaires. Jusqu’ici, pour des raisons économiques, aucun câble n’a été encore doublé ou triplé. De ce fait, on retrouve des bmitations analogues à celles de l’éther. Un certain nombre de « voies » doivent en effet être ménagées sur le conducteur unique, grâce à un espacement correct des fréquences utilisées. Ainsi peuvent être entretenues plusieurs conversations simultanées. Mais alors que l’éther souffrait de l’« embouteillage» général sur toute la gamme des fréquences, le câble sous-marin est condamné à ne pouvoir accueillir les fréquences élevées en usage sur les câbles terrestres : par suite des longues distances à couvrir sous les océans, ces fréquences seraient exposées à un affaiblissement marqué. Il faudrait en conséquence multiplier le nombre des répéteurs â’ amplification, ces appareils auxquels le présent article est en majeure partie consacré.
- Le rôle de ces répéteurs doit être tout d’abord défini. En raison de la résistance des conducteurs, le courant porteur qui véhicule les messages téléphoniques s’affaiblit progressivement jusqu’à un point où ces messages, noyés dans le bruit de fond, deviennent inaudibles. Il faut donc, de place en place, les amplifier. Mais, nous le verrons, les répéteurs qui assument cette fonction sont des organes très complexes, dont on exige en outre une grande « fiabilité», c’est-à-dire le pouvoir d’assurer sans défaillance un long service sans que leur remplacement devienne nécessaire.
- 1. L’emploi du mot « éther » est conservé par commodité pour désigner le domaine de propagation des ondes électromagnétiques, mais il n’implique évidemment aucune hypothèse sur la nature du milieu.
- Le câble coaxial
- Les premières liaisons télégraphiques sous-marines, qui datent du milieu du siècle dernier, utilisaient un conducteur unique dont le circuit de retour était assuré par la mer. Naturellement de tels câbles auraient été impropres à la transmission de la voix humaine. Au début de ce siècle, divers procédés furent mis en œuvre pour rendre possibles les communications téléphoniques sur de moyennes distances : bobines de self-induction placées de loin en loin sur la ligne (pupinisation) et, après la première guerre mondiale, emploi d’amplificateurs (répéteurs). C’est seulement en 1936 qu’est apparue la technique du câble coaxial qui devait permettre de réaliser les liaisons transocéaniques à voies multiples (comme il a été dit plus haut) grâce à l’espacement des fréquences utilisées.
- Un câble coaxial est formé d’un conducteur central et d’un tube cylindrique de même axe, ces deux éléments constituant un circuit électrique (fig. 1). Ce circuit hétérogène est particulièrement propice au passage d’ondes électromagnétiques de fréquences élevées de l’ordre du mégacycle par seconde (1 Mc/s = 1 million de cycles/seconde). Nous avons vu toutefois que pour les grandes distances transocéaniques, il est préférable de réduire ces fréquences pour pouvoir espacer les répéteurs.
- L’isolement des deux éléments d’un câble coaxial est simplement assuré par des pastilles de polyéthylène placées tous les trois centimètres et qui ont également pour rôle de centrer très exactement le fil conducteur interne sur le
- frette métallique
- pastilles isolantes
- conducteur
- central
- conducteur tubulaire externe
- revêtement de jute
- Fig. I. — Schéma d’un câble coaxial.
- Explications dans le texte. Sut d’auttes types de câble on utilise des cordelettes isolantes, de diamètre constant, enroulées en spirale autour du conducteur central et qui assurent également son centrage. Dans les techniques récentes, le conducteur externe lisse est obtenu à partir d’un seul ruban de cuivre replié en cylindre ou de plusieurs rubans ajustés en spirale.
- 503
- p.503 - vue 507/551
-
-
-
- Fig. 2. — Cheminement des canaux de conversation à travers un répéteur.
- Ce schéma montre la disposition des différents filtres de part et d’autre de l’amplificateur. Explications dans le texte.
- VERS LA STATION TERMINALE B
- VERS LA STATION TERMINALE A
- AIGUILLAGE
- AMPLIFICATEUR
- ÉGALISEUR
- Haute tension vers l'amplificateur
- CHAUFFAGE
- AIGUILLAGE
- ÉGALISEUR
- FILTRAGE DES SIGNAUX
- FILTRAGE DES SIGNAUX DE A vêts B
- FILTRAGE DES SIGNAUX
- FILTRE
- ALIMENTATION
- •SIGNAL
- FILTRAGE DES SIGNAUX DE A vers B
- FILTRE
- ALIMENTATION
- •SIGNAL
- UNITÉ DE CONTRÔLE PAR DOUBLEMENT DE FRÉQUENCE
- tube externe formé, quant à lui, de minces bandes de cuivre (fig. i). Le fait qu’il subsiste beaucoup d’air à l’intérieur du tube coaxial allège le câble et ne présente pas d’inconvénient puisque l’air lui-même est un excellent isolant, un diélectrique. Un autre avantage du câble coaxial est d’enfermer le champ magnétique à l’intérieur du conducteur tubulaire de telle sorte que ce champ ne rayonne plus d’énergie à l’extérieur. L’affaiblissement du courant dans les conducteurs d’un câble coaxial varie très régulièrement, d’une part avec la distance et d’autre part avec la fréquence, à condition toutefois que ses dimensions et son centrage soient très précis : on peut donc prévoir le degré d’amplification que devront assurer les répéteurs. Dans de telles structures la vitesse de propagation des courants est proche de celle de la lumière, ce qui n’était pas le cas dans les anciens câbles à conducteurs parallèles, portant de loin en loin des bobinages, où la vitesse pouvait descendre jusqu’à 16 500 km/h.
- Mais c’est surtout la possibilité de faire passer dans la paire coaxiale une large bande de fréquences qui constitue la caractéristique principale de cette technique. Il n’y a pas d’interférences, de « diaphonie », entre les signaux émis, en dépit du fait que les divers trains d’ondes circulent dans le même conducteur. Les niveaux de fréquence ne s’y mélangent pas et on peut même y faire circuler les signaux dans les deux sens, pourvu que leur propagation se fasse sur une fréquence élevée dans une direction et sur
- une fréquence nettement plus basse dans l’autre. Il peut paraître étonnant au profane que l’on puisse transmettre dans une seule paire coaxiale des signaux qui se croisent. Cela s’explique tout d’abord par le fait que le courant est alternatif. Autrement dit, ce courant passe la moitié du temps dans un sens et le reste du temps dans l’autre, si bien que l’on ne peut même plus parler de pôle positif ou de pôle négatif de la source, car la tension qui provoque le passage du courant est elle-même alternative. D’autre part, on doit considérer que c’est dans le champ électromagnétique régnant entre les deux conducteurs coaxiaux que se transmettent les signaux; les ondes qui se propagent dans ce champ n’interfèrent pas plus que celles de deux émetteurs hertziens, pourvu que leurs fréquences soient suffisamment espacées. En somme le conducteur tubulaire agit comme un « guide d’ondes ».
- Les organes du répéteur : égaliseur, amplificateur, filtres
- Les difficultés commencent au niveau des répéteurs insérés sur ce câble unique. Un répéteur ne peut en effet laisser passer le courant que dans un seul sens, car ses éléments de base sont des tubes à vide, des lampes. On sait que dans une lampe de poste radiophonique, le flux d’électrons passe toujours de la cathode négative à l’anode
- Fig. 3. — Répéteur rigide sur £ son support d’assemblage.
- ces organes sont contenus dans des boîtiers métalliques individuels scellés. Les principales surfaces métalliques sont revêtues d’or pour éviter l’oxydation. (Photos aimablement communiquées par P Ambassade de Grande-Bretagne').
- AIGUILLAGE ET ÉGALISEUR AIGUILLAGE ET ÉGALISEUR
- FILTRE UNITÉ „ 1 FILTRE FILTRE / FILTRE
- ALIMENTATION- DECONTRÔLE \ DIRECTIONNEL DIRECTIONNEL/ ALIMENTATION-
- p.504 - vue 508/551
-
-
-
- positive ou « plaque»; c’est entre la cathode et la plaque que se placent des électrodes de contrôle, dites « grilles », qui transmettent la modulation du courant. On est donc amené, soit à utiliser deux amplificateurs distincts, un pour chaque sens de transmission, soit un seul amplificateur qui devra alors être traversé dans une seule direction par les ondes de haute fréquence et de basse fréquence portant respectivement les signaux d’aller et de retour. Cela implique un dispositif complexe de filtres qui séparent et aiguillent les courants à l’intérieur du répéteur. Les filtres passe-haut empêchent, comme leur nom l’indique, le passage des fréquences basses en deçà d’un certain niveau dit « de coupure». Le rôle inverse est dévolu aux filtres passe-bas (fig. 2).
- Un autre organe important des répéteurs est l’« égaliseur» dont la mission est de compenser une distorsion qui se produit fatalement entre les niveaux de fréquence. Nous avons vu en effet que dans leur propagation au long du câble, les fréquences élevées sont beaucoup plus affaiblies que les fréquences basses. Il faut donc rétablir l’équilibre à l’entrée de l’amplificateur.
- Quant à l’amplificateur proprement dit, on devine que ses tubes à vide, chargés d’accroître l’intensité des signaux qu’il reçoit, exigent la fourniture d’une énergie d’appoint. Il convient en somme de « chauffer » les lampes comme dans un récepteur radiophonique alimenté par le courant de la ville (fig. 4). Les conditions sont d’ailleurs les mêmes.
- courant variable faible R courant amplifié
- A C
- B i ,.
- injection denergie par un courant continu
- Fig. 4. — Schéma de l’amplification d’un courant modulé.
- Les modulations du courant faible qui pénètre en A dans le répéteur R conservent la même forme en C après amplification par une injection d’énergie en B.
- {D'après G.A. Boutry).
- vient donc le courant d’appoint apte à réaliser cette amplification ?» Il s’agit, en fait, d’un courant continu indépendant qui circule à travers le conducteur central du câble coaxial et dont la tension initiale est assez élevée pour qu’il puisse alimenter les répéteurs en série. Notons que ce courant d’alimentation et le courant porteur d’information se tolèrent mutuellement tant qu’ils ne voisinent que dans le câble. Il n’en serait pas de même dans les répéteurs : leur séparation s’impose à l’entrée et leur re-jonction à la sortie. Tel est le rôle dévolu aux filtres alimentation-signal qui font partie de l’équipement de tout répéteur (fig. 2).
- De tels filtres ont besoin d’être parfaitement isolés, l’énergie d’appoint étant fournie sous une tension de l’ordre de la dizaine de kilovolts qui a été reconnue nécessaire parce qu’il se produit une chute de voltage d’environ 70 volts au niveau de chaque répéteur. Le circuit de retour de ce courant continu est assuré par la mer : à chaque extrémité de la ligne existe donc une « prise de mer », constituée par une plaque métallique immergée reliée par un câble à la station terminale.
- C’est dans les stations terminales que se situent les équipements les plus complexes. La transmission de l’information est assurée par des procédés analogues à ceux utilisés en radiotéléphonie. Un grand nombre de petits émetteurs, fonctionnant chacun sur une fréquence distincte, envoient au long du câble les signaux propres à chaque communication. Ces émetteurs sont couplés avec des récepteurs, accordés sur des fréquences correspondantes, qui reçoivent les signaux à l’autre bout de la ligne.
- Le même système fonctionne en sens inverse, mais dans une bande de fréquence très différente qui sépare complètement les signaux d’aller et de retour. Les filtres « passe-bande », qui isolent les bandes de fréquences étroites correspondant aux divers canaux de communication, doivent assurer des « coupures » très brusques aux deux extrémités de la bande pour éviter toute interférence. Il est enfin nécessaire de transposer au départ, sur chaque canal, la gamme naturelle des fréquences vocales à une position plus élevée dans le spectre des fréquences pour transmettre l’information sur la ligne coaxiale. A l’arrivée, après séparation des divers canaux de communication par les filtres passe-bande, on retranspose sur les fréquences vocales qui seront dirigées vers l’abonné.
- Il y a d’une part le courant porteur d’information, affaibli par la distance parcourue depuis le précédent répéteur et qu’on peut comparer à l’onde hertzienne reçue par le poste de T. S.F. Il y a d’autre part le courant d’appoint, dont nous indiquerons plus bas la provenance. Le courant porteur, modulé au départ par la voix humaine, circule à travers les trois grilles de la lampe (dans le cas des répéteurs, cette lampe est une pentode). Le courant d’appoint, circulant de la cathode à l’anode (circuit dit « de plaque ») se situe à un niveau de tension beaucoup plus élevé que le précédent, mais il n’est pas modulé. La rencontre dans la lampe des deux courants a pour effet de restituer à la sortie un courant exactement modulé comme le courant de grille, mais « revigoré » par l’énergie empruntée au courant de plaque.
- La question que l’on est en droit de se poser est : « D’où
- L’espacement des répéteurs
- La longueur des trajets transocéaniques obligeant à espacer les répéteurs, ils sont séparés par des distances d’environ 5o km au lieu des 5 à 1 o km généralement admis pour les câbles terrestres. Il y a à cela plusieurs raisons. En premier lieu le nombre total des pièces constituantes est pour chaque répéteur d’environ trois cents. Un câble de 3 000 km portant un répéteur tous les xo km contiendrait donc une centaine de milliers de pièces distinctes dont chacune serait susceptible de mettre en panne la totalité de l’appareillage : il y a donc avantage à réduire le nombre de ces pièces. En second lieu, la chute de voltage dont nous avons parlé plus haut et qui se produit au niveau de chaque répéteur entraînerait l’application, à l’extrémité de la ligne, de tensions dangereuses non seulement pour les structures isolantes des appareils d’amplification
- 505
- p.505 - vue 509/551
-
-
-
- mais même pour celles du câble. C’est ainsi qu’un conducteur de 3 ooo km devrait supporter une tension de 50 000 V. Même en divisant cette tension entre les deux extrémités de la ligne, la sécurité de fonctionnement se trouverait fortement réduite.
- Il est d’ailleurs clair que le contrôle du fonctionnement de répéteurs trop nombreux serait plus difficile, tandis que le prix de revient de la ligne serait plus élevé et la pose du câble plus lente. Le passage des répéteurs par les treuils, même lorsque leur structurel est souple, pose en effet des problèmes. De plus, on ne peut se fier entièrement aux appareillages d’égalisation incorporés aux répéteurs et dont la structure a été calculée par avance en fonction du diamètre et de la longueur des conducteurs. Des erreurs sont souvent constatées dans ces calculs et (paradoxalement) sont d’autant plus probables que le nombre des répéteurs est plus grand. Raison de plus pour les espacer et si, lors dés réglages en mer, une distorsion apparaît, on place des égaliseurs indépendants. L’expérience a confirmé que le nombre de ces égaliseurs (causes de retards dans l’immersion) est plus faible pour un large espacement des répéteurs.
- « Deux fils » ou « quatre fils »
- Les câbles téléphoniques terrestres utilisent habituellement des bandes de fréquences allant jusqu’à 5 et même 12 Mc/s (x2 millions de cycles/seconde). En Suède, de telles lignes (12 Mc/s) portent jusqu’à 2 700 canaux de communication. En Angleterre, on utilise plus couramment des câbles portant 960 canaux de communication jusqu’à 5 Mc/s. Mais, avec ce nombre de communications, il faut un câble pour l’aller et un autre pour le retour; les voix des deux interlocuteurs sont donc acheminées par des câbles séparés. Un câble coaxial étant composé d’un conducteur central et d’un conducteur annulaire qui entoure concentriquement le premier, une telle liaison est dite à « quatre fils » puisqu’elle nécessite deux câbles. Au contraire, si on utilise un câble unique où l’aller et le retour ne sont séparés que par leur niveau de fréquence, on parle d’une liaison à « deux fils ». C’est ce système qui est utilisé sur le nouveau câble de construction britannique allant d’Angleterre au Canada et qui le sera sur la prochaine liaison Canada - Nouvelle Zélande - Australie. Ce dernier câble long de 8 000 milles nautiques (14 800 km), contiendra plus de 300 répéteurs auxquels s’ajouteront 30 égaliseurs de réglage séparés. Il portera 80 canaux téléphoniques et
- sera appelé ultérieurement à faire le tour du monde en passant par la Malaisie, l’Inde, le Pakistan, l’Afrique du Sud et finalement Gibraltar. Quant au câble Angleterre - Canada et au câble, manufacturé en France, qui relie Marseille à Alger, ils comportent 60 canaux de communications seulement. Les bandes de fréquence ne se comptent plus ici qu’en kilocycles (1 kc/s — 1 000 cycles/seconde), céci, nous l’avons vu, pour pouvoir espacer les répéteurs.
- Les 60 courants porteurs transmis dans une direction par la paire coaxiale se situent dans une bande allant de 312 à 552 kc/s, où ils se trouvent séparés par des intervalles de 4 kc/s, suffisants pour éviter les interférences. Dans l’autre direction, la bande de fréquence se situe entre 20 kc/s et 260 kc/s; les bandes haute et basse sont donc séparées par un intervalle de 52 kc/s. Des fréquences spéciales sont prévues pour les conversations de service et pour le contrôle électrique de la ligne (fig. 5).
- Les liaisons à câble unique (deux fils) sont intéressantes parce qu’elles mènent â une réduction de près de moitié des frais de manufacture et de pose par rapport aux Maisons à deux câbles (quatre fils) qui ont été utilisées par les Américains pour la Maison Key West - La Havane et pour les deux premières lignes transatlantiques TAT 1 et TAT 2. Sans doute une Maison à quatre fils permet de faire passer deux fois plus de communications avec des câbles de capacité égale (120 canaux sur le câble aUer et 120 sur celui de retour), mais l’avantage reste à la Maison à deux fils sur le plan de la progressivité des investissements.
- Récepteurs souples ou rigides
- Sur les premières lignes transatlantiques, les Américains ont utiMsé des répéteurs souples pouvant s’enrouler sur les treuils du navire de pose, ce qui permettait un déroulement continu du câble. Mais les répéteurs étaient simplifiés et ne pouvaient ampMfier les signaux électriques que dans une seule direction : c’est ce qui rendait obligatoire un câble de retour distinct (système à quatre fils). En France, on a cependant réaMsé des répéteurs flexibles à deux voies qui sont utilisés sur la Maison MarseiMe -Alger. Us se composent de quatre boîtiers distincts, ou « tonneaux», reliés entre eux par des conducteurs souples. Chacun des boîtiers a un rôle distinct, deux d’entre eux contenant des filtres d’alimentation ainsi que d’aiguiUage des voies aller et retour, le troisième le répéteur proprement dit, et le quatrième l’égaMseur. L’ensemble des quatre
- conversations
- de service
- UK TERRE-NEUVE (CANTAT)
- U.S.A. BERMUDES
- Canaux de contrôle
- Conversations de service
- 'Canaux de contrôle
- fréquences doublées de contrôle (les canaux de conversation correspondant à ces fréquences sont supprimés pendant le contrôle)
- Conversations de service
- SECTION DES CABLES TAT-1 (1956) ET TAT-2 (1959) DE TERRE-NEUVE A IA NOUVELLE-ÉCOSSE
- de contrôle
- 60 CANAUX (B vers A)
- 60 CANAUX
- (A vers B)
- 60 CANAUX
- (A vers B)
- 48 CANAUX
- ilB vers A)
- 0
- _J_______________I_____________I______________I______________1_____________I—
- 100 200 300 400 500 600
- TOQ Kc/s
- Fig, /. — Spectre des fréquences utilisées par les câbles et répéteurs de fabrication britannique à deux voies.
- On voit que les bandes de fréquences aller (A vers B) et retour (B vers A) sont nettement séparées. Pout contrôler les répéteurs, on envoie sur la bande de fréquences basse un signal propre à chaque répéteur. La fréquence de ce signal est doublée au niveau du répéteur, ce qui permet son retour à la station terminale par la bande haute. En d’autres termes le répéteur sollicité fournit un écho.
- 506
- p.506 - vue 510/551
-
-
-
- tonneaux est enfermé dans une tresse d’acier inoxydable à haute résistance dont la flexibilité est suffisante pour lui permettre de s’enrouler sur des tambours de 1,80 m de diamètre. La question des traversées étanches des dalles de fgrmeture situées à l’extrémité des boîtiers cylindriques est très délicate. L’étanchéité doit être suffisante pour assurer les liaisons électriques entre les organes des différents boîtiers et résister aux pressions des grandes profondeurs marines. Les répéteurs sont prévus pour supporter une pression de i tonne/cm2.
- On préfère, en Angleterre, s’en tenir aux répéteurs rigides (fig. 4), plus courts et massifs, qui contiennent la totalité de l’appareillage. A chaque extrémité se trouvent les filtres qui séparent le courant porteur du courant continu d’alimentation d’énergie. Puis se rencontrent les filtres séparant les bandes de fréquence distinctes, haute et basse, qui portent les signaux d’aller et de retour, tandis que l’amplificateur proprement dit se trouve au centre (fig. 2). Les techniques de pose du câble en sont rendues plus complexes : les répéteurs doivent être supportés par des trolleys jusqu’au davier de pose situé à l’arrière du navire. Sur une troisième liaison transatlantique américaine, TAT 3, des répéteurs rigides d’un type analogue à celui employé par les Anglais ont été prévus. Dans ce cas, le déroulement du câble à bord du navire de pose se fait entre deux chenil-
- lettes capables de s’écarter pour laisser passer les répéteurs. Le guidage du câble reste ainsi assuré sans qu’il soit nécessaire de ralentir ou d’arrêter son déroulement au moment où se présente un répéteur.
- Des conditions extraordinaires de fabrication
- Câbles. — La sécurité se définit par le degré de confiance (de « fiabilité ») que l’on peut accorder à un appareil, c’est-à-dire par la probabilité qu’aucun incident ne s’oppose à son fonctionnement avant un certain temps. La sécurité est donc fonction de la plus ou moins grande perfection des appareils. D’autre part, la longueur de la ligne et le nombre de pièces qui entrent dans la composition des répéteurs accroissent statistiquement, dans des proportions considérables, les risques de panne. Quelles sont donc les précautions à prendre pendant la manufacture des pièces et la pose de la ligne ?
- En ce qui concerne les câbles, la régularité de leur section, afin d’en maintenir le plus exactement possible les constantes électriques, représente le principal problème à résoudre. Le fil central de 3,43 mm est tréfilé avec des tolérances de diamètre et de cylindricité très
- Fig. 6. — Groupe de répéteurs sur le pont d'un navire poseur de câbles sous-marins.
- Cette photo a été prise à bord du Monarch pendant la pose du câble téléphonique Angleterre-Suède. Les répéteurs sont montés sur trolleys.
- p.507 - vue 511/551
-
-
-
- Fig. /. — Une salle de l’usine de North Woolwich, Londres.
- Les répéteurs de la liaison Angleterre-Canada ont été manufacturés dans cette usine.
- étroites sous le contrôle d’appareils de mesure enregistreurs; de plus, les filières en caybure de tungstène au travers desquelles a lieu le tréfilage sont fréquemment renouvelées afin d’assurer la constance de ces deux paramètres. Quant au conducteur coaxial qui entoure le fil central, il est formé de bandes de cuivre laminées par aplatissement d’un fil rond de diamètre convenable. Un système de contrôle pneumatique des dimensions des bandes asservit les laminoirs par retour (feed-back). Les machines sont rassemblées dans un atelier spécial à air conditionné, filtré et déshydraté, pour éviter tout risque d’oxydation et obtenir des surfaces métalliques parfaitement brillantes. Le bobinage des conducteurs et leur emballage doivent être particulièrement soignés avant la livraison. L’isolant est un polyéthylène de poids moléculaire élevé (environ 25 000), additionné de caoutchouc synthétique. Son diamètre est très surveillé, ainsi que son refroidissement régulier après les opérations de boudinage.
- Les conducteurs sont armés en fil d’acier inoxydable à haute charge de rupture. Le câble d’atterrissement possède une armure double, alors que le câble de grand fond n’a qu’une armure simple qui atteint dans l’air 3 310 kg par mille marin (1852 m), mais ne « pèse» plus que 1 850 kg après avoir été immergé. La pression qu’il subit alors en modifie les constantes électriques et l’on doit tenir compte de ce fait pour le réglage des égaliseurs de fréquence.
- L’influence de la pression, dont la théorie reste hypothétique, avait d’abord été remarquée dans les cuves de stockage du câble. Les sections de câble placées au fond des cuves subissaient des distorsions électriques proportionnelles au poids des sections qui les surmontaient.
- Citons enfin les précautions qui ont été prises pour éviter que le poids d’un répéteur n’entraîne une rotation dangereuse du câble au moment de sa pose par grands fonds. Des expériences ont été faites en munissant les répéteurs d’un dispositif télé-indicateur de rotation dont l’organe principal est constitué par une masselotte de plomb reliée à un potentiomètre et à un oscilloscope qui permettent de suivre constamment la valeur et le sens de la rotation du câble.
- Répéteurs. — Nous avons vu que des précautions visant au conditionnement de l’air des ateliers étaient prises au moment de la fabrication du câble; mais ces précautions prennent une allure plus spectaculaire encore quand il s’agit de la manufacture des répéteurs (fig. 7 et 8). Celle-ci se poursuit dans un milieu pour ainsi dire aseptique. Les opérateurs portent des vêtements et des gants de nylon et ont les cheveux couverts d’une calotte d’aspect médical; bien entendu il leur est interdit de fumer et ils ne doivent introduire dans les ateliers aucune espèce de nourriture qui pourrait être à l’origine de pollutions de divers ordres. D’ailleurs la lutte contre la poussière est une des principales préoccupations des ingénieurs. On ne se contente pas seulement de filtrer l’air qui est admis dans les salles : on y fait régner une surpression et le personnel n’y pénètre qu’à travers un sas dans lequel les ouvriers revêtent leur
- 508
- p.508 - vue 512/551
-
-
-
- tenue spéciale. Un autre sas, de petite taille, sert à l’alimentation de l’atelier en pièces détachées. Les opérations de nettoyage intérieur se font par aspirateur et passage à l’alcool des tables et des soudeuses. Les murs, les plafonds et le sol sont recouverts de vernis vitrifié, tandis que le mobilier est en formica ou en verre. Les pièces et les outils sont conservés dans des bocaux hermétiques.
- On se doute que les tubes à vide constituent les organes les plus délicats des répéteurs. Or il faut leur assurer une durée de vie, pratiquement sûre, d’au moins 50 000 heures. Même dans un tube supposé de réalisation parfaite, les caractéristiques peuvent évoluer dans le temps. Il s’agit d’éviter cette évolution.
- Pour que la cathode maintienne un niveau d’émission électronique régulier, il faut d’une part un courant de densité assez faible (2,5 mA/cm2) et d’autre part une température moyenne qui a été fixée à 75o°. Une température trop basse empêche les cathodes d’éliminer les inconvénients dus à un empoisonnement éventuel par des impuretés, tandis qu’une température trop élevée entraîne une évaporation plus rapide des surfaces et un vide moins bon. Le métal des cathodes est fait de nickel au tungstène et les carbonates qui les recouvrent sont choisis après de nombreux essais préliminaires. Toutes les pièces métalliques ainsi que les micas sont dégazés à 6oo°. Mais pour maintenir plus sûrement le vide, on adjoint aux tubes une petite pompe (getter). Il n’en faut pas moins parer au danger des microfuites qui peuvent se produire au bout d’un certain temps de fonctionnement. Il est nécessaire de polir parfaitement le verre des ampoules aux points où elles sont scellées à leur pied. Le polissage et le rayon des surfaces courbes sont contrôlés par des moyens optiques ; grâce à ces mesures précises, on obtient un assemblage pratiquement étanche dès avant le scellement. Celui-ci se fait par chauffage et diffusion l’un dans l’autre des verres du pied et de l’ampoule.
- Des défauts progressifs peuvent apparaître dans les
- tubes à vide après quelques milliers d’heures de fonctionnement. Il se peut qu’on découvre par exemple une émission électronique anormale des grilles, ou bien une détérioration des isolants. On fait donc des essais sur des tubes témoins où l’on maintient une température de cathode très élevée (910° au lieu de 75o°C). Dans ces conditions de fonctionnement plus dures, les défauts apparaissent d’autant mieux qu’à partir d’un certain seuil leurs progrès deviennent plus rapides. Si un défaut se manifeste dans un tube témoin, tout le lot de fabrication sera refusé.
- En ce qui concerne la qualité des cathodes, on fait appel à des études statistiques. Il faut que les caractéristiques des cathodes d’un lot donné restent aussi voisines que possible les unes des autres. S’il y a dispersion, c’est la preuve que la fabrication n’a pas été parfaitement homogène, ce qui diminue évidemment la sécurité. Pour obtenir une grande homogénéité, il convient de contrôler avec grand soin les différentes étapes de la manufacture des cathodes. Le métal utilisé est analysé par voies chimique et spectrographique : il doit contenir 96,09 de nickel, 3,85 de tungstène, le reste étant constitué de traces de fer, de cuivre, de soufre, de carbone et de magnésium. Toutes les opérations de nettoyage, de dégazage et de badigeonnage sont soigneusement réglées. Enfin le milieu atmosphérique doit être pris en considération : la température des salles se situera entre 21 et 250 C, l’humidité entre 25 et 35 pour 100. On obtient de la sorte une qualité aussi constante que possible. ’***%%.
- A côté des défauts progressifs il existe des défauts de fabrication que l’on peut déceler immédiatement. Citons les défauts de verrerie provenant de tensions internes du verre, d’amorces de fêlures, de scellements imparfaits. Aucun tube n’est accepté sans un examen soigneux à la loupe binoculaire. Il existe aussi des défauts mécaniques, qu’il s’agisse de ruptures de connexions ou de soudures défectueuses. Un examen visuel, complété par un examen
- Fig. 8. — Un technicien en tenue chirurgicale.
- Vêtu, coiffé et ganté de nylon, l’opérateur procède au montage d’un amplificateur dans l’usine de North Woolwich.
- (Photos aimablement communiquées par V Ambassade de Grande-Bretagne).
- -,sgH!s
- p.509 - vue 513/551
-
-
-
- Fig. 9. — Contrôle d’un répéteur.
- Les constantes électriques d’un répéteur sont testées à l’usine de North Woolwich.
- radiographique, permet de repérer ces défauts, mais on utilise aussi des mesures électriques pour contrôler le fonctionnement des électrodes. On y ajoute des essais de tenue aux chocs et aux vibrations, car il ne faut pas oublier que les répéteurs sont soumis à diverses contraintes au moment de leur immersion.
- Mais des défauts fugitifs peuvent apparaître : ce sont les défauts d’isolement entre les électrodes, dus à des particules libres dans le tube, poussières et débris fibreux ou particules métalliques. C’est pourquoi on procède, avant le montage des tubes, à leur dépoussiérage aux ultrasons. Contre la poussière, la propreté des locaux est donc essentielle, ainsi que les méthodes de soudure employées, non seulement pour les lampes mais pour les connexions en général, à cause des débris métalliques qui peuvent être produits. La section des fils et des gaines isolantes se fait donc électriquement, dans une atmosphère d’azote, pour éviter toute oxydation du métal. Les méthodes ordinaires utilisant des lames et des pinces pourraient d’ailleurs endommager les fils et modifier leur capacité. En Angleterre, par crainte des phénomènes d’oxydation, on a été jusqu’à revêtir d’or certaines surfaces métalliques des répéteurs. .
- Une fois complètement montés, les répéteurs sont soumis à un examen approfondi de toutes leurs constantes électriques (fig. 9). On procède à des mesures très soignées d’isolement ainsi que de résistance à la pression; en France, on soumet les répéteurs à des pressions hydrauliques de 450 kg/cm2 pendant 24 heures; on fait d’autre part varier cette pression pour augmenter les contraintes subies. De nouveaux contrôles sont exécutés au moment de l’insertion des répéteurs entre les différentes sections de câble et après leur immersion. La mise sous tension du câble n’a lieu que progressivement pour ménager les divers organes des répéteurs. Les tensions atteintes, de l’ordre de plusieurs kilovolts, présentent d’ailleurs un danger pour le personnel et des mesures particulières de protection doivent être prises à cet égard.
- Nous n’avons fait que résumer quelques-uns des problèmes posés par les câbles téléphoniques sous-marins; on voit qu’ils font appel à toutes les ressources de la technique industrielle moderne. Sans doute la recherche de la sécurité se montre très onéreuse, mais l’on ne doit pas oublier que les difficultés de remontée du câble en cas de panne font paraître plus avisé de dépenser avant qu’après.
- Jacques Fouchet.
- Thallium dans les lampes à mercure
- La Société américaine Westinghouse a mis au point un nouveau type de lampe à vapeur de mercure qui révolutionnera peut-être la technique de l’éclairage public. Son rendement est en effet bien plus élevé que celui des lampes à vapeur de mercure actuellement utilisées. Une telle augmentation brusque de rendement ne s’est produite que deux fois dans l’histoire de l’éclairage électrique, par l’introduction des lampes à vapeur de mercure et par celle de l’éclairage fluorescent. Les nouvelles lampes produisent 78 lumens par watt d’énergie électrique contre 54 pour les lampes à mercure ordinaires et 17 pour les lampes à incandescence. On sait que la lumière de ces lampes est quelque peu verdâtre et c’est pourquoi on ne les utilise que pour l’éclairage des rues et lieux publics. Les laboratoires Westinghouse espèrent cependant améliorer prochainement la couleur de la lumière émise et rendre ainsi ces lampes d’un usage beaucoup plus général. Leur rendement extraordinaire est obtenu en ajoutant au mercure une terre rare, le thallium, qui améliore notablement la conversion de l’énergie de la décharge en lumière.
- Comment battent les cellules cardiaques
- Le Dr Isaac Harary et ses collaborateurs de l’Ecole de Médecine de l’Université de Californie ont réussi, au moyen de coupes très fines de tissu cardiaque vivant, à isoler des cellules continuant à battre et les ont ensuite regroupées : le tissu ainsi reconstitué battait toujours.
- Au cours de ces expériences entreprises pour étudier le processus et le mécanisme de l’énergie cardiaque, les chercheurs ont pu faire les constatations suivantes : les cellules battent individuellement à des cadences différentes, allant de 10 à 150 battements par minute.
- Lors du regroupement les cellules projettent des filaments qui leur permettent d’entrer en contact entre elles. Une fois le contact établi entre plusieurs cellules, un réseau de cellules aux battements synchronisés sur la cadence des cellules les plus rapides s’est constitué. Le réseau se transforme finalement en une structure fibreuse qui continue à battre. Il semble enfin exister deux sortes de cellules : des cellules longues et irrégulières qui battent spontanément et sont probablement celles qui conduisent les autres, et des cellules arrondies, plus petites, qui ne battent qu’en contact avec l’une des « cellules directrices ».
- 510
- p.510 - vue 514/551
-
-
-
- Le Terraplane aéroglisseur français avale les obstacles
- par Paul Guienne
- Au cours de ces dernières années sont apparus des véhicules d’un type nouveau, portés sur coussins d’air (« aéroglisseurs » ou véhicules « à effet de sol »). Ce sont les « Hovercraft » en Angleterre, les « Ground Effect Machine» (G.E.M.) aux Etats-Unis. Les Russes ont aussi les leurs. Les lecteurs de cette revue ont été informés des principales réalisations étrangères (décembre 1959, p. 534; janvier 1961, p. 7-10). Revenons sur ce sujet, non seulement en raison de l’intérêt soutenu que portent les grands pays à ces engins, qui semblaient n’être au début que des curiosités, mais surtout parce que le premier véhicule français relevant de cette technique, construit en secret par la Société Bertin, a fait récemment ses essais sur le terrain militaire de Satory. Ce véhicule se différencie d’ailleurs nettement des modèles déjà décrits.
- Les rares spectateurs qui ont pu assister aux évolutions de l’engin français, nommé «Terraplane», ont pu voir une vaste plate-forme de près de 8 mètres de long, qui semblait glisser sur le sol, d’une façon assez mystérieuse, puisque, à la différence des appareils présentés jusqu’ici à l’étranger, l’appareil ne comporte ni hélice ni ventilateur, ce qui ne l’empêche pas de porter allègrement une charge utile constituée soit par une camionnette de 1 500 kg, soit par une vingtaine de passagers. Cet engin se déplace en avant, en arrière, latéralement, vire sur place, évolue en tous terrains, y compris l’eau ou les marécages, passe des fossés ou des obstacles abrupts de 50 cm. Ces performances originales du Terraplane, tiennent à ses principes mêmes. Les constructeurs des appareils étrangers ont cherché à augmenter le plus possible la hauteur libre entre le sol et la partie inférieure de l’appareil, car cette hauteur doit être supérieure à celle des obstacles à franchir, d’où l’emploi de jets périphériques inclinés vers l’intérieur, comme il a été expliqué dans le dernier article cité (fig. 1). Cette hauteur était de 30 cm pour le premier Hovercraft Saunders-Rœ S.N.R.i qui a traversé la Manche en 1959; dans les divers projets annoncés, elle varie entre 15 et 60 cm.
- Coussins d’air sous « jupes »
- Le constructeur du Terraplane s’est délibérément engagé dans une autre voie : il a fait un appareil qui semble raser le sol. En réalité, le bas de la caisse est à 0,75 cm du sol, l’appareil étant porté sur des coussins d’air de 0,70 m de haut, enfermés dans des cylindres verticaux de toile caoutchoutée de 1,60 m de diamètre, lesquels sont ouverts vers le bas; l’air s’échappe par le très faible intervalle laissé entre le bas des cylindres et le sol. Ces cylindres
- souples épousent les irrégularités du sol : le Terraplane ne monte pas sur les obstacles, il les « avale ».
- L’intérêt de cette disposition apparaît clairement si l’on se reporte encore à l’article mentionné plus haut : la puissance nécessaire à la sustentation sur coussin d’air croît, toutes choses égales d’ailleurs, comme la hauteur du coussin; en effet l’air du coussin s’échappe latéralement par l’intervalle laissé entre l’appareil et le sol, et ce débit d’air commande la puissance des ventilateurs, donc des moteurs. Plus exactement, cette puissance est proportionnelle au rapport H/D, H étant la hauteur de la caisse au-dessus du sol et D le diamètre du coussin supposé circulaire (pour un coussin de forme quelconque, D serait le diamètre hydraulique). La suspension sur coussins d’air n’est intéressante que si H/D est inférieur à 0,10, ou mieux 0,05. Comme H est fixé par la hauteur des obstacles qu’on se propose de franchir et D par la largeur du véhicule, on voit que ce procédé de sustentation n’est praticable que sur des sols relativement plans, ou pour de très grandes dimensions. D’où les utilisations qui sont envisagées sur l’eau; encore faut-il des eaux calmes car, sur la mer, H » doit être au moins égal à la hauteur des vagues. C’est pourquoi la plupart des projets étudiés actuellement sont des engins marins de très grandes dimensions, de plusieurs centaines de tonnes, dont la largeur atteindrait 10 à 30 mètres. Cette vocation nautique explique sans doute que les Anglais aient été les premiers à envisager l’utilisation du coussin d’air.
- Une excellente stabilité
- Le constructeur du Terraplane a visé une utilisation principalement terrestre, où les grandes dimensions prévues par les Britanniques étaient exclues. Il fallait à la fois prévoir
- Moteur
- Roue de voiture
- Coussin d'air
- 777777777777777777777777777777777777777777,
- Fig. I. — Schéma d’un aéroglisseur « Cushion craft ».
- Le jet d’air périphérique est incliné vers l’intérieur pour augmenter la sustentation.
- 511
- p.511 - vue 515/551
-
-
-
- Fig- 2, — Schéma du circuit d’air du Terraplane.
- Explications dans le texte.
- Réacteur
- Gaz (flux primaire)
- ---11 | ~4/r extérieur
- 'A X Fér— Trompes —^ fTlflux secondaire)
- Cloche
- Echappement
- le franchissement d’obstacles constitués par les inégalités du sol et remédier au défaut de stabilité que présentent les coussins sans guidage de l’air. C’est la raison pour laquelle ces coussins sont enclos dans huit enveloppes de toile caoutchoutée, baptisées « jupes», le nom de «cloche» étant réservé au volume que délimite une jupe.
- Les cloches sont alimentées en air par un dispositif dont l’organe moteur est un réacteur Turboméca « Marboré»; les gaz qui sortent de ce réacteur sont à grande vitesse et à température élevée : plus de 6oo° C; ils seraient donc inutilisables directement. Aussi servent-ils à alimenter des trompes dans lesquelles ce flux à grande vitesse aspire de l’air extérieur et engendre ainsi un flux secondaire à
- plus faible vitesse, mais à plus grand débit et à plus basse température (fig. 2). Le débit est multiplié par huit, et la température et la vitesse abaissées corrélativement, ce qui évite la détérioration du sol. La pression fournie par ces trompes varie en raison inverse du débit d’air à l’intérieur des cloches (fig. 5), ce débit étant lui-même fonction de
- Fig. 3. — Vue d’ensemble du Terraplane.
- A l’avant, le réacteur, prolongé vers l’arrière par les circuits qui alimentent les trompes. Le dispositif dégage un emplacement suffisant pour loger une camionnette de 1 500 kg. Sous la plate-forme, les jupes ou cloches enferment le coussin d’air, maintenant la caisse à 0,75 m du sol.
- (Photo Informations aéronautiques).
- p.512 - vue 516/551
-
-
-
- Fig. 4. — Le Terraplane, moteur arrêté.
- Les jupes sont aplaties sur le sol et la plate-forme repose sur quatre petites roues.
- {Photo Informations aéronautiques).
- Y intervalle défaite qui existe entre le bas de la cloche et le sol. Cet intervalle, par exemple, est réduit dès que le Terraplane reçoit une charge supplémentaire : automatiquement alors le débit diminue et la pression augmente, améliorant la sustentation. Il suffit ainsi d’une variation de l’ordre du centimètre pour réaliser un gain de sustentation de 50 p. 100 (fig. 6). La stabilité en altitude est donc excellente. Il en est de même pour la stabilité transversale, car si le véhicule s’incline d’un côté, le bas de la cloche correspondante se rapproche du sol et le débit dans cette cloche diminue, d’où un accroissement de pression qui arrête le mouvement d’inclinaison.
- Chaque trompe est indépendante des autres car elle comporte un orifice sonique (c’est-à-dire où la vitesse des gaz atteint celle du son) et de ce fait elle absorbe une quantité de gaz constante quelle que soit la pression aval. Si l’une de ces cloches se trouve mise accidentellement en communication franche avec l’atmosphère, par exemple au passage d’un fossé, l’air de cette jupe s’échappe et la sustentation devient nulle ou très faible à cet endroit, mais le débit de gaz de la trompe n’augmente pas, et les autres trompes continuent à fonctionner normalement : la pression y augmente de la valeur nécessaire par le méca-
- nisme décrit plus haut. Naturellement, le pilote de l’engin doit éviter de le diriger de telle sorte que toutes les cloches d’un même côté s’engagent en même temps au-dessus d’un fossé !
- Sur un obstacle 'important, mais dont la hauteur est cependant inférieure à celle de la jupe, soit 0,50 m pour les jupes actuelles, la paroi de la jupe qui est en contact avec l’obstacle est retroussée par celui-ci sans offrir de résistance importante, car la pression de l’air dans la jupe est très faible : 20 g/cm2, et diminue rapidement à mesure que la paroi de la jupe est relevée. Le coussin au contact de l’obstacle ne porte plus, mais le poids du véhicule est reporté
- Ap
- 60 q kg/s
- Fig. J. — Variation de la pression de refoulement d’une trompe en fonction du débit.
- Explications dans le texte.
- 513
- p.513 - vue 517/551
-
-
-
- Fz
- 2000
- 1000
- 3 cm
- Fig. 6. — Force portante d’une cloche en fonction de la hauteur de l’intervalle de fuite.
- Explications dans le texte.
- sur les autres coussins, comme dans le cas du fossé. Ainsi le véhicule franchit les obstacles sans se soulever; ce sont les jupes qui s’effacent.
- Propulsion et contrôle
- Les jupes sont suspendues à des anneaux rigides montés sur rotule centrale, ce qui leur permet de s’incliner d’un angle de 4 degrés dans une direction quelconque. Cette inclinaison oriente le flux d’air qui sort des jupes, et engendre une force de propulsion par réaction. L’ensemble des jupes peut s’incliner vers l’avant ou l’arrière pour la marche normale, ou latéralement pour produire des dépla-
- cements transversaux. Cette inclinaison est commandée par un manche à balai. Par ailleurs un palonnier permet d’incliner le groupe des quatre jupes avant vers la droite ou vers la gauche, tandis que le groupe des quatre jupes arrière s’incline en sens opposé; il en résulte une rotation du véhicule, qui peut virer sur place.
- Ce système de contrôle très souple et bien adapté aux évolutions à vitesse modérée, peut être complété par un autre dispositif propre à de plus grandes vitesses : 80 km/h avec le moteur actuel.
- A l’arrêt le véhicule repose sur quatre petites roues qui ne viennent au contact du sol que lorsque les coussins d’air ne sont plus alimentés.
- Le réacteur et les trompes qui constituent le générateur d’air n’occupent qu’un volume restreint, libérant pour la charge utile un large emplacement de 5 x 2,20 m au milieu de la plate-forme du Terraplane, contrairement aux autres appareils dont la surface est encombrée par des ventilateurs et des conduits d’air. En outre l’absence de toute pièce mobile (hormis le rotor du réacteur, enfermé dans une robuste carcasse) permet à l’engin d’évoluer en forêts, de glisser entre les arbres sans crainte d’accrochage. Nombre de causes de panne sont ainsi évitées.
- En contrepartie, le réacteur a l’inconvénient d’une consommation élevée. Aussi ne peut-il être employé que pour de petits parcours. Parmi les nouveaux Terraplanes qui sont en étude à la Société Bertin, il en est un où le réacteur et les trompes seront remplacées par un moteur à piston, économique, entraînant des ventilateurs, disposés de façon à assu^' les alimentations indépendantes des huit cloches.
- Aéroglisseurs spécialisés
- Les véhicules à coussins d’air ne sont sans doute pas destinés à un emploi universel. En particulier ils ne remplacent pas l’automobile. Mais leur aptitude à se déplacer sur des sols inconsistants, tels que pistes, marais, plans d’eau, même encombrés de plantes aquatiques ou de bancs de sable, leur ouvre des perspectives de développement dans les contrées où la construction de vraies routes ne serait pas rentable, mais où il serait assez facile d’établir des pistes sommairement dégagées. Il est d’ailleurs vraisemblable qu’on verra apparaître des véhicules spécialisés, étudiés pour des utilisations bien définies; c’est ainsi qu’au Hovercraft anglais, principalement destiné aux parcours maritimes, s’oppose déjà le Terraplane, à vocation surtout terrestre.
- Ajoutons que la fabrication des engins de ce type doit être économique, car ils sont simples, et leur endurance sera élevée grâce à la suspension sur coussin d’air qui les met à l’abri des chocs. Ils intéressent d’ailleurs vivement les sociétés de transport dans les pays neufs, et Sud-Aviation a pris une option sur la fabrication du Terraplane et des engins qui en dériveront.
- Paul Guienne,
- Chef de département à la Société Bertin.
- Fig. 7. — Poste de pilotage du Terraplane.
- Au premier plan, le manche à balai et le palonnier. Au fond à gauche, le réacteur.
- {Photo Informations aéronautiques),
- 5I4
- p.514 - vue 518/551
-
-
-
- La renaissance de la Saïga
- LA Saïga (Saïga tatarica Linné) est certainement une des plus curieuses Antilopes. Elle est d’abord, avec le Chamois, l’une des deux seules formes européennes de ce groupe de Ruminants dont les nombreuses espèces peuplent les savanes et les forêts tropicales. En outre, alors que la plupart des Antilopes sont des animaux de forme élégante, à longues pattes fines, la Saïga, de la taille d’un daim, montre un corps lourd et massif, à pattes courtes; les mâles se distinguent des femelles par la forme curieuse de la tête due au renflement énorme de la région nasale, très arquée et fortement ridée sur les côtés. Les Saïgas se trouvent dans les steppes de la Volga et, en Asie, dans la région de la mer Caspienne. Elles vivent en troupeaux comptant souvent plusieurs centaines d’individus, qui se déplacent vers le nord en été. Au Pléistocène, cette antilope était très abondante et constituait un des Mammifères caractéristiques de la faune des steppes; son habitat était extrêmement étendu, allant de l’Angleterre et de l’Ouest de la France jusqu’à l’Alaska. Mais les pertes dues aux hivers rigoureux et surtout aux attaques des loups et des hommes, dont elle est mal défendue avec son allure lourde et peu rapide, ont considérablement réduit cet habitat. Dans un article paru dans la revue russe Priroda (1962, n° 2) A.G. Bannikov nous fait savoir que, vers 1930, l’espèce n’était plus représentée que par des groupes isolés dans le Sud-Ouest de la Sibérie. Une rigoureuse protection a été alors établie, dont les heureux effets n’ont pas tardé à se faire sentir. Le nombre des Saïgas s’est accru rapidement; on estimait l’importance du troupeau à 750 000 têtes en 1950 et, en i960, à 13000000 d’individus. En
- Fig. 1. — Un mâle de Saïga.
- outre, il y a maintenant, à l’ouest de la Volga, un troupeau évalué à 380 000 Saïgas.
- La femelle de la Saïga donne deux petits par an et le taux d’augmentation annuel de la population est de 60 à 80 pour 100. Aussi cette antilope est-elle maintenant une source de revenus car on utilise non seulement sa chair, mais sa graisse, sa peau et même ses cornes qui entrent dans la composition d’un médicament. Cependant la chasse de la Saïga est sévèrement réglementée et seuls des chasseurs assermentés y sont habilités.
- L. C.
- Vers les superpuissances nucléaires
- On admet à présent que le prix de revient du kilowattheure nucléaire est d’autant plus bas que la puissance globale de la centrale qui le fournit est plus grande. Jusqu’ici néanmoins les constructeurs ont reculé devant l’établissement de projets mettant en jeu des réacteurs dont la puissance excéderait 350 à 400 MW. La prudence exige en effet d’étudier chacune des filières possibles sur des modèles de puissance moyenne, même si l’on estime par avance que le courant produit ne pourra pas concurrencer celui des centrales thermiques classiques. On peut d’ailleurs escompter, ce faisant, que les prix s’abaisseront en vertu de l’expérience acquise et d’une mise au point technologique progressive.
- Une société américaine, la Compagnie Westinghouse, aurait toutefois décidé, en accord avec l’Atomic Energy Commission, de brûler les étapes. Elle envisagerait de construire une centrale dont le réacteur unique développerait l’impressionnante puissance de 1 000 MW.
- Il est à remarquer que la filière adoptée dès le début par Weshinghouse est celle du réacteur à eau pressurisée. L’avantage reconnu de cette formule (où le combustible est de l’uranium assez largement enrichi, en U 235) est
- de n’exiger que des dimensions relativement réduites. Par contre les pressions considérables qu’il est nécessaire d’exercer pour s’opposer à l’ébullition de l’eau ne peuvent être contenues que si la cuve du réacteur offre une résistance exceptionnelle. C’est ainsi que certains projets de réacteurs pressurisés prévoyaient des parois en acier de 30 cm d’épaisseur.
- Les premières études faites en vue du nouveau projet de 1 000 MW laissent prévoir que la cuve, atteignant 12 m dans sa plus grande dimension, pèserait, à elle seule, 907 tonnes. Il est difficile d’apprécier si cette pièce outrepasse les limites du possible. On doit prévoir en tout cas qu’elle posera aux constructeurs des problèmes très ardus, sans compter les problèmes de transport, déjà envisagés avec effroi par les ingénieurs.
- C’est pourquoi d’ailleurs le directeur des services atomiques de Westinghouse a déclaré que le projet devait être mûri et soumis à la procédure désormais connue dans l’industrie nucléaire, sous le nom de « recherche et développement». Il est possible qu’au bout d’une période d’élaboration, estimée à environ neuf mois, des solutions de rechange soient proposées. Y. M.
- 515
- p.515 - vue 519/551
-
-
-
- Triantes grasses belles ou curieuses
- Les Kalanchoés de Madagascar
- par Raymond Decary
- Parmi les cent quatre-vingt-neuf familles qui composent la flore de Madagascar, les Crassulacées, qui se situent entre les Hydrostachyacées et les Saxifragacées, présentent, avec le grand genre Kalanchoe, un ensemble d’espèces extrêmement ornementales, dont les inflorescences varient pour la plupart du rose pâle au rose très vif et dont la culture est relativement facile.
- Le genre n’est pas spécial à Madagascar. Créé par Adan-son en 1763, il possède aussi de nombreux représentants en Afrique; l’Amérique, l’Asie et l’Océanie ont quelques rares formes; l’Europe en est dépourvue totalement. Leur véritable patrie est Madagascar où l’on en connaît plus de soixante espèces.
- Comme c’est le cas général pour les Crassulacées, presque toutes ces plantes sont pourvues de feuilles épaisses et charnues ; ce sont des « xérophytes » adaptés à la sécheresse, hôtes des lieux ensoleillés, calcaires, sables et rocailles; ils se localisent pour la plupart dans trois domaines malgaches bien caractérisés :
- i° L’Extrême-Sud, qui ne reçoit qu’un minimum de pluies dans un court espace de temps et dont le revêtement végétal est connu sous le nom de « bush à xérophytes » ;
- 20 Le domaine occidental aux saisons bien tranchées avec une longue période sans pluie;
- 30 Les rocailles du plateau central, que recouvre çà et là une mince couche d’humus, et où elles se mélangent avec d’autres plantes xérophiles (aimant la sécheresse). Cette formation écologique spéciale, dite des « pelouses à xérophytes », est constituée dans son ensemble par une flore riche en espèces au port varié, souvent pourvues d’écla-tantes corolles, et qui contraste singulièrement avec la pauvreté de la végétation modifiée qui l’environne. Pour les Kalanchoés, il s’agit en réalité, comme l’a fait remarquer Perrier de la Bâthie, de formes occidentales ou méridionales qui ont pu s’avancer vers les hauteurs de l’intérieur, grâce à la sécheresse des rocs dénudés; elles y ont retrouvé des conditions analogues à celles de leur région d’origine, et elles fournissent aujourd’hui le nombre maximal d’espèces différentes ; les Kalanchoés trouvent dans les minces plaques d’humus des rochers un habitat d’élection; ils y sont représentés par un total de 30 espèces dont 27 sont spéciales.
- Il en est qui possèdent un enduit cireux protecteur. Deux formes de petite taille sont épiphytes (c’est-à-dire qu’elles poussent sur les arbres, comme tant d’Orchidées tropicales), mais ce caractère est tout à fait exceptionnel dans le genre. Dans la région occidentale et l’Extrême-Sud, aux très fortes différences saisonnières, certains Kalanchoés sont remarquables par leur dimorphisme foliaire; les feuilles de la saison des pluies, grandes, membraneuses et plus ou moins découpées, sont remplacées en saison sèche par d’autres plus petites, ayant les caractères des feuilles et tissus des plantes grasses (K. Chapototi, des calcaires de Namoroka).
- Le port des Kalanchoés est d’une grande variété. Il est des formes petites, comme K. eriophjlla, dont les feuilles
- p.516 - vue 520/551
-
-
-
- Fig. 2. — Kalanchoe scandens (Androy).
- sont soyeuses; d’autres, au contraire, prennent la taille de petits arbres, comme K. beharensis (fig. i); quelques-unes enfin sont des lianes longues de plusieurs mètres, K. scan-dens (fig. z).
- *
- * *
- Il ne saurait être question de dresser ici une monographie, même élémentaire, de ce genre; nous nous contenterons de citer quelques espèces parmi les plus caractéristiques.
- Une des plus charmantes, K. verticillata (fig. 3), vit dans le sud de la Grande Ile, où elle est répandue abondamment de Tuléar à Ranopiso près de Fort-Dauphin; ses fleurs rouge orangé, en bouquets pressés, animent agréablement les calcaires et les sables du Mahafaly et de l’Androy; elle est bien connue sous le nom vernaculaire de « tingotingo ».
- Aussi belles que la précédente et dignes comme elle d’une vulgarisation dans les serres d’Europe sont les K. Gastonis-Bonnieri et K. Mortagei, celle-ci rare espèce du Nord de l’île, aux feuilles courbes et largement crénelées; toutes deux possèdent de grandes inflorescences véritablement somptueuses, aux tons chauds.
- Fig. 3. — Kalanchoe verticillata (Androy).
- Le K. aromatica est remarquable par les nombreuses et petites glandes rouges qui le recouvrent; elles le rendent un peu visqueux et lui donnent une forte odeur aromatique, unique dans le genre; sa corolle a un peu l’aspect de la fleur de certains Silènes. Il vit sur les rocailles dénudées du Tampoketsa, vers 1 400 m d’altitude.
- Dans la brousse à Euphorbes de la région sud-occidentale, on rencontre K. Poincarei. Il est mentionné en raison surtout de la particularité imprévue que présente son nom spécifique. Il a en effet été déterminé par les botanistes Hamet et Perrier le 17 février 1913, jour de l’élection de Raymond Poincaré à la présidence de la République. Comme quoi botanique et politique peuvent, malgré les apparences, présenter certaines affinités ! La tige de K. Poincarei, grêle et lianoïde, peut dépasser trois mètres de long; la fleur varie du rose au pourpre.
- Le K. sjnsepala (fig. 4) possède de grandes feuilles glauques à rebord scarieux, jaune rougeâtre, qui sont toujours au nombre de quatre; les inflorescences axillaires avortent en longs stolons qui le multiplient rapidement; il se plaît sur les rocailles gneissiques du centre de Madagascar.
- 517
- p.517 - vue 521/551
-
-
-
- Bien différents sont les K. pinnata et K. proliféra (fig. 5). Le premier s’est répandu dans presque tous les pays chauds mais semble bien originaire de Madagascar, car on l’y trouve dans les formations vierges; il est haut de 1,50 m et sa feuille à limbe épais possède 3 à 5 folioles; la tige se termine au sommet par une inflorescence de fleurs pendantes, de couleur verdâtre clair. Il vit aussi au voisinage des espaces habités et, à Tananarive, affectionne les talus et les vieux murs, dans lesquels s’encastrent profondément ses racines épaisses. Les Malgaches le connaissent sous le nom de « sodifafa ». Le K. proliféra, dont chaque feuille possède de 6 à 9 folioles, vit sur les rocailles comme le précédent; comme lui aussi, il a été propagé dans nombre de régions chaudes extérieures à l’île.
- Ses rameaux longs et grêles, très entremêlés, obligent le K. scandens, habitant du bush à xérophytes, à s’appuyer sur les buissons; il se maintient à l’aide de ses feuilles dont l’extrémité s’incurve légèrement, formant des sortes de crochets rudimentaires. Les fleurs, gris verdâtre, sont plus curieuses que belles.
- Parmi les formes de plus grande taille, deux sont à retenir : K. Grandidieri, du plateau calcaire Mahafaly, au tronc ligneux, aux grandes feuilles très charnues et aux fleurs d’un rouge violacé; et surtout K. beharensis, déjà cité, le plus grand de tous, ainsi nommé de la localité de Behara, dans l’Androy, où il fut découvert pour la première fois. Sa tige, ligneuse comme celle d’un petit arbre, peut atteindre 4 m; parfois tortueuse, elle est couverte de cicatrices foliaires subépineuses; ses grandes feuilles peltées, triangulaires et veloutées, lui ont valu de la part des Européens les deux noms évocateurs d’arbre-feutre et d’arbre à oreilles d’éléphant; plus simplement, les Malgaches le dénomment « mongy ». L’inflorescence est un grand panicule lâche,
- Fig. 4. — Un Kalanchoé de la région centrale de Madagascar :
- K. synsepala.
- terne et sans beauté. Cette plante est très répandue dans tout le Sud malgache.
- Chez les Kalanchoés, la multiplication ne se fait pas uniquement par les graines qui sont petites, légères et facilement disséminées par le vent; elle se fait aussi, pour certaines espèces, par bulbilles aériens qui prennent naissance sur les feuilles. Ces bulbilles se forment le plus souvent dans le sinus des crénelures de la tranche des feuilles {K. ajf. crenata, fig. 6), ou à l’extrémité de celles-ci chez K. Gastoni s-Bonnieri (fig. 7), K. Daigremontiana, K. pinnata, etc. Chez K. verticillata, les feuilles longuement cylindriques sont partagées au sommet en plusieurs petits lobes qui portent de minuscules bulbilles à leur aisselle (fig. 8). Dans K. miniata, ce sont des ramifications avortées de l’inflorescence qui se chargent de bulbilles. Quant à K. synsepala, il laisse avorter aussi certaines inflorescences qui deviennent autant de stolons, dont le filet, représenté par le pédoncule long de 40 à 70 cm, se termine par un bulbille toujours unique.
- Les tissus de certaines espèces sont riches en résine. Tel est le cas des K. Delescurei et K. beharensis. Le suber de K. Grandidieri brûle avec une odeur d’encens ou de papier d’Arménie. De même, K. miniata, du domaine central, possède une écorce qui émet, en se consumant, une odeur de benjoin. Une cire, élément protecteur contre la trop forte insolation, couvre le tronc et les rameaux de K. Grandidieri, formant une croûte qui peut atteindre un demi-centimètre d’épaisseur et paraît avoir quelques rapports avec celle des Sarcocaulon du Cap. Le même enduit cireux se retrouve sur K. integrifolia qui vit sur les quartzites de la région centrale.
- Quelques espèces possèdent des utilisations en thérapeutique indigène. Les feuilles de K. beharensis, douées de
- p.518 - vue 522/551
-
-
-
- Fig. 7. — Extrémité de feuille à bulbilles de K. Gastonis-Bonnieri (région occidentale).
- Fig. j. — Kalanchoe proliféra (région centrale).
- propriétés astringentes, sont employées fréquemment par les femmes du Sud de File après leurs couches ; elles servent également, après avoir été pilées, comme remède contre les accidents causés par la projection du latex caustique de «famata» (Euphorbiacées arborescentes du groupe Tirucalli). Celles de K, pinnata, qui sont acidulées et astringentes, trouvent leur emploi dans le pansement des plaies; on en fait aussi des infusions absorbées dans les cas de céphalée, cystite et affections rénales. De même pour K. proliféra qui contient de l’acide malique; en outre, les Malgaches appliquent ses feuilles en cataplasmes contre la goutte et les rhumatismes, et en lotions contre la rohana (accumulation de synovie dans les articulations). Le K. Grandidieri est considéré comme vulnéraire. Une espèce est toxique, K. schi^ophjlla, qui renferme un hétéroside à noyau aromatique et aurait des propriétés abortives.
- Dans les régions sans eau, quelques Kalanchoés sont parfois mangés crus par les autochtones pour étancher leur soif. Un Kalanchoé est même employé comme porte-bonheur, c’est K. eriophjUa, des rocailles de l’Imerina, aux feuilles toutes blanches et cotonneuses, et aux petites fleurs
- p.519 - vue 523/551
-
-
-
- Fig. 8. — Feuilles et bulbilles de K. verticillata (Androy).
- d’un beau rose; il est vendu sur le marché de Tananarive en guise d’amulette destinée à assurer la richesse.
- En Europe, la culture de ces plantes exige une serre chaude; une demi-douzaine d’entre elles seulement ont obtenu la faveur d’une introduction, notamment K. coccinea à la fleur rouge écarlate. A Tananarive, le Jardin botanique de Tsimbazaza en possède une admirable collection formant un des plus beaux ensembles décoratifs qu’on puisse imaginer.
- Raymond Decary.
- Offensive contre les imbrûlés en Californie
- La pollution de l’atmosphère des villes résulte en grande partie, on le sait, des gaz d’échappement issus des moteurs des véhicules automobiles. Ainsi qu’il a été expliqué dans La Nature (avril 1956, p. 148), la nocivité reconnue de ces gaz est due en particulier aux combustions incomplètes du carburant. C’est ainsi qu’au lieu de projeter dans l’air le gaz carbonique C02, relativement inoffensif, ces moteurs donnent naissance à l’oxyde de carbone CO et à des hydrocarbures tels que le benzopyrène dont les effets cancérigènes ont pu être mis en évidence.
- C’est pourquoi, dans les récentes années, de nombreux dispositifs ont été proposés, en vue de réaliser une combustion presque totale. Certains d’entre eux, comme l’oxyca-talyseur de l’ingénieur Houdry, produisent une postcombustion au niveau de l’échappement. D’autres, parmi lesquels celui du professeur Serruys, sont placés entre le carburateur et les cylindres, afin d’améliorer le mélange gazeux introduit dans ces derniers. Les essais de ces dispositifs ont été multipliés, sans que des conclusions très nettes en aient été tirées jusqu’à ce jour. Aucune régle-
- La radioactivité au service de la fabrication du papier
- Une firme américaine, l’industrial Nucleonics Corporation, vient de mettre au point un dispositif qui permet de contrôler la fabrication du papier. L’appareil, dont l’élément essentiel est une source de strontium radioactif, émetteur bêta, se déplace en un mouvement de va-et-vient au-dessous et au-dessus de la feuille de papier tandis que celle-ci sort à grande vitesse de la machine. En traversant le papier, les rayons bêta sont plus ou moins absorbés selon l’épaisseur de la feuille. Selon l’absorption, l’appareil corrige alors automatiquement le défaut ou l’excès d’épaisseur en réglant les valves par lesquelles est distribuée la pulpe de papier. L’appareil indique également le poids moyen des feuilles de papier produites. Selon les constructeurs, ce dispositif devrait permettre aux industries papetières de réaliser d’importantes économies. (Information U. S. 1. S.).
- mentation, en tout cas, n’est intervenue pour en prescrire l’usage. C’est ce qui donne tout son intérêt à une information américaine de fraîche date, selon laquelle trois dispositifs font actuellement l’objet d’essais officiels, dans l’Etat de Californie. Rappelons à ce sujet que la ville de Los Angeles est une des plus exposées à la pollution, les conditions météorologiques locales la soumettant à un smog presque permanent.
- Trois prototypes ont été répartis sur une centaine de voitures dont chacune devra parcourir 20 000 km, en se conformant à un programme défini par avance. Des mesures sont effectuées concernant l’efficacité du dispositif, sa sécurité, le bruit, l’odeur et la résistance. Deux des systèmes sont fondés sur l’oxycatalyse. Un troisième fait intervenir un brûleur auxiliaire placé dans le circuit de l’échappement.
- Si, comme il est prévu, la preuve est donnée d’une réduction substantielle de la pollution (60 à 65 p. 100), l’usage de ces dispositifs deviendrait obligatoire à partir des premiers mois de 1963. Y. M.
- Un analyseur automatique des cellules cancéreuses
- Un analyseur automatique destiné à l’examen en série de certains types de cellules cancéreuses est actuellement utilisé aux Etats-Unis. Cet appareil, appelé cytoanalyseur, consiste en une unité de télévision associée à un microscope qui enregistre les caractéristiques des cellules. Les données réunies par la caméra sont transmises à un ordinateur électronique qui les analyse. L’appareil est, pour l’instant, essentiellement utilisé pour examiner les frottis vaginaux ou ceux qui proviennent du col de l’utérus. Actuellement, le cytologiste examine rapidement tous les frottis qui lui sont soumis, puis procède à une étude plus approfondie de ceux qui sont susceptibles d’être cancéreux. Le cytoanalyseur procède automatiquement à la première partie de la tâche et sélectionne les frottis suspects. L’appareil devrait améliorer l’efficacité des programmes massifs de détection du cancer.
- 520
- p.520 - vue 524/551
-
-
-
- Le Moineau possède une « horloge interne » d’une remarquable régularité
- Dans un article consacré aux rythmes biologiques (La Nature - Science Progrès, février 1961, p. 76) nous avions rendu compte de plusieurs expériences qui prouvent que le « rythme nycthéméral » de 24 heures est assez facilement déréglé chez de nombreuses espèces végétales et animales. Ce fait est surtout mis en évidence lorsque les conditions d’éclairement sont artificiellement perturbées.
- De nouveaux travaux, exécutés à la Faculté des Sciences de Nantes par MM. Léon et Marcel Vaugien (Académie des Sciences, 18 juin 1962), montrent que le Moineau domestique (Passer àomesticus) possède une « horloge interne» presque indéréglable et qui témoigne d’une mémoire du temps infaillible.
- Les oiseaux soumis à l’expérience ont été divisés en deux groupes. Le premier occupait une volière extérieure, le second des cages placées dans une cabine plongée dans l’obscurité totale et partiellement insonorisée. Un dispositif électronique permettait d’enregistrer les visites successives des oiseaux aux mangeoires remplies de graines, cependant que des photopiles et des luxmètres faisaient apparaître (pour le groupe de la volière extérieure) la relation existant entre l’éclairement et le comportement alimentaire.
- Le groupe extérieur se conformait fidèlement à la succession des jours et des nuits. Par temps clair, les oiseaux effectuaient leur première visite à la mangeoire 8 minutes avant le lever du soleil et cessaient de manger au cours de la demi-heure qui précédait le coucher. D’une manière générale, la stimulation initiale apparaissait en réponse à des intensités lumineuses variant entre 50 et 160 lx. Mais le soir, après avoir été soumis à des valeurs beaucoup plus grandes, les oiseaux cessaient de manger lorsque l’intensité lumineuse s’abaissait aux environs de 2 000 lx.
- Ceci indique que la période d’alimentation, étroitement réglée par le soleil, est normalement plus longue en été qu’en hiver. On sait d’ailleurs qu’il en est de même pour les poules et que, pour stimuler leur alimentation et la production des œufs, les élevages avicoles pratiquent l’éclairage artificiel à certaines heures de la nuit.
- Les observations faites sur le second groupe de moineaux, soumis à l’obscurité totale, ont prouvé que ces oiseaux, en l’absence de toute stimulation extérieure, « reconstituaient » une période alimentaire réglée sur le rythme
- Coques de navire en télévision
- Un appareil original, qui utilise la télévision pour l’inspection de la partie immergée des navires, vient d’être mis au point par des chercheurs soviétiques. Alors qu’habituellement on est obligé de mettre le navire dans un dock ou en cale sèche, il suffît désormais qu’un scaphandrier promène l’appareil le long de la coque dont les moindres détails apparaissent sur un écran de télévision où ils sont examinés par des spécialistes. La netteté serait excellente et la détection des défauts particulièrement aisée. (Bureau soviétique d’information).
- fondamental des 24 heures. La seule distorsion constatée réside dans quelques minutes d’avance ou de retard dans l’impulsion qui les guidait vers le premier repas matinal. Par la suite, ils continuaient en moyenne à s’alimenter pendant environ 13 h 30 mn.
- Il n’y a donc pas de différence intrinsèque entre le rythme des moineaux éclairés et celui des moineaux maintenus dans l’obscurité. Ces derniers fournissent la preuve du fonctionnement invariable de l’« horloge interne ». Ils sont seulement privés du moyen de réglage que les moineaux éclairés possèdent, du fait des variations diurnes de la lumière, et qui permet d’obéir au rythme avec une plus grande précision. Une observation assez frappante a été faite par MM. Vaugien : la période alimentaire journalière de 13 h 30 mn des moineaux « obscurés » est évidemment supérieure à la période alimentaire hivernale des moineaux éclairés. Avec l’obscuration le rythme métabolique devient donc constant et cela se traduit par une permanence de la spermatogenèse chez les moineaux mâles, alors que les moineaux éclairés sont en repos sexuel en hiver.
- On voit que les moineaux disposent d’une « horloge interne » beaucoup moins déréglable que celle de la plupart des autres espèces. En supposant que cette faculté puisse être attribuée aux oiseaux migrateurs, MM. Léon et Marcel Vaugien se demandent si cette mémoire du temps écoulé ne serait pas ce facteur, encore énigmatique, qui permet aux oiseaux de ne pas dévier de leur direction lors de leurs migrations saisonnières. Comme des expériences l’ont établi pour certaines espèces, les migrateurs semblent se guider la nuit sur les étoiles et le jour sur le soleil. La position de ces astres variant continûment, ce guidage n’est évidemment efficace que si l’oiseau sait en même temps mesurer l’écoulement du temps pour réaliser une correction permanente de sa direction de vol par rapport aux repères célestes.
- Cette hypothèse, qu’il serait difficile de confirmer, est en tout cas fort séduisante. Ajoutons que la récente expérience faite par un spéléologue séjournant volontairement dans l’obscurité a démontré que l’homme, contrairement aux moineaux, fait des erreurs considérables dans l’évaluation du temps dès qu’il ne peut plus se référer au cycle du soleil.
- G. C.
- Bateau fluvial à réaction
- Le Bureau soviétique d’information nous apprend qu’un bateau d’un type peu ordinaire, baptisé Tihaika (Mouette), a été mis à l’eau par les constructions navales de la Volga. Dépourvu d’hélices, il est propulsé par des « moteurs à réaction hydraulique », dont le principe n’est pas précisé. Transportant trente voyageurs, il peut naviguer sur des cours d’eau peu profonds, où la navigation était jusqu’ici impossible et il peut atteindre une vitesse considérable, voisine de 100 km/h.
- 521
- p.521 - vue 525/551
-
-
-
- Le vieillissement et la mort
- chez les plantes
- et leur rôle dans l’adaptation
- Si des physiologistes et des médecins se sont consacrés depuis quelques années à l’étude du vieillissement ou, comme on dit maintenant, de la sénescence, ce fut surtout, d’abord, pour des préoccupations sociales et médicales. Ainsi est née la gérontologie. Mais on s’est aperçu que cette étude avait un grand intérêt en soi et que la physiologie du vieillissement n’était qu’un aspect de la physiologie générale, car dès qu’un organisme animal a atteint l’état adulte, c’est-à-dire l’âge de la reproduction, ses différents organes et tissus commencent à entrer en involution, autrement dit à vieillir.
- Tout ce qui fonctionne subit une usure; il est donc facile de comprendre qu’une cellule ou un tissu vivants arrivés au terme de leur développement commencent à s’user et à vieillir. Et peut-être, ce qui est moins facile à comprendre, c’est comment les cellules et les êtres vivants échappent au vieillissement en se reproduisant, en donnant naissance à de nouvelles cellules qui sont en quelque sorte rajeunies par ce processus de reproduction.
- Le problème se pose pour tous les organismes vivants. Il se pose donc pour les plantes et il ne pouvait être dédaigné par les botanistes. On n’est donc pas étonné de voir naître ce qu’on pourrait appeler la gérontologie végétale. Les travaux en sont encore peu avancés, mais déjà on a pu en trouver une mise au point partielle, faite récemment par M. A.C. Léopold dans la revue américaine Science.
- Si la plupart des stades du développement de la plante (germination, floraison, fructification et maturation des fruits) ont été bien analysés, le vieillissement et le dépérissement ont été moins bien étudiés jusqu’à présent. Ils se manifestent par une diminution du taux de croissance et de la vigueur de la plante, par une augmentation de sa susceptibilité aux facteurs du milieu environnant, par exemple au manque d’eau et aux parasites, ou par des troubles pathologiques.
- Cependant la sénescence des végétaux présente des aspects divers qu’il convient de distinguer. Les plantes annuelles meurent brutalement et totalement après avoir donné leurs graines, comme le font beaucoup d’insectes et d’autres animaux quand ils ont pondu leurs œufs; nombre de plantes dont le cycle s’étend sur deux ou plusieurs années (plantes plurannuelles) n’en diffèrent à cet égard que par la durée de leur vie, dont la fin est irrévocablement marquée par la maturation de leurs fruits. Les plantes herbacées vivaces ne perdent que leurs tiges et leurs feuilles; elles subsistent par leur souche, leurs racines, ou encore leurs tubercules ou leurs rhizomes qui donneront naissance, l’année suivante, à de nouvelles tiges. Les plantes ligneuses ne perdent que leurs feuilles, la croissance de leurs tiges et de leurs racines se continuant d’année en année.
- Que le dépérissement intéresse la plante entière ou seulement certaines de ses parties, il se marque par la dispa-
- rition progressive de la couleur verte : les feuilles deviennent jaunes ou rouges, et ce changement marque une émigration d’une bonne partie des substances nutritives que ces organes contenaient.
- Les avantages de la mortalité
- Avant d’étudier dans le détail ce processus, on doit remarquer qu’il a une utilité évidente pour l’individu lui-même, s’il est vivace, et pour l’espèce dans tous les cas. La perte des feuilles chez les plantes ligneuses, celle des tiges entières chez les plantes herbacées vivaces, permet à la partie durable de la plante d’entrer en vie ralentie pendant la saison défavorable et de supporter sans dommage ou le froid ou la sécheresse. On peut comparer ce dépérissement partiel à l’hibernation de certains animaux. C’est une adaptation au cycle des saisons.
- Mais le dépérissement et la mort des individus tout entiers dans un délai plus ou moins rapproché ont pour l’espèce une utilité plus évidente encore. Une population ne peut évoluer et par conséquent s’adapter éventuellement à des conditions nouvelles et supporter vaillamment la concurrence des autres espèces que dans la mesure où les individus sont remplacés par d’autres. Plus la vie des individus est courte, plus l’espèce donne facilement lieu à la sélection naturelle. On peut noter que les plantes qui s’adaptent le plus facilement à toutes les conditions du milieu, celles qu’on appelle communément les mauvaises herbes, sont en majorité des plantes annuelles. Quand une modification avantageuse apparaît dans une de ces espèces, elle se trouve rapidement propagée dans la population en raison du renouvellement total qui se produit annuellement.
- A ce compte, on pourrait objecter qu’il ne devrait plus y avoir que des plantes annuelles. Mais l’état vivace comporte évidemment des avantages compensateurs. Il permet aux individus d’occuper plus solidement le terrain et d’en exploiter plus complètement les ressources. Les plantes à rhizomes ou à tubercules peuvent stocker des substances utiles. Les arbres tirent un plus grand parti du sol et de l’atmosphère par l’étendue de leurs racines et de leurs frondaisons, qui ne pourraient évidemment prendre un tel développement si leur vie était plus courte. Toutes les solutions avaient donc leur avantage et devaient toutes se réaliser pour une exploitation plus complète de la surface terrestre par la vie végétale. Mais la sénescence et la mort des individus dans un délai raisonnable étaient indispensables à l’évolution de toutes les espèces.
- Au point de vue physiologique, le vieillissement total ou partiel présente aussi pour les plantes des avantages plus directs et immédiats. Ainsi, à mesure que les feuilles dépérissent, la plus grande partie des substances nutritives
- 522
- p.522 - vue 526/551
-
-
-
- qu’elles contiennent émigrent dans d’autres organes, en particulier dans les fruits. On a pu montrer qu’un plant d’avoine, par exemple, récupère dans ses feuilles assez de substances azotées pour n’avoir plus besoin d’un nouvel apport d’azote dans la dernière partie de sa vie. La sénescence des fruits eux-mêmes, leur maturation, les rend plus attirants pour les animaux qui aident à la dissémination des graines.
- Les causes du vieillissement
- Certaines études semblent démontrer que le vieillissement des organes d’une plante est directement causé par une augmentation des enzymes qui détruisent les auxines, ou hormones de croissance. En tout cas le vieillissement des feuilles est directement sous l’influence des autres parties. Si l’on pratique une incision à travers une feuille qui commence à jaunir, le jaunissement est retardé dans la partie de la feuille qui se trouve ainsi isolée.
- Le développement des fleurs et des fruits paraît avoir une influence prédominante dans ce processus de mobilisation des substances que recèlent les feuilles. Fleurs et fruits attirent à eux, en quelque sorte, les glucides, le phosphore, le potassium et l’azote organique dont ils ont besoin. Le processus de cette mobilisation est encore mal connu; cependant on a pu isoler, avec l’ADN qui est la substance principale des chromosomes, une substance appelée kinêtine qui semble jouer un rôle déterminant à cet égard : si l’on traite une partie d’une feuille avec de la kinêtine, on constate que les substances azotées sont attirées dans la partie traitée.
- Quoi qu’il en soit, on peut retarder le vieillissement de certaines plantes en les empêchant de fleurir et de fructifier, par exemple en les amputant de leurs bourgeons floraux. De même, en supprimant l’extrémité de la tige d’une toute jeune plantule, on peut arrêter le dépérissement de ses cotylédons, qui continuent à se développer au lieu de se flétrir. On a observé que le dépérissement normal des cotylédons s’accompagne d’une diminution de leur teneur en ARN (acide ribonucléique) sous l’influence duquel se synthétisent les protéines. Le transfert de l’ARN hors des organes vieillissants apparaît comme l’une des manifestations peut-être capitales du processus. La sénescence des organes des végétaux a donc une signification physiologique bien définie.
- La mort des plantes vivaces
- A ces intéressantes études, on peut ajouter quelques remarques concernant la mort des végétaux vivaces. A première vue, on n’aperçoit pas pourquoi ces plantes ne seraient pas immortelles : elles produisent tous les ans des parties nouvelles tandis que les parties les plus anciennes se sclérosent puis meurent, et il semble que ce processus qui équivaut à un rajeunissement perpétuel ne doive pas avoir de fin. Nous avons vu que, dans le règne animal, c’est le cas de l’Hydre d’eau douce, du moins tant qu’elle ne donne pas de produits sexuels (La Nature - Science Progrès, novembre 1962, p. 464-466).
- Comme l’Hydre, une plante à rhizome s’augmente constamment par une extrémité tandis qu’elle périt pro-
- Fig. 1. — Un hêtre de Fontainebleau qui a succombé à l’attaque de l’amadouvier.
- Le champignon a complètement envahi le bois, et ses fructifications nombreuses parsèment le fût. Les jeunes qui entourent le vieil arbre sont issus de ses graines; sa mort a favorisé leur développement.
- (Pbofo C. Jacquiot).
- gressivement par l’autre. Dans un arbre, le bois ancien, partie morte, est recouvert tous les ans d’une nouvelle partie vivante qui mourra à son tour, tandis que les feuilles n’ont qu’une durée éphémère et sont sans cesse remplacées par d’autres. Si l’on prend une branche jeune d’un peuplier on peut en faire une bouture et en obtenir un nouvel arbre sur lequel à son tour on pourra prélever des boutures, etc. C’est quelque chose d’analogue à une culture de tissu qu’on rajeunit périodiquement par repiquage, et l’arbre lui-même peut en somme être comparé à une culture de tissu, puisque selon un certain rythme toutes ses cellules sont progressivement remplacées par des cellules jeunes. Cependant, cet arbre finira quand même par mourir et cette mort atteindra alors jusqu’aux tissus jeunes qui ne pourront plus se remplacer.
- Il paraît évident qu’ici le dépérissement correspond à des processus d’une autre nature que celui qui atteint les tissus après leur durée normale de vie. Dans un arbre devenu trop vaste, les échanges de substances entre les racines et les parties aériennes deviennent sans doute moins aisés.
- 523
- p.523 - vue 527/551
-
-
-
- Mais la mort se produit fréquemment pour des raisons simplement mécaniques. Les dimensions d’un très grand arbre le rendent plus fragile, son enracinement devient insuffisant, un coup de vent violent peut plus facilement l’abattre ou du moins lui infliger des blessures. En même temps, par ces blessures ou simplement par la durée de vie, les chances d’être parasité augmentent. Quand les parasites (champignons, microbes, insectes) se sont installés dans le bois, l’arbre, à brève ou longue échéance, est condamné, car tôt ou tard il s’écroulera, rongé par l’intérieur, même s’il arrive que ses parties vivantes n’ont pas été directement attaquées (et dans ce cas il ne s’agit pas de véritables parasites, au sens physiologique du terme, puisqu’ils ne se nourrissent que de tissus morts). Il est à noter que les espèces que l’épaisseur de leur écorce et la teneur de leur bois en tanin mettent dans une certaine mesure à l’abri
- de certaines infections, comme le Chêne et le Châtaignier, sont aussi celles dont la longévité est la plus grande.
- Quant aux plantes à rhizome, l’explication de leur dépérissement final semble encore plus simple. Comme elles s’augmentent constamment par un côté en périssant par l’autre, elles ne demeurent pas en place mais cheminent pour ainsi dire dans le sol; il arrive alors un moment où elles rencontrent un obstacle ou des conditions qui ne leur sont plus favorables. D’autre part, il est bien connu que beaucoup de plantes sécrètent des substances qui à la longue empoisonnent le sol pour elles-mêmes. Ce ne sont là que quelques-unes des raisons qui condamnent à échéance des organismes à première vue immortels. Ce problème de la longévité des plantes vivaces mériterait, semble-t-il, une étude plus approfondie.
- R. D. et J. G.
- Nylon frisé obtenu par un procédé chimique
- On sait que la laine naturelle doit nombre de ses propriétés à l’existence de ponts disulfures entre les chaînes protéiques (on appelle pont disulfure la liaison entre deux atomes de soufre fixés chacun sur une chaîne protéique). En créant des liaisons de nature analogue à l’intérieur de fibres de nylon, un chercheur du National Bureau of Standards des Etats-Unis, M. Stephen D. Bruch, est parvenu à obtenir des fibres frisées sans qu’intervienne aucun procédé mécanique.
- Le procédé consisterait essentiellement à soumettre des fibres de nylon à l’action d’un agent gonflant, en l’occurrence un mélange d’alcool méthylique ou éthylique et d’alcool benzylique, puis à y introduire des liaisons disulfures. Deux méthodes sont employées. Dans la première, des groupes sulfhydriles —SH sont chimiquement implantés dans la fibre de nylon. Une oxydation rapide amène la formation de liaisons disulfures suivant le schéma :
- + 1/2 02
- S
- I
- S
- + h2o
- Dans la deuxième méthode, on fixe encore des groupes sulfhydriles sur les fibres puis on fait agir un dihalogénure d’éthylène, ce qui conduit à la formation de liaisons du type sulfure de méthylène :
- s~| H X- -CH ' s 1
- 1 + || »» CH
- S-f H X- -CH ! CH
- (X désignant un atome d’halogène dont la nature n’a pas encore été précisée).
- A l’issue de ces traitements, on obtiendrait des fibres qui s’enroulent spontanément sur elles-mêmes et conduisent à un nylon frisé d’aspect voisin de la laine. Selon son inventeur, ce procédé devrait pouvoir être utilisé sur la plupart des fibres synthétiques, (Information du Centre culturel américain).
- Des satellites plus laconiques
- Les satellites artificiels deviennent de plus en plus compliqués et effectuent un nombre sans cesse croissant de mesures simultanées. Les résultats de ces mesures doivent être transmis au sol pour pouvoir être utilisés et l’accroissement de leur volume nécessite un accroissement parallèle du débit des moyens de télécommunication dont ils sont munis. On est donc amené à utiliser des bandes de fréquences de plus en plus larges et cela revient fort cher, aussi bien en puissance à l’émission, donc en énergie consommée, qu’en sensibilité à la réception.
- Un système fort intéressant vient d’être proposé aux Etats-Unis pour diminuer le débit d’information à transmettre. Il repose sur le principe suivant : tant qu’une grandeur que l’on mesure ne varie pas, il n’est pas nécessaire de continuer à la transmettre, on pourra se contenter de recommencer à le faire dès qu’elle subira une variation. Une étude des mesures enregistrées par des satellites précédents montre que 95 p. 100 des renseignements transmis sont inutiles, car ils ne diffèrent pas sensiblement de ceux qui les précèdent immédiatement.
- Le système proposé comporterait un petit ordinateur électronique qui analyserait les mesures pour déterminer les moments où elles doivent être transmises. Un tel ordinateur pèserait moins de 5 kg et consommerait une puissance de l’ordre de 10 watts. Il permettrait, selon les promoteurs du système, de diviser par un facteur de 30 à 90 le débit d’information nécessaire pour des mesures présentant de fortes fluctuations, et par un facteur pouvant atteindre 400 pour des mesures de phénomènes relativement stables.
- Les mécomptes du béryllium
- A la suite de longues études sur le gainage des éléments combustibles dans les réacteurs nucléaires, l’Atomic Energy Authority britannique a renoncé à son projet d’utiliser à cette fin le béryllium. Les avantages escomptés de ce métal, très peu absorbeur de neutrons (voir: La Nature - Science Progrès, mai 1961, p. 210), sont en effet compensés par son prix élevé et de grandes difficultés technologiques. Exclu également des projets américains, le béryllium est par contre retenu pour une deuxième édition de la pile française EL.4. Dans chacun des cas précités, le métal de gainage devrait pouvoir supporter des températures relativement élevées, ce qui élimine les alliages à base de magnésium et l’on se reportera sans doute sur l’acier inoxydable dont le comportement à l’égard des neutrons est moins satisfaisant. Cela peut obliger à un léger enrichissement du combustible en uranium 235, prévu d’ailleurs pour la première édition d’EL.4.
- 524
- p.524 - vue 528/551
-
-
-
- Les moteurs
- pour avions de transport supersoniques
- par Jacques Spincourt
- Fig. i. — Maquette de la Super-Caravelle.
- (Photo Sud-Aviation)
- Alors qu’il n’y a guère plus de dix ans que les premiers avions de transport à réaction, les de Haviland « Cornet I », ont fait leur apparition, et moins de sept ans que les premiers services réguliers à réaction ont été instaurés, voici que l’on parle sérieusement de lignes commerciales équipées d’avions supersoniques et que la date d’entrée en service de ces nouveaux airliners a été fixée à 1970. Les Américains ont depuis un certain temps déjà effectué des études préliminaires, et en Europe le projet de Super-Caravelle vient d’être mis en étude par Sud-Aviation avec la collaboration des constructeurs britanniques.
- Bien que de nombreux problèmes concernant la cellule et plus particulièrement réchauffement aux grandes vitesses restent à résoudre, c’est dans le domaine des propulseurs qu’il y a le plus à faire, du fait des nombreuses configurations possibles. Sans tenir compte du statoréacteur qui, dans l’état actuel de la technique, ne semble pas envisagé, il faut ajouter au réacteur pur les réacteurs à double flux et à ventilateur caréné, avec possibilité supplémentaire d’adjoindre à chacun d’eux la post-combustion (J).
- Avant d’examiner comment se présentent les différents propulseurs, examinons d’abord quelles sont les demandes particulières formulées par les constructeurs d’avions commerciaux. Le point capital est la consommation de carburant, car les avions de transport supersoniques auront à faire face à une concurrence assez sévère de la part des avions moins rapides et les frais de carburant constitueront vraisemblablement près de la moitié des frais totaux directs d’exploitation. Il faudra donc adopter des moteurs à faible consommation, contrairement à ce qui s’est passé jusqu’ici dans l’aviation militaire supersonique où seule la notion de performance de poussée était prise en considération.
- x. Rappelons que pour réduire la température des gaz à un degré que puissent supporter les alliages qui constituent les ailettes de la turbine, on introduit dans la chambre de combustion une quantité d’air bien supérieure à celle qui est nécessaire pour la combustion. La post-combustion consiste à réinjecter du combustible en aval de la turbine pour le brûler avec cet oxygène supplémentaire.
- Le second aspect de la question est celui du bruit. Compte tenu de la poussée qui sera nécessaire au décollage et en montée, le problème du niveau des perturbations sonores engendrées par l’avion de transport supersonique va se poser avec une acuité beaucoup plus grande que pour l’avion subsonique. Or il est certain que le bruit de ces derniers est déjà actuellement à la limite de ce qu’il est possible de supporter. Ce facteur devra donc être pris en considération dès le début de la conception du moteur, même en tenant compte des procédures de vol particulières qui ne manqueront pas d’être imposées à ces avions, par exemple vol de croisière à une altitude supérieure à 15 000 m et interdiction de franchir la vitesse du son avant d’avoir atteint l’altitude de croisière.
- Enfin et pour revenir sur la question de la rentabilité du moyen de transport par rapport à ses concurrents, il faut que la durée entre révisions successives du moteur soit de l’ordre de celle actuellement atteinte sur les réacteurs pour avions de transport subsoniques, c’est-à-dire près de 3 000 h.
- Toutes ces considérations sont évidemment difficiles à satisfaire en même temps, et c’est pourquoi le groupe propulseur idéal pour le transport supersonique n’a pas encore été défini. Dans ce qui suit, nous allons examiner comment se présentent les différentes configurations possibles en tenant compte des trois points de vue précédents, avant de voir comment semble s’orienter le choix pour la Super-Caravelle dont l’étude est déjà commencée.
- Le turboréacteur classique
- Associé à la post-combustion et parfois également au moteur-fusée, c’est le turboréacteur classique qui a équipé jusqu’à présent la totalité des avions supersoniques. Depuis sa mise en service on assiste à une augmentation continuelle des poussées qui a été rendue possible en premier lieu par l’augmentation corrélative du nombre d’étages des com-
- 525
- p.525 - vue 529/551
-
-
-
- presseurs axiaux. C’est ainsi que l’un des plus récents turboréacteurs américains, le General Electric J.79, possède un compresseur d’air qui ne compte pas moins de dix-sept étages. Du point de vue de la consommation spécifique d’ailleurs, il n’y a pas intérêt à augmenter outre mesure le rapport de pression, un optimum se situant aux alentours de la valeur 10, et ceci contrairement à ce qui se passe pour un turboréacteur subsonique. Ceci se comprend si l’on garde présent à l’esprit le fait que dans l’entrée d’air, par suite de la vitesse accrue, il y a une précompression importante.
- Mais depuis quelques années est apparu le turboréacteur à double flux. Il se caractérise par le fait qu’une partie de l’air comprimé ne traverse pas la chambre de combustion et n’est pas brûlé, mais vient directement se mélanger dans la tuyère aux gaz de combustion. Il y a plusieurs types de réacteurs à double flux. Les premiers à voir le jour furent ceux dans lesquels le deuxième flux est prélevé à un étage intermédiaire du compresseur. C’est le cas en particulier du Rolls-Royce « Conway». Mais il paraît plus économique d’associer au compresseur une soufflante entraînée par un étage supplémentaire de turbine; cette soufflante peut se trouver à la périphérie des premiers étages du compresseur ou au contraire tout à fait à l’arrière du moteur, mais, dans les deux cas, l’air qui la traverse est introduit dans la tuyère. Du fait que sa température est nettement inférieure à celle des gaz de combustion, la température du mélange se trouve abaissée ainsi que la vitesse, alors que le débit-masse est augmenté. Comme on sait que le rendement d’un propulseur par réaction est d’autant meilleur que le rapport de la vitesse de sortie des gaz à la vitesse de vol est plus voisin de 1, on voit que l’intérêt du double flux concerne surtout le vol aux vitesses subsoniques, c’est-à-dire en cas d’attente avant l’atterrissage. Mais l’avantage de loin le plus important des moteurs à double flux est la réduction du bruit dû au jet de sortie; celui-ci est en effet proportionnel à la huitième puissance de la vitesse de sortie des gaz et l’on conçoit qu’une réduction même de 10 m/s soit appréciable.
- Qu’il soit à simple ou à double flux, le turboréacteur pour avion de transport supersonique devra faire appel à la post-combustion pendant la phase de montée afin d’atteindre le plus rapidement possible l’altitude de croisière qui, nous l’avons dit, devra être supérieure à 15 000 m
- pour éviter que les dégâts au sol dus aux ondes de choc ne soient importants.
- Un dernier point à prendre en considération est le poids du moteur. Le turboréacteur à double flux pèse plus lourd qu’un turboréacteur simple, ce qui se traduit par une augmentation du même ordre du poids total de l’avion. Ceci est dû à la plus grande dimension des entrées d’air, conduits, tuyères de sortie, etc., pour permettre un débit d’air plus grand.
- En définitive, le choix entre le turboréacteur pur et le double flux devra résulter d’un compromis et, selon certains constructeurs de moteurs américains, il semble que ce compromis pourrait résulter de la considération de la vitesse de croisière de l’avion. En effet, pour une vitesse de l’ordre de Mach 2,2 (2,2 fois la vitesse du son), le turboréacteur pur a une consommation spécifique plus faible que celle du double flux, et cela permet de compenser les pertes qui seraient dues au montage d’un silencieux soigneusement étudié. Au contraire, aux environs de Mach 3, le double flux est plus intéressant, même du point de vue de la consommation spécifique.
- Actuellement, tant pour l’un que pour l’autre de ces deux types de moteurs, les améliorations devraient provenir de l’augmentation de la température d’entrée à la turbine et de l’accroissement de la durée de vie des différentes pièces qui conditionne l’intervalle entre révisions. Signalons à ce propos que l’un des facteurs qui concourent à l’augmentation de la température supportée par les aubes de turbine est le refroidissement de ces aubes, et que des réalisations intéressantes ont déjà été effectuées dans ce sens en utilisant de l’air prélevé au compresseur et qui circule dans d’étroits conduits creusés à l’intérieur de l’aube.
- Le statoréacteur
- Le statoréacteur est a priori le moteur qui semble le mieux adapté aux grandes vitesses puisque sa poussée croît comme le cube de la vitesse et que son rendement est d’autant plus élevé que la vitesse est plus grande. Malheureusement, il souffre de deux inconvénients qui le rendent difficilement adaptable aux avions de transport civils : sa forte consommation spécifique et le fait qu’il ne peut fonctionner correctement qu’au delà d’une certaine
- Fig. 2. — Maquette de l’avion supersonique britannique conçu par la British Aircraft Corporation.
- Cette maquette présente une aile delta à bord d’attaque incurvé et une dérive en flèche. L’avion est calculé pour Mach 2,2 et transportera xoo passagers. On notera de nombreuses ressemblances avec la Super-Caravelle puisque certaines parties du projet sont communes.
- (Photo aimablement communiquée par P Ambassade de Grande-Bretagne)
- p.526 - vue 530/551
-
-
-
- Fig. 3. — Vue d’ensemble du « Griffon » avec son combiné turbo-stato, dans la partie inférieure arrière du fuselage.
- {Document Nord-Aviation) .
- Entrée d'air commune-
- Turbo-réacteur caréné,
- 1) )chambre de combustion stato
- T<"'èrc de sortie commune
- vitesse, ce qui oblige à l’associer à un autre moteur pour le décollage et l’atterrissage et le vol aux faibles vitesses.
- Du point de vue du fonctionnement, nous rappellerons seulement que c’est le plus simple de tous les moteurs à réaction puisqu’il n’y a plus ni compresseur, ni turbine : l’air est comprimé dans le divergent d’entrée sous le seul effet de la vitesse, puis il est brûlé dans la chambre de combustion et les gaz résultants sont ensuite détendus dans la tuyère. Il n’y a donc aucune pièce mobile.
- Du point de vue de la consommation, disons pour fixer les idées qu’à Mach 3 elle est de 1,6 kg/kgp/h (kg par kg de poussée et par heure), soit du même ordre que celle des turboréacteurs qui croît vite avec la vitesse. Mais au delà de cette vitesse, quels que soient ses inconvénients, le statoréacteur n’est plus concurrencé que par la fusée qui ne saurait être un propulseur de croisière, et tout l’art du motoriste va consister à réaliser un propulseur homogène associant le stato et le turboréacteur.
- Dans ce domaine, la technique française occupe une place de premier plan grâce aux recherches de la Société-Nord-Aviation sur le combiné turbo-stato qui équipe d’ailleurs depuis plusieurs années déjà l’avion expérimental « Griffon». Il s’agit d’un réacteur Atar placé au centre de la veine d’un statoréacteur, ce dernier s’allumant lorsque la vitesse de l’avion est suffisante et devenant prépondérant aux très grandes vitesses.
- Les études effectuées par Nord-Aviation semblent montrer qu’au delà de Mach 3, le combiné turbo-stato surclasse le turboréacteur simple ou à double flux. A ces vitesses en effet, le statoréacteur fournira à lui seul la totalité de la poussée avec une consommation spécifique, nous venons de le voir, presque équivalente à celle des turboréacteurs.
- Un autre avantage du statoréacteur est de modifier la structure du bruit émis; dans le vol en stato, le jet de gaz
- chauds du turboréacteur est entouré d’une nappe d’air à vitesse plus faible qui joue un peu le même rôle que le flux secondaire d’un turboréacteur à double flux. Les essais en vol ont démontré que le combiné turbo-stato était le plus silencieux des moteurs à réaction et que les fréquences les plus gênantes étaient absentes. On pourrait même sans doute abaisser encore ce bruit en remplaçant le turboréacteur ordinaire par un turboréacteur à double flux; dans ce cas on aurait un jet décomposé en trois parties : jet principal du réacteur, jet secondaire et jet du stato. En outre, on peut espérer pouvoir allumer le statoréacteur au point fixe, c’est-à-dire sans que l’avion soit en mouvement, car le jet secondaire est suffisant pour assurer la combustion stato.
- Les modèles envisagés
- Actuellement, le seul avion de transport supersonique dont l’étude ait atteint un stade avancé est le moyen-courrier français « Super-Caravelle» dont la construction se fera d’ailleurs en collaboration étroite avec l’industrie britannique. C’est donc uniquement sur cet appareil que nous pourrons essayer d’étayer les principes énoncés précédemment.
- Disons tout de suite que seuls des turboréacteurs ont été envisagés dans la pratique. Et ces réacteurs, quels sont-ils ? On trouve en présence l’Olympus 593/3 et le Rolls-Royce R.B-169/7, tous deux britanniques et qui sont tous deux des réacteurs à simple flux; il est vrai que Super-Caravelle a été dessiné pour une vitesse de Mach 2,2. Ces deux réacteurs ont également comme caractéristique commune de posséder un compresseur à double corps et des aubes de turbine refroidies par air; on retrouve là les perfectionnements techniques mentionnés plus haut.
- Fig. 4. — Combiné turbo-stato étudié spécialement pour le transport supersonique.
- Le réacteur est un double flux et la veine stato est celle du deuxième flux d’air froid.
- (Document Nord-Aviation).
- chambre de combustion turbo{ chambre de combustion stato
- zone de mélange
- turbine BP
- entrée commune
- turbine HP sortie commune_
- compresseur B P.
- compresseur HP
- 527
- p.527 - vue 531/551
-
-
-
- Les aubes de turbine pourront ainsi être en contact avec des gaz atteignant des températures de i 300 à i 4000 K. Du fait de la compression dans l’entrée d’air, le compresseur devra absorber de l’air déjà porté à une température élevée, supérieure à ioo° C ; il faudra donc que sa structure soit en acier. De tels moteurs vont nécessiter encore des études poussées et leur coût sera très élevé; les constructeurs britanniques espèrent qu’ils pourront entrer en service d’ici trois ou quatre ans.
- Aux Etats-Unis où pourtant le transport supersonique est à l’étude, peu de choses ont encore filtré. Signalons que la première idée avait consisté à utiliser le bombardier Convair B. 5 8 « Hustler» transformé en appareil de transport et équipé de quatre moteurs Pratt et Whitney J. 5 8 développant 13 600 kg de poussée sans post-combustion pour faire une première expérience des problèmes posés par le transport supersonique.
- Plus loin, Pratt et Whitney a en étude un réacteur
- dénommé J.T. 11 qui doit être capable de Mach 3 ; il serait dérivé du réacteur militaire J. 5 8 qui équipe, rappelons-le, le dernier bombardier américain B.70. Il doit fournir une poussée de 10 400 kg avec une consommation spécifique de i,ox kg/kgp/h, ce qui devrait le placer assez bien dans la concurrence. Ce moteur a déjà fonctionné au banc et on dispose d’un certain nombre de renseignements sur son compte. Le compresseur possède neuf étages et réalise un rapport de compression de 8. Le poids spécifique est assez faible : 0,19 kg/kgp.
- Du côté de la General Electric, il semble d’après les premières informations que l’on s’orienterait vers des réacteurs à soufflante canalisée arrière.
- Tel est le point actuel d’une question en pleine évolution et dont la solution intéresse au plus haut point les compa' gnies de transport civil.
- Jacques Spincourt.
- Alcoomètre contre automobiliste intempérant
- La police de la route australienne utilise depuis peu un appareil portatif qui permet de déterminer rapidement le pourcentage d’alcool contenu dans le sang des automobilistes soupçonnés de conduire en état d’ivresse. On sait que l’alcool peut être oxydé par une solution
- sulfurique chaude de bichromate de potassium. Lors de cette oxydation, la couleur jaune orangée de la solution faiblit en raison de la disparition du bichromate qui a servi à oxyder l’alcool. L’appareil utilise cette réaction qui est suivie de façon précise par une méthode photométrique : le faisceau lumineux issu d’une source est partagé en deux au moyen d’un miroir semi-transparent. L’un des deux faisceaux traverse une ampoule scellée contenant une solution témoin de bichromate puis tombe sur une cellule photoélectrique. L’autre faisceau traverse une ampoule contenant, elle aussi, une solution de bichromate mais pouvant être reliée à un tube en matière plastique dans lequel soufflera le patient, puis il tombe sur une deuxième cellule photoélectrique identique à la première. Les courants émis par les deux cellules sont envoyés, en opposition, sur un galvanomètre sensible. Lorsque les deux faisceaux sont d’égales intensités à la sortie des ampoules, les deux courants débités par les cellules sont égaux en valeur absolue mais de sens contraires et le galvanomètre reste au zéro.
- En fait, les deux ampoules peuvent ne pas avoir exactement la même absorption, les cellules être légèrement différentes et, avant d’utiliser l’appareil, on règle l’appareil de manière que le galvanomètre ne dévie pas. Puis on invite l’automobiliste à souffler dans le tube de matière plastique : si l’air expiré contient de l’alcool, une certaine quantité de bichromate est réduit et l’absorption de la solution diminue : il n’y a plus égalité des deux faisceaux lumineux et le galvanomètre dévie. On le ramène au zéro en déplaçant un coin absorbant dans le faisceau le plus intense. Ce déplacement est directement gradué en pour-cent d’alcool dans le sang. La méthode est donc très rapide. Toutefois, sa précision est assez faible; aussi l’indication de l’appareil ne saurait-elle constituer une preuve formelle de la culpabilité de l’automobiliste. Il permet surtout de déceler rapidement les sujets suspects sur lesquels on effectue alors une prise de sang qui sera soumise ultérieurement à une analyse plus précise.
- J. C.
- Fig. 1. — Le sujet examiné s’apprête à souffler dans le tube de matière plastique relié à l’appareil.
- L’aiguille se déplace sur un cadran directement gradué en pour-cent d’alcool dans le sang.
- {Photo aimablement communiquée par /’Ambassade d’Australie).
- p.528 - vue 532/551
-
-
-
- L’ACTUALITÉ INSTRUMENTALE
- Spectirophotomètre Jean et Constant pour le visible et l’ultraviolet
- Les méthodes de dosage colorimétriques connaissent actuellement un développement considérable au point que dans de nombreuses revues de chimie analytique il n’est pas rare que plus du quart des articles soient consacrés à cette technique. Si, pendant des années, les chimistes n’ont guère utilisé que la lumière visible, il n’en est plus de même aujourd’hui et il est courant désormais d’utiliser en analyse les radiations électromagnétiques ultraviolettes, tant en chimie minérale qu’en chimie organique. De ce fait on doit féliciter la Société Prolabo d’avoir mis à la disposition des chercheurs français un appareil de haute précision utilisable dans l’ultraviolet et le visible de z zoo à 8 ooo angstroms.
- L’appareil proposé est une version améliorée d’un modèle déjà ancien et largement répandu dans les laboratoires pour ses qualités de robustesse, de simplicité d’emploi et de précision, en générai très suffisante pour les dosages courants. Toutes les pièces optiques sont évidemment en quartz, le verre devenant trop absorbant aux courtes longueurs d’onde. Par ailleurs, l’instrument est équipé de deux sources lumineuses, une lampe à filament de tungstène pour les mesures en lumière visible, et une lampe à arc dans l’hydrogène qui permet d’obtenir un spectre sensiblement continu dans l’ultraviolet.
- Les mesures sont effectuées par compensation optique selon une méthode de zéro, ce qui réduit l’effet des fluctuations de la source lumineuse et de la cellule sans toute-
- fois les annuler totalement car il s’agit d’un appareil à un seul faisceau avec lequel les mesures sur l’essai à blanc et sur la solution ne sont pas effectuées simultanément. Par suite, cela implique la stabilité dans le temps de la source et de la cellule, inconvénient que l’on ne retrouve pas dans les appareils à double faisceau évidemment plus onéreux.
- La région spectrale désirée est isolée au moyen d’un mo-nochromateur à prisme de Littrow avec fentes de largeur réglable. La bande passante la plus étroite sous laquelle il soit possible de travailler va de i  dans l’ultraviolet à 80 À dans le rouge avec une fente de 50 microns.
- Voyons maintenant avec quelques détails le principe des mesures (fig. 2) :
- La source lumineuse S (ou H) éclaire une lentille d’entrée Lx d’où part un premier faisceau lumineux (faisceau principal) vers le miroir Mx. La lumière traverse le mono-chromateur formé des fentes réglables Fx et F2, du miroir concave M7 et du prisme en quartz P. Elle passe ensuite
- Fig. 1. — Le spectrophotomètre Jean et Constant, modèle « UV ».
- Sur le côté gauche se trouve le potentiomètre de sensibilité P 2, dont le bouton est encastré. Sur le dessus on distingue, à gauche le bouton de zéro optique Z, le galvanomètre au milieu. Devant enfin on reconnaît, de gauche à droite : les boutons ronds de la surcharge T, du volet occulteur V (qui sert aux réglages de zéro et de sensibilité) et du porte-cuve R; puis le bouton F de réglage des fentes; enfin, les deux gros boutons A et B du coin et du prisme surmontés des fenêtres de lecture correspondantes.
- {Photo Prolabo).
- 529
- p.529 - vue 533/551
-
-
-
- VIENT DE PARAITRE
- PRECIS
- D'ÉNERGIE
- NUCLÉAIRE
- PAR
- G. CAHEN
- Ingénieur général du Génie Maritime (2e section) directeur des études au P.R.A.I.E.N, directeur délégué à l'Électronique à la Compagnie pour la fabrication des compteurs
- P. TREILLE
- Ingénieur en chef du Génie maritime (C.R.) docteur ès Sciences, chargé de cours au P.R.A.I.E.N., chef du service Génie Atomique à Indatom
- PRÉFACE DE F. PERRIN
- Membre de l’Institut, Haut commissaire à l’Energie atomique
- 424 pages 16 x 25, avec 129 fig. 3e édition. Broché .. 48 NF
- Relié toile sous jaquette ......................... 54 NF
- En vente dans toutes les bonnes librairies et che2
- KJljriSrOID Éditeur, 92, rue Bonaparte, Paris-6e. DAN 99-15.
- --- VIENT DE PARAITRE ______________________
- DICTIONNAIRES POLYGLOTTES ELSEVIER "
- DICTIONNAIRE PHYSIQUE GÉNÉRALE
- En six langues : anglais-américain, allemand, espagnol, français, hollandais, italien
- PRÉPARÉ ET CLASSÉ D’APRÈS L’ORDRE ALPHABÉTIQUE DES MOTS ANGLAIS
- PAR
- W. E. CLASON
- Anciennement chef du service des traductions de la Société anonyme Philips, fabrique de lampes à incandescence, à Eindhoven (Hollande)
- VIII-859 pages 16 x 25. 1962. Relié toile sous jaquette 88 NF
- En vente dans toutes les bonnes librairies et chez
- 3DU1NM3IÏ Éditeur, 92, rue Bonaparte, Paris-6e. DAN 9-9-15.
- MÜLTIMESUREÜR E.R.I.Ç
- appareil universel à hautes performances pour laboratoires
- Galvanomètre de 165, classe 0,5. - Robustesse à toute épreuve des surcharges.
- MESURE :
- directement ou par adjonction d'organes de référence : e : 0,5 mV à 35 kV r : 20 n à 10«2 il
- i : 10-î à 10-u A c : 10 pF à 10.000 pP
- q : 10 pico coulombs à 10 mC Fluctuations de tension : AV = 1V/L000 V Champs : depuis 1 œrsted
- Tensions : piézoélectriques; électro-statiques ; d'hystérésis, de corrosion, pH, rH.
- Intègre au sens mathématique du terme depuis 1 seconde à 60 minutes.
- Documentation et démonstrations sur demande
- en Fournisseur de 1.900 laboratoires 91tançais et étrangers
- lEMOUZr.
- FONDE EN 1915
- 63 RUE DE CHARENTON, PARIS 12= - DID. 07-74
- silicomètre
- INDUSTRIEL
- Véritable chimiste automate N’exige pas d’entretien spécialisé
- Documentation à :
- DEGREMONT - B. P. N° 46 - Suresnes (Seine)
- ECOLE SUPERIEURE DE BIOCHIMIE ET BIOLOGIE
- (Reconnue par l'Ëtat — A. M. 25 juillet 1955)
- 84, rue de Grenelle, Paris-7e
- Documentation : 5, quai aux Fleurs, Paris-4e — ODE 54-83
- Préparation aux carrières des Laboratoires Médicaux, Industriels, Agricoles. — Préparation aux diplômes d'Etat. Brevets de Techniciens d'Analyses Biologiques, Biochimistes, Biologistes.
- Cours du jour — Cours du soir Section d'enseignement " à domicile ”
- (Joindre timbre pour notice)
- 'WÊÊÊÊÊÊÊÊÊËÊÊÊÊtÊÊËÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊËÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊÊ
- 530
- p.530 - vue 534/551
-
-
-
- Fig. 2. — Schéma de principe du spectrophotomètre Jean et Constant.
- Explications dans le texte.
- ! i : i .\\U [il//, ZfcRO
- AMPU détecteur — V ( —
- Pi
- par le logement des cuves à échantillons, et les miroirs M2 et M3 la renvoient sur la cellule photoémissive C. Un filtre Ex est mis en place automatiquement lorsque la longueur d’onde à la sortie du monochromateur est inférieure à 4 000 Â.
- Un faisceau lumineux auxiliaire (faisceau de compensation) est prélevé par le miroir Me derrière la lentille d’entrée Lx. Il traverse un filtre monochromatique E, puis une tare en verre neutre T à commande manuelle, mise en place pour les mesures de densités optiques plus grandes que x. Le miroir M5 renvoie alors la lumière à travers deux coins photométriques en verre neutre, c’est-à-dire qui absorbe également à toutes les longueurs d’onde. Déplacés perpendiculairement au faisceau lumineux, ils permettent, le premier CB de mesurer la densité optique, le second CZ de faire le réglage de zéro initial. Puis le faisceau de compensation est renvoyé lui aussi par le miroir M4 sur la couche sensible de la cellule C.
- Un disque tournant D, entraîné par le moteur MO, est placé dans la cellule C. Il occulte alternativement les deux faisceaux à une cadence très rapide. Le courant photoélectrique, formé d’impulsions successives provenant des deux faisceaux, est amplifié et détecté à l’aide du courant auxiliaire produit par un alternateur AL entraîné par le moteur MO. Le courant résiduel est mesuré par un galvanomètre de zéro X qui dévie à gauche ou à droite selon que la cellule reçoit un flux lumineux plus fort d’un faisceau ou de l’autre. Lorsqu’il est au zéro, ces deux flux
- sont égaux. La mesure consiste donc à déplacer le coin photométrique CB pour réaliser cet équilibre. A ce moment-là, les densités optiques du coin et de l’échantillon sont égales. Le déplacement du coin, repéré sur un cadran gradué, donne le résultat de la mesure.
- La cellule servant seulement à repérer l’égalité des deux faisceaux et la comparaison s’effectuant presque simultanément dans le temps, on réduit l’influence des fluctuations de la source lumineuse. De plus, il n’importe pas que l’intensité du courant soit proportionnelle à l’intensité lumineuse : l’amplification n’a plus besoin d’être linéaire. Enfin les deux faisceaux lumineux tombant sur la même zone de la cellule et presque au même instant, les conditions de la comparaison des intensités lumineuses sont les meilleures. Toutefois, comme nous l’avons déjà signalé, la mesure avec l’essai à blanc et celle avec la solution étant effectuées successivement, la stabilité de la source et celle de la cellule dans le temps ont leur importance.
- Bien qu’il s’agisse là d’un appareil de haute précision, sa manipulation a été rendue très aisée. Une mesure comprend, schématiquement, les opérations suivantes : choix de la longueur d’onde par la manœuvre du bouton A qui porte un large tambour gradué en longueur d’onde qui défile devant un repère porté par une fenêtre de lecture (la graduation est orientée à 450 sur l’horizontale et peut donc être lue par un opérateur assis ou debout); réglage de la sensibilité par le potentiomètre P2; réglage du zéro optique en mettant en circuit l’essai à blanc et en déplaçant
- 531
- p.531 - vue 535/551
-
-
-
- le coin CZ; puis mise en circuit de la solution à analyser et manœuvre du coin CB par le bouton B. Le résultat est lu sur le cadran B. Disons que la manipulation du coin CB ne modifie pas la sensibilité : un potentiomètre P 3 et un contacteur K le maintiennent automatiquement à la même valeur, quelle que soit la quantité de lumière reçue par la cellule.
- Le logement des cuves peut recevoir deux cuves à faces parallèles en quartz de 5, xo, 20, 30, 40 ou 80 mm de longueur interne. De plus, la cuve de 5 mm peut recevoir un plongeur calibré de 3 mm pour travailler sous 2 mm
- L’aventure atomique
- M. Bertrand Goldschmidt est un témoin qui a directement participé à la naissance de l’énergie nucléaire et qui, plus tard, a occupé un poste- au Commissariat à l’Energie atomique où il pouvait suivre de près le déroulement des événements. La page d’histoire qu’il a vécue (x) est marquée, entre autres, par un épisode important : l’accès de la France dans le « Club atomique » que forment les pays possesseurs de la bombe. L’existence de ce club et son élargissement malheureusement probable éclairent la situation complexe où se trouve aujourd’hui l’industrie nucléaire.
- Cette situation, se demande Bertrand Goldschmidt, peut-elle être profondément bouleversée par des découvertes techniques de grande envergure ? Celle qui retient en premier lieu l’attention a trait à la fusion contrôlée, c’est-à-dire la création d’appareils pouvant produire de l’énergie à partir des isotopes de l’hydrogène. Cette découverte n’est pas impossible : la fusion des atomes légers est déjà réalisée dans les explosifs thermonucléaires. Mais, en dépit des illusions qui ont eu cours en 195 8, il est établi aujourd’hui que la fusion contrôlée appartient pour longtemps encore au laboratoire et ne saurait accéder au stade industriel que dans un avenir relativement lointain.
- D’autres éventualités se présentent sous un aspect tout différent. Il s’agit des procédés pratiques et économiques qui sont activement recherchés en vue de la séparation des isotopes soit de l’hydrogène, soit de l’uranium.
- Dans le premier cas, l’industrie tendrait sans doute à s’orienter vers les réacteurs modérés à l’eau lourde et utilisant l’uranium naturel ou très faiblement enrichi. Si au contraire on réussissait à produire l’uranium 235 sans recourir aux installations démesurées qu’impose l’actuel procédé de diffusion gazeuse, il est vraisemblable que cela ferait pencher la balance en faveur des réacteurs à eau légère et uranium enrichi. Dans cette hypothèse, notons-le en passant, la bombe deviendrait du même coup accessible à de nombreux pays.
- Que ces progrès escomptés aient lieu ou non, les programmes actuels des nations atomiques vont suivre leur cours. Deux grandes centrales au moins vont être mises en
- 1. Uaventure atomique, par Bertrand Goldschmidt. i vol. 13,5 X 22, 288 p. Fayard, Paris, 1962. Prix, broché : 12 NF.
- d’épaisseur liquide. Enfin, le porte-cuve est amovible et, lorsqu’il est enlevé, on peut introduire un vase de titrage ou des montages divers.
- Les applications de cet appareil sont très variées : son utilisation essentielle est évidemment la réalisation des dosages colorimétriques, mais il peut servir également à relever point par point la courbe d’absorption d’un corps en fonction de la longueur d’onde, ou pour la détermination du point équivalent d’un, dosage volumétrique ou coulométrique par spectrophotométrie.
- R. Rosset.
- construction à bref délai aux Etats-Unis : elles devraient fournir, à la fin de la décennie, la preuve que l’énergie par fission est aussi économique, sinon davantage, que l’énergie classique utilisant des combustibles chimiques.
- Ces centrales, à eau bouillante et à eau pressurisée, recevront une charge d’uranium enrichi. Parallèlement et à peu près à la même date, les centrales britanniques et françaises à uranium naturel auront sans doute démontré que cette filière est également viable.
- C’est donc vers 1970 que les incertitudes actuelles seraient définitivement dissipées et l’énergie nucléaire représenterait à cette date un pour cent environ de l’énergie électrique globale produite dans le monde.
- Ce point de départ étant acquis, Bertrand Goldschmidt se demande si les réserves en combustibles sont suffisantes pour alimenter l’industrie nucléaire naissante. La réponse est provisoirement satisfaisante: 40000 à 50000 tonnes d’uranium pourraient être extraites chaque année, ce qui, sur les bases encore rudimentaires où ce métal est employé dans les réacteurs de la présente décennie, assurerait une production d’énergie équivalente à la moitié de celle qui est issue du charbon.
- Par la suite, il n’est pas aventuré de prévoir la découverte de nouveaux gisements à haute teneur, largement suffisants pour combler les besoins énergétiques du monde pendant plusieurs dizaines d’années, sinon plusieurs siècles. A défaut, l’uranium pourra être extrait de minerais moins riches tels que les schistes bitumineux et les phosphates. On doit également compter avec les abondantes réserves de thorium.
- Perspectives brillantes, à condition que le désarmement des nations aboutisse à la liquidation rapide du « Club atomique ».
- « L’affaire est capitale, conclut Bertrand Goldschmidt, il faut en faire mieux comprendre, et dans leurs justes proportions complexes, les menaces et les impératifs et aussi les bienfaits qui seront la récompense d’une humanité plus raisonnable et plus unifiée qui, devant le défi atomique, aura su se débarrasser du spectre de la guerre.
- « Il faut s’arrêter sur cette espérance, tandis que l’aventure atomique se poursuit».
- Y. M.
- 532
- p.532 - vue 536/551
-
-
-
- Le Ciel en Janvier 1963
- SOLEIL : du Ier janvier au Ier février (à oh) sa déclinaison croît de — 23°5' à — \-j°zz' et la durée du jour de 8hi6m à 9hi9m; diamètre apparent le Ier (à oh) = 32'35",o, le 31 (à 24h) = 32'3i",o. — LUNE : Phases : P. Q. le 3 à ih2m, P. L. le 9 à 23h9m, D. Q. le 17 à 20h3 5m, N. L. le 25 à i3h42m; périgée le 4 à 8h, diamètre app. 32'i8"; apogée le 17 à 8h, diamètre app. 29^33"; périgée le 29 à 7h, diamètre app. 32/3o". Principales conjonctions: avec Mars le 12 à 1511, à 2°4' S; avec Uranus le 13 à nh, à 2°2i' N; avec Neptune le 19 à 8h, à 3°3o' N; avec Vénus le 21 à i8h, à o°6' N; avec Mercure le 24 à I9h, à 3°3' S; avec Saturne le 26 à 311, à o°26' S; avec Jupiter le 28 à 7h, à 2°48' S. Principales occultations : le 4, de 2Z Baleine (mag. 4,3), immersion à i9h5m,8; le 6, de 63 Taureau (mag. 5,7), immersion à 2oh3im,2. — PLANÈTES : Mercure, étoile du soir dans la première moitié du mois, se couche le Ier à 17^33m, soit ih3im après le Soleil; Vénus, splendide étoile du matin, se levant le Ier à 3h56m, soit 3h5om avant le Soleil; Mars, dans le Lion, bel astre rouge apparaissant dans la soirée, le 15, diamètre app. 13",z et mag. — 0,7; Jupiter, dans le Verseau, radieuse étoile du soir, se couche le ier à 2ihi3m, soit 5hnm après le Soleil; Saturne, encore visible un peu le soir dans les brumes crépusculaires, au début du mois; Uranus, au N.-O. de 0 Lion, se lève dans la soirée, le 15, position : ioh28m et io°3o/, diamètre app. 3",9, mag. 5,8; Neptune, près de et Balance, de mieux en mieux visible le matin, le 13, lever à 2h23m, position : i4h54m et — i4°46'; Cérès, entre fi et 0 Lion, positions, le Ier : 111131,TL et + i6°33', le 11 : nh35m et + i7°io', le 21 : nh37m et + i8°5/, le 31 : nh36m et + I9°i3', mag. 6,7; Vesta, dans la Vierge, positions, le Ier : i2him et -f 705', le 11 : i2h8m et + 7°4', le 2 1 : i211i4m et + 7°2i', le 31 : i2hi6m et + 7°57', mag. 6,6. — ÉTOILES VARIABLES : minima observables d’Algol (2m,2~3m,5) le 2 à 2h,9, le 4 à 23h,8, le 7 à 2oh,7, le 25 à ih,6, le 27 à 22h,4, le 30 à i9h,2 ; minima de fi Lyre (3m,4-4m,3) le 5 à 7h,7, le 18 à 6h,i, le 31 à 4h,4 ; minima de 0 Balance (4m,8-5m,9) le 4 à 4h,3, le 11 à 3h,8,le 18 à 3h,4, le 25 à 3h,o; maximum de R Vêtit Lion (6m,3-i3m,2) le 9, de y Cygne (3m,3-i4m,2) le 16. — TEMPS SIDÉRAL : au méridien de Paris à oh (T.U.) : le Ier : 6h49m4s, le 11 : 7}128m29s, le 21 : 8h7m5 5s, le 31 : 8h47m2os.
- Phénomènes intéressants : Le Soleil au périgée le 4 à 2011, la Terre au périhélie. — Surveiller la surface tachée du Soleil. — Lumière cendrée de la Lune, le soir, du 27 au 31. — Ne pas manquer de rechercher Mercure à Pœil nu, le soir, dans la première moitié du mois. — Observer Cérès et Vesta à la jumelle. — Le 9, éclipse de Lune par la pénombre, visible à Paris, commencement à 2ih6m, milieu à 23h2om, fin le 10 à ih3inl, grandeur: 1,018; phénomène bien visible vers son milieu. — Le 25, éclipse annulaire de Soleil, invisible à Paris, commencement à ioh56m, maximum à i3h36ra, fin à i6hi6m, grandeur : 0,998. — Etoiles filantes : du Ier au 3, Bootides (radiant fi Bouvier), rapides à traînées longues. —- On contemplera les belles constellations d’hiver : Taureau, Gémeaux, Cancer, Lion, Cocher, Orion, Grand et Petit Chiens.
- Heures données en Temps Universel, ajouter une heure pour obtenir le temps légal en vigueur.
- L. Tartois.
- Amateurs d'ASTRONOMIE, adhérez à la
- SOCIÉTÉ ASTRONOMIQUE DE FRANCE
- 28, rue Serpente, Paris-6®
- Vous aurez à votre disposition une importante Bibliothèque, un Observatoire, des séances mensuelles, cours, conférences, etc... Vous recevrez la revue mensuelle L’ASTRONOMIE Spécimen gratuit et conditions sur demande. j Permanence a u Siège social, tous les jours non fériés de 14 àl7 heures.
- POUR-CONSTRUIRE VOUS-MÊMES votre INSTRUMENT achetez l’important ouvrage :
- LA CONSTRUCTION DU TÉLESCOPE D’AMATEUR
- par Jean Texereau,
- Ingénieur du Laboratoir' d’Optique de l’Observatoire de Paris.
- 2e édition considérablement augmentée, magnifique volume 16 x 24 de 296 pages, illustré de 156 fig. et IV planches hors texte, sous re-[ liure toile, 25,50 NF franco, réduit à 19,50 NF pour les Membres de la Société, payable à la commande : Ch. Post. Paris 1733.
- LES LIVRES NOUVEAUX
- Operational calculus in two variables and its applications, par V.A. Ditkin et A.P. Prudni-kov. Traduit du russe par D.M.C. Wishart. 1 vol. 14 X 22, x-167 p., 4 fig. Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1962. Prix, relié : 50 sh.
- Cet ouvrage traite du calcul opérationnel à deux variables fondé sur la transformation de Laplace. De nombreuses publications ont été consacrées à ce sujet au cours des dernières années mais il n’existait pas encore de monographie complète sur cette importante question. En raison des applications pratiques nombreuses de cette technique de calcul, les auteurs ont rassemblé une longue liste de transformées de Laplace : fonction rationnelle, exponentielle, hyperbolique, etc. La technique des calculs a été développée avec un soin particulier.
- A History of Astronomy, par A. Pannekoek. 1 vol. 16 x 24, 522 p., 42 fig., 24 planches hors-texte. George Allen and Unwin Ltd, Londres, 1961. Prix, relié : 65 sh.
- L’auteur s’est efforcé de relier le développement de l’astronomie à la civilisation en général : il remarque que pour l’homme d’avant le 17e siècle, l’astronomie représentait plus qu’une science, un véritable système du monde, partie intégrante de son propre système philosophique et de sa conception de la vie : Kepler est peut-être le dernier représentant de l’espèce. Par la suite, la situation a beaucoup évolué. Mais doit-on réduire la place de l’astronomie dans le monde d’aujourd’hui à « une simple aventure de l’esprit » ? C’est faire peu de cas des nombreuses applications qu’on peut lui
- trouver dans le domaine pratique, et oublier que pour le physicien les étoiles et l’espace interstellaire offrent des laboratoires naturels où existent des conditions physiques inaccessibles à nos moyens terrestres. L’Astrophysique est aujourd’hui une des branches principales de la physique. Les derniers chapitres du livre, en raison du défaut mentionné plus haut, sont donc un peu faibles. Mais en ce qui concerne l’astronomie antique,
- ------ A NOS LECTEURS -----------
- LA LIBRAIRIE DUNOD
- 92, rue Bonaparte, PARIS-6e
- est à la disposition des lecteurs de LA NATURE - SCIENCE PROGRÈS pour leur procurer dans les meilleurs délais les livres analysés dans cette chronique et, d’une façon plus générale, tous les livres scientifiques et techniques français et étrangers.
- médiévale et classique, l’ouvrage est magistral et constitue une incomparable source d’information.
- J.L.
- The Earth, the Planets and the Stars, par K. E. Edgeworth. i vol. 14 x 22, xiv-193 p., 16 fig., 9 planches hors texte. Chapman and Hall, Londres, 1961. Prix, relié : 25 sh.
- Ce livre de vulgarisation à niveau élevé passe en revue les théories astronomiques modernes s’étendant, ainsi que le mentionne le titre, à la Terre, aux planètes et aux étoiles et galaxies.
- Planets and Satellites, édité par Gérard P. Kui-per et Barbara M. Middlehurst. i vol. 18 X 25, xx-600 p., très nombr. fig. et planches hors-texte. The University of Chicago Press, Chicago (III.), 1961. Prix, relié : 12,50 dollars.
- Avec ce livre, Kuiper poursuit l’édition de The Solar System, une véritable somme de nos connaissances sur le système solaire. Après The Sun et The Earth as a Vianet, parus en 1953 et 1954, les trois derniers ouvrages sont consacrés aux planètes, satellites et comètes et au milieu interplanétaire. En voici le premier, qui renferme les deux tiers du matériel concernant planètes et satellites. A l’âge de l’exploration interplanétaire qui décuple l’intérêt que l’on porte aux planètes, il a paru intéressant de montrer l’aspect d’une planète vue à courte distance : le Ier chapitre renferme une remarquable collection des images de la Terre transmises par le satellite Tiros I. Le 2e relate la découverte de Pluton par Tombaugh, modèle de méthode scientifique. Parmi les articles
- 533
- p.533 - vue 537/551
-
-
-
- suivants, on trouve une étude de Brouwer et Clemence qui contient les données les plus récentes sur les masses et les orbites des planètes et satellites, puis l’expcsé des travaux de Wildt sur l’intérieur des planètes. Près de 200 pages portent sur l’étude physique des surfaces et des atmosphères au moyen de la photométrie, de la colorimétrie et de la polarimétrie (cette dernière méthode, due à B. Lyot, est exposée par Dollfus). La température des planètes peut être déterminée par la mesure de leur émission infrarouge (Pettit, Sinton) ou radio (Mayer); mais le rayonnement radio intense de Jupiter est si particulier qu’il fait l’objet de deux articles dus à Burke et à Gallet, Les derniers chapitres (Dollfus, Humason, Finsen et Kuiper) traitent de l’étude visuelle et photographique des phanètes et satellites et renferment d’admirables photos et dessins. Ce livre, où l’on est agréablement surpris de mesurer l’importance de la contribution française, est tout à fait d’actualité et restera de nombreuses années un document de base. — J.L.
- Astronomical Photography. From tbe daguerréotype to tbe électron caméra, par G. de Vaucouleurs. Traduit par R. Wright, i vol. 14,5 x 22, 94 p., 21 planches hors-texte. Faher and Faber, Londres, 1961. Prix, relié toile : 25 sh.
- Née avec le daguerréotype (un des premiers objets photographiés fut la Lune) et encouragée dès le début par des astronomes comme Arago et Biot, la photographie astronomique est étroitement liée au développement des techniques photographiques. C’est son histoire que décrit avec beaucoup de documentation et d’esprit critique G. de Vaucouleurs; mais le principal intérêt du livre est l’extraordinaire série de photographies astronomiques de toutes époques. Certains documents anciens font encore rêver l’astronome actuel.
- La Nature dans la physique contemporaine,
- par Werner Heisenberg. Trad. de l’allemand par Ugné Karvelis et A.E. Leroy, i vol. 11 X 16,5, 192 p. Collection Idées. Gallimard, Paris, 1962. Prix : 2,90 NF.
- Ces quelques pages où l’illustre physicien a condensé ses vues sur quelques-uns des grands problèmes intellectuels que pose le bouleversement des bases de la science ne sauraient se résumer; elles appelleraient plutôt de larges développements et susciteraient maintes questions. Retenons-en la foi de l’auteur en la valeur de la civilisation occidentale, génératrice de culture progressive. Quelques textes historiques, de Képler à L. de Broglie, forment presque la moitié de ce petit ouvrage que tout homme cultivé a profit à lire.
- Microwave Ferrites, par P. J. B. Clarricoats. 1 vol. 15,5 X 25,5, 260 p. Chapman & Hall, Londres, 1961. Prix, relié : 50 sh.
- Les ferrites ont envahi depuis quelques années la technique des hyperfréquences (voir Fa Nature-Science Progrès, nov. 1961, p. 460-469). La coexistence des propriétés ferromagnétiques et d’une grande résistivité électrique permet de les employer en hyperfréquences et de profiter des phénomènes gyromagnétiques qui apparaissent lorsqu’une onde s’y propage en présence d’un champ magnétique. L’apparition d’éléments présentant des propriétés de propagation non réciproques (isolateurs, circu-lateurs, etc.) a profondément modifié la technicjue des hyperfréquences au cours de ces dernières années. Le présent ouvrage comprend l’étude des propriétés fondamentales des ferrites, de la propagation des ondes dans ces milieux, des pertes, et de la réalisation des appareils à ferrites.
- Nouveau Traité de Chimie minérale, publié sous la direction de Paul Pascal, membre de l’Institut. Tome VI : bore, aluminium, gallium, indium, thallium, par P. Pascal, A. Chrétien, Y. Trambouze, J.-C. Hütter, W. Freundlich. 1 vol. 17,5 X z6, 1040 p., 139 fig., 27 tableaux. Masson, Paris, 1961. Prix, broché : 160 NF; cartonné toile ; 172 NF.
- Nouveau Traité de Chimie minérale, publié sous la direction de Paul Pascal, membre de l’Institut. Tome V : zinc, cadmium, mercure, par P. Baud, H. Brusset, J. Joussot-Dubien, J. Lamure, P. Pascal, i vol. 17,5 x 26, 966 p.,
- 73 fig. Masson, Paris, 1962, Prix, broché :
- 170 NF; cartonné toile : 182 NF.
- La publication de ce grand traité, entreprise en 1956, touche à sa fin. Sur les vingt tomes, dont plusieurs en deux ou trois fascicules, que doit comporter l’ouvrage, voici les dix-septième et dix-huitième dans l’ordre de publication. Le tome VI (1961) décrit la préparation et les propriétés physico-chimiques du bore (MM. Chrétien et Pascal), de l’aluminium (M. Trambouze), du gallium (M. Hutter) et du thallium (M. Freundlich). Les organo-métalliques sont traités en détail, plus particulièrement ceux du bore, dont le rôle est important pour la propulsion des fusées. Les autres éléments du 3e groupe de Mendéléef (terres rares) ont été traités dans le tome VII déjà paru en deux fascicules. Le tome V, paru plus récemment, est consacré aux trois éléments du groupe II b, zinc (M. Joussot-Dubien), cadmium (M. Baud), mercure (MM. Lamure, Brusset et Pascal). De nombreux diagrammes d’équilibre, des tracés figuratifs des structures moléculaires et réticulaires précisent les développements du texte. Comme pour les ouvrages déjà parus, le plan a été conçu pour faciliter les recherches, qu’une table semi-alphabétique permet d’orienter au départ. Ces deux volumes comprennent respectivement 5 500 et 8 780 références bibliographiques.
- Chimie et Thermodynamique, par Guy Emsch-
- willer. i vol. 11 X 16,5, 189 p., Collection
- Armand Colin, Paris, 1962. Prix, broché : 5,70 NF
- Ce petit ouvrage, dû à la plume d’un des meilleurs spécialistes français de la chimie-physique, a pour but de montrer la nature et l’importance des services que rend la thermodynamique à la chimie, les moyens de prévision qu’elle lui fournit. Après avoir situé le problème majeur de l’affinité chimique, l’auteur montre comment la thermodynamique fournit une définition quantitative de cette affinité, comme aussi les méthodes permettant de la mesurer. L’auteur rappelle donc les fonctions thermodynamiques puis la notion de potentiel chimique. Trois chapitres sont consacrés aux
- 1 UN CHOIX de BOITES à divers PRIX_
- POUR L'ÉCOLE
- • LA BOITE BLEUE
- en 12 et 18 teintes
- POUR LE DESSIN et la DÉCORATION
- • LA BOITE PRISMALO
- crayons aquarelle
- en 12, 18 et 30 teintes
- • LA BOITENEOCOLOR
- craies artistiques
- en 10, 15 et 30 teintes
- Une belle boîte
- CARAN DACHE
- dans chaque sabot
- ET
- tous les enfants de FRANCE
- seraient heureux-
- ARAN D'ACHE
- DISTRIBUÉ par CORICTOR-ADHtSINS
- En vente dans toutes Papeteries et Grands Magasins.
- COLLECTION UNIVERSITAIRE DE MATHÉMATIQUES
- TECHNIQUES
- CALCUL MATRICIEL
- PAR
- D. PHAM
- Professeur à la Faculté des Sciences de Caen
- AVEC LA COLLABORATION DE M. GHINEA
- Docteur ès Sciences
- Chargée d’Enseignement au C.S.U. du Mans
- PRÉFACE DE A. LICHNEROWICZ
- Professeur au Collège de France
- XIV-279 pages I6 x 25. 1962. Relié toile sous jaquette 29 NF
- En vente dans toutes les bonnes librairies et chez
- XJfXJKTOXJ Éditeur, 92, rue Bonaparte, Paris-6®. DAN 99-15
- 534
- p.534 - vue 538/551
-
-
-
- équilibres chimiques, domaine de prédilection des applications de la thermodynamique à la chimie. Les méthodes de mesure de l’affinité fondées sur la connaissance des constantes d’équilibre, des données thermochimiques et des entropies, des forces électromotrices sont décrites en détail. Enfin, un chapitre traite du facteur temps, c’est-à-dire des considérations d’ordre cinétique, fondamentales dans la pratique. Ouvrage très clair et bien à jour comme en témoignent les quelques pages consacrées aux piles à combustibles. — R.R.
- Polyolefines, par A.V. Topchiev et B.A. Krent-sel. Traduit du russe par A.D. Norris. i vol. 14 X 22, xn-92 p., 33 fig., Pergamon Press Ltd, Oxford, Londres, New York et Paris, 1962. Prix, relié : 21 sh.
- Cet ouvrage se rapporte à une branche de la chimie organique qui connaît un développement industriel important : la production des matières plastiques. Ces matériaux ont des domaines d’utilisation nombreux : fabrication d’ustensiles divers, de films protecteurs, d’isolants, etc. Les polyoléfines constituent un groupe extrêmement important de matériaux synthétiques comprenant notamment le polyéthylène et le polypropylène. Les auteurs passent en revue les méthodes d’obtention et les propriétés physico-chimiques des polyoléfines, et indiquent leurs perspectives d’utilisation. Cet ouvrage de vulgarisation rassemble de nombreux renseignements que l’on ne trouverait que dtsns les ouvrages spécialisés et sera particulièrement apprécié par les « non spécialistes ».
- Chimie industrielle, La grande industrie chimique, par Henri Guérin, professeur à la Faculté des Sciences de Paris. Tome Premier : Les industries du soufre et de ses composés. Préface de Louis Hackspill, de l’Institut. 1 vol. 13,5 X 18, 416 p., 89 fig., 8 planches hors texte. Collection Euclide, Presses Universitaires de France, Paris, 1962. Prix: 32 NF.
- Comme toutes les industries tributaires d’une recherche scientifique active, la grande industrie
- chimique subit une évolution rapide, qui rend son enseignement particulièrement vivant. L’auteur, au courant de toutes les nouveautés de la pratique industrielle, fixe dans cet ouvrage l’état actuel et les tendances de l’industrie chimique, conscient de n’en donner qu’une image temporaire. Il groupes les diverses fabrications d’après la matière première utilisée. Ce ier volume, qui sera suivi de deux autres, traite des industries dérivées du soufre : économie de l’acide sulfurique; le soufre, produit fini et matière première, son extraction, sa récupération et son raffinage; l’anhydride sulfureux, produit intermédiaire et produit fini; les acides sulfuriques et les oléums; autres dérivés soufrés. Bibliographie. Index. Nos lecteurs ont été a même d’apprécier les qualités d’exposition du professeur Henri Guérin.
- Kurzes Lehrbuch der Biochemie für Mediziner und Naturwissenschafter, par le professeur docteur P. Karlson. 3 e édition revue et augmentée. 1 vol. 18 X 27, xvi-360 p., 63 fig. et 1 tableau synoptique dépliant. Georg Thieme Verlag, Stuttgart, 1962. Prix, relié toile : 31 DM.
- Les nombreuses monographies de biochimie ont rapidement tendance à se démoder; c’est pourquoi il faut rendre hommage à P. Karlson d’effectuer une constante mise à jour de son ouvrage. La 3e édition, revue et augmentée, paraît moins de deux ans après la publication de la ire. Karlson s’attache plus particulièrement à l’aspect dynamique de la biochimie : les structures naturelles ne sont envisagées qu’au fur et à mesure de leur incidence dans l’étude des mécanismes biologiques. Une part importante du livre est consacrée aux biosynthèses et aux théories biogénétiques. Une grande carte pliante résume l’ensemble des réactions enzymatiques possibles et la structure de l’hémoglobine humaine. Ce manuel sera particulièrement apprécié par les étudiants en biologie et en médecine ainsi que par les chercheurs.
- Exploration de la Terre, par Edmond Hoge, secrétaire général de la Société belge d’Astro-nomie, Météorologie et Physique du Globe. Collection Pro Juventute. 1 vol. 12 X 17,5,
- 62 p., 16 fig., 16 photos. Editions du Soleil levant, Namur (Belgique). Prix : 39 FB; 4,68 NF.
- Initiation très élémentaire aux sciences de la Terre et à la géologie.
- Biographie de la mer, par Richard Carrington, de la Royal Géographie Society. Trad. par Robert Lartigau. Préface du Paul Budker, sous-directeur au Muséum. 1 vol. 14 X 23, 288 p., 33 fig. Payot, Paris, 1962. Prix : 19 NF.
- Les nouveaux moyens mis à la disposition des océanographes, les espoirs que suscite la mer pour l’alimentation de l’humanité valent au monde marin un regain d’intérêt dans le grand public. Dans ce livre l’éminent géographe britanique a voulu présenter, à un niveau accessible à tous, un tableau d’ensemble de la mer. La ire partie décrit le cadre physique : origine des bassins, relief, eau de mer, mouvements. La 2e dresse un inventaire de ses habitants les plus remarquables ou utiles. La 3e la considère dans ses rapports avec l’homme : histoire des découvertes, science de la mer, ressources, enfin « la mer et l’esprit humain ». Une bibliographie choisie aiguille les curiosités plus approfondies.
- Précis de Botanique, par P. Crété, professeur à la Faculté de Pharmacie de Paris. Tome I : Morphologie et reproduction des plantes vasculaires ; Systématique des Cryptogames vasculaires et des Gymnospermes. 1 vol. 16,5 X 21,7 348 p., 90 planches de dessins. Masson, Paris, 1962. Prix, cartonné toile : 34 NF.
- Le tome II de ce précis, consacré à la systématique des Angiospermes, avait paru en 1959 et l’on est heureux de posséder maintenant l’ouvrage complet. Il s’ouvre par des généralités sur les divisions de la botanique, sur la taxinomie et les grandes divisions du règne végétal puis étudie avec un certain détail la morphologie générale (organo-graphie, anatomie, tissus de sécrétion), l’appareil reproducteur et les processus de la reproduction. Quelques notions sur l’évolution, fondées sur les données paléontologiques, précèdent l’étude systématique des Cryptogames vasculaires et des
- 0. AUSTIN A. SINGER
- Oiseaux
- du monde entier, leur apparence, leurs mœurs, leur habitat, leurs
- particularités et leurs fabuleuses migrations
- reproductions en couleurs de plus d'un millier d'oiseaux
- Flammarion
- 535
- p.535 - vue 539/551
-
-
-
- Phanérogames Angiospermes. Les notions utiles au pharmacien (morphologie et familles intéressant la matière médicale) sont naturellement un peu plus développées, mais cet excellent précis ne sera pas négligé par les autres botanistes.
- Anatomie et physiologie animales. I. Fonctions de relation. Fascicule 2, par R. Chanton et J. Paniel, professeurs agrégés des sciences naturelles. 1 vol. 15 X 21, 608 p., 414%. G. Doin, Paris, 1962. Prix: 52 NF.
- Poursuivant l’étude du système nerveux commencée dans le fascicule i, les auteurs traitent de sa physiologie générale (excitabilité, conductibilité, transmission nerveuse), de la morphologie du système cérébro-spinal, du système neurovégétatif, de l’activité réflexe, puis de la physiologie des diverses parties. On aborde ensuite les fonctions sensorielles. Sur quelques points, les auteurs ont fait un effort pour être à jour. On trouve ainsi une interprétation correcte du fonctionnement du larynx, telle que l’a établie l’école de R. Husson, quoique la part personnelle attribuée à ce chercheur semble un peu sous-estimée. Les travaux de von Békézy sur le fonctionnement de l’oreille auraient mérité au moins un résumé.
- Cours de Zoophysiologie, par B. Rybak, maître de conférences à la Faculté des Sciences de Caen. Tome I. 1 vol. 16 X 25, 494 p., 127 fig. Gauthier-Villars, Paris, 1962. Prix, relié : 45 NF.
- Ce cours se présente comme une initiation à la physiologie animale et constitue un excellent résumé des bases modernes de cette science. Le but de l’auteur étant « beaucoup plus de donner à penser que de donner à voir », les méthodes expérimentales y ont été laissées de côté. Ce Ier tome étudie dans une ire partie les fonctions de nutrition et le milieu intérieur : énergétique, échanges de matière, catalyseurs, digestion et absorption, métabolisme intermédiaire, liquides organiques, bases de l’immunité, circulation, excrétion. La 2e partie traite des glandes endocrines, des régulations, des fonctions de reproduction.
- Control of ovulation, édité par Claude A. Villee. 1 vol. 15,5 x 23,5, x-252 p., nombr. fig., planches hors texte. Pergamo'n Press Ltd, Oxford, Londres, New York et Paris, 1961. Prix, relié: 70 sh.
- Douze communications, discutées au cours d’une Conférence tenue au Massachusetts, abordent différents aspects du rôle des hormones dans l’ovulation. Les expériences ont porté tantôt sur l’animal, tantôt sur l’espèce humaine.
- Colombes, tourterelles, perroquets. — Les Pigeons, par R.A. Robin. 2 vol. 13,5 X 18,5, 32 p., photos. Editions Bornemann, Paris, 1962. Prix, chaque vol. : 2 NF.
- Description de divers Colombidés et Psitta-cidés dans le Ier volume, des Pigeons dans le 2e, avec les renseignements utiles pour leur élevage et leur reproduction.
- Look to the Wildemess, par W. Douglas Burden.
- 1 vol. 14 X 22, xx-252 p., 16 photos hors texte. Hutchinson and Co., Londres, 1961. Prix, relié : 30 sh.
- Ce livre d’un naturaliste doublé d’un chasseur conduit ses lecteurs à travers de nombreuses solitudes de l’Alaska, de la frontière sino-indienne et du Nicaragua.
- Cancérologie comparée; cancer spontané et cancer expérimental, par Charles Lombard, professeur à l’Ecole nationale vétérinaire de Toulouse.
- 1 vol. 16,5 X 25, 484 p., 80 fig. G. Doin et Cie, Paris, 1962. Prix : 78 NF.
- Voici un ouvrage de référence pour le cancérologue. La ire partie, qui traite du cancer spon-
- tané chez les animaux, débute par un historique, puis envisage les rapports de fréquence des tumeurs, l’universalité du cancer, l’influence du sexe, de la race, de la robe, de l’âge, l’électivité topographique, la répartition zoologique, le rôle de l’alimentation, des maladies, de la contagion, de l’hérédité. La 2e partie traite du cancer greffé et du cancer provoqué : par implantation de tissu embryonnaire, par action des agents physiques et chimiques, par action des agents parasitaires ou microbiens, par lésions du système nerveux. Les virus cancérigènes sont traités dans le chapitre sur la contagion. Abondante bibliographie.
- Précis de Géographie humaine, par Max Der-ruau, professeur à l’Université de Clermont-Ferrand. 1 vol. 18,5 X 23,5, 572 p., 46 fig., 61 photos hors-texte. Armand Colin, Paris, 1961. Prix : 54 NF.
- L’auteur, qualifié par ses nombreux travaux antérieurs, part de la question, si simple d’apparence : « Qu’est-ce que la géographie humaine ? »; il brosse un tableau historique — les variations de conception — puis étudie la définition même du terme. Il passe ensuite à l’examen des problèmes de population, à celle des genres de vie et des systèmes économiques, puis à la géographie agraire et aux activités non agricoles (industrie, circulation, secteur tertiaire). Il n’a garde d’oublier les incidences de la géographie politique, des opinions, ni d’éluder la question si controversée des applications pratiques de la géographie humaine. Excellents chapitres sur les grands aménagements agraires (peut-être même leur place est-elle disproportionnée avec celle de l’industrie par exemple ?) Un livre utile au spécialiste certes, mais aussi au planificateur, à l’industriel, à l’homme simplement cultivé.
- Géographie et action. Introduction à la Géographie appliquée, par Michel Phlipponneau. i vol. 18,5 x 23,5, 227 p. Armand Colin, Paris, i960. Prix: 19 NF.
- Cet ouvrage a déjà fait couler beaucoup d’encre et il n’est pas mauvais d’avoir attendu que les passions se soient un peu calmées pour en parler avec un certain recul : le plaidoyer de M. Phlipponneau, écrit avec vigueur et parfois une violence contenue, s’est voulu « un pavé dans la mare ». La géographie, loin d’être la discipline inutile que l’on se plaît parfois à présenter, doit jouer un rôle utile dans la vie actuelle; elle doit, selon l’auteur, dont on sait le rôle qu’il joue précisément au sein de la C.I.L.B., devenir une science appliquée; les géographes doivent être consultés dans les questions d’aménagement du territoire, d’industrialisation, d’études de marchés, de programmes d’investissements... Eux seuls ont, de par leur formation, le sens de la synthèse et de l’espace. A l’étranger, il leur est fait appel déjà beaucoup plus largement qu’en France. Bien des géographes demeurent réticents devant cet appel : la géographie doit resjer pour eux une discipline désintéressée qui ne doit pas aliéner son indépendance en se mettant au service des objecrifs politiques ou des ambitions des sociétés économiques. Il n’en reste pas moins que les phrases de M. Phlipponneau feront réfléchir plus d’un lecteur sur l’utilité réelle des études supérieures actuelles pour l’avenir de la Cité. — P. W.
- Itinéraires de la Grèce continentale, par A. t’Serstevens. 1 vol. 16,5 x 22, 272 p., 17 dessins originaux par Amandine Doré, 82 photos hors-texte dont 56 de l’auteur, 2 cartes. Arthaud, Grenoble et Paris, 1961. Prix : 34 NF.
- On connaît le talent d’écrivain de l’auteur de tant de récits de voyages. Ici, il nous raconte, non pas tant le voyage en Grèce que bien d’autres ont fait avant lui, que la Grèce elle-même, la Grèce divinement belle du soleil et des criques, endormies... Nous traversons Athènes, l’Agora, Plaka; puis le Péloponèse en zigzag, et enfin la Grèce centrale et septentrionale. D’admirables
- illustrations enchantent ce volume au ton peut-être — mais c’est tout t’Serstevens — un peu personnel par moments.
- Voici la Suisse, par H. J. A. Schintz. i vol. 12X 18,5, 96 p. et 83 photos de Caas Oorthuys. Collection Contacts avec le monde. Flammarion, Paris, i960. Prix: 4,50 NF.
- Intéressant petit volume, très bien présenté; il fait le tour de la Suisse travailleuse et prospère, ratissée comme un jardin, majestueuse et débonnaire. Agréable compagnon touristique, avec un texte léger et de somptueuses illustrations.
- Les Tziganes, par Jean-Paul Clébert. i vol. 15 X 23, 292 p., 64 héliogravures, 18 dessins et 2 cartes. Collection Signes des Temps. Arthaud, Grenoble et Paris, 1961. Prix, broché : 25 NF; relié toile : 34 NF.
- La « tziganologie » n’en est encore qu’à ses débuts : l’étude objective des gipsies offre des difficultés majeures de documentation, ce qui explique sans doute l’affabulation et la littérature de bas étage qui ont été consacrées à ce difficile sujet. Difficile, mais passionnant : quelles sont les origines des « bohémiens », quelle est leur histoire tout au long de leur diaspora, quels sont leurs métiers, leurs traditions, leur vie de tous les jours; quelle est leur langue, quel est enfin leur rôle dans notre société; telles sont les questions brûlantes que pose l’auteur de ce Paris insolite que l’on n’a pas oublié. Certes cet ouvrage se lit comme un roman, mais il est étayé par des enquêtes consciencieuses. Bonne mise au point, agréablement illustrée au surplus. — P. W.
- Enquêtes sur le vocabulaire breton de la ferme, par Pierre Trepos, i vol. 23,5 X 15, 155 p., 69 ill. Imprimeries Réunies, 22 rue de Nemours, Rennes, 1962.
- Le titre de ce travail minutieux pèche par modestie : il s’agit, certes, d’une enquête linguistique menée dans les quatre aires dialectales de la Bretagne bretonnante, mais aussi accessoirement d’une étude ethnographique due à l’un de nos meilleursc elti-sants. Tous les travaux de la campagne, toutes les façons culturales, tous les outils sont passés en revue. Des dessins clairs et précis contribuent à la qualité d’un ouvrage petit par le volume, mais lourd de science et de labeur.
- Rectifications de nos lecteurs
- A propos du méthylacétylène pour chalumeau. — Reproduisant une information américaine à ce sujet dans notre numéro de septembre 1962 (p. 397) nous indiquions que ce procédé « permettrait des vitesses de coupe 30 fois plus grandes qu’avec le propane ». Faisant observer l’invraisemblance de ce chiffre, le Centre de documentation technique de l’Air liquide nous écrit obligeamment qu’il fallait lire, sans doute, 30 pour 100, et non 30 fois.
- Lave-glace pour voitures. — Dans notre rubrique « Actualités et informations » de septembre 1962, nous faisions état d’un «nouveau système de lave-glace où le jet d’eau est envoyé sur les balais et synchronisé avec leur mouvement ». Remercions la Société anonyme pour l’Equipement électrique des véhicules, qui nous rappelle que ce procédé, breveté en France en 1928, est déjà connu en tous pays.
- PETITES ANNONCES
- (3 NF la ligne, taxes comprises. Supplément de 1,50 NF pour domiciliation aux bureaux de la revue)
- Le Gérant : F. Dunod. — DUNOD, Éditeur, Paris. — Dépôt légal : 4e trimestre 1962, N° 3957. —Imprimé en France. Imprimerie Bayeusaine, 6-8, rue Royale, Bayeux (Calvados), N° 3476. — 12-1962.
- 536
- p.536 - vue 540/551
-
-
-
- LA NATURE
- Science Progrès
- QUATRE-VINGT-DIXIÈME ANNÉE — 1962
- PAGINATION DES NUMÉROS DE 1962
- Janvier............................. i à 48 Mai .
- Février............................ 49 à 96 Juin .
- Mars............................... 97 à 144 Juillet
- Avril..............................145 à 192 Août.
- 193 à 232 Septembre...................361 à 400
- 233 à 272 Octobre.....................401 à 448
- 273 à 320 Novembre....................449 à 488
- 321 à 360 Décembre....................489 à 536
- Nota. — Les numéros de pages précédés de la lettre C renvoient aux pages de couverture en regard de ces numéros. — Les chiffres en caractères gras indiquent les articles principaux.
- INDEX ALPHABETIQUE
- A
- Abeille : substance émise par la reine pour attirer les mâles, 482.
- Abondance de centenaires en U.R.S.S., 81.
- Acides nucléiques et protéines : mécanismes d’édification, 489.
- Acoustique des arbres, 75.
- Adrénaline et atropine contre le « réflexe du noyé », 384.
- Aérocar, auto volante, 9.
- Aéroglisseur commercial : première mise en service en Angleterre, 222.
- — français : le Terraplane, 511.
- Aérosols utilisés pour la vaccination, 255.
- Agriculture et démographie au Mexique, 462.
- Aiguilles satellites (projet Westford) : nouvel essai prévu, 421.
- Aile d’avion à flèche variable, 437.
- Alcoomètre contre automobiliste intempérant, 528.
- Algues et alimentation en oxygène des astronautes, 29.
- Alliages supraconducteurs nouveaux pour électroaimants à champs très élevés, 397.
- Aluminium : technique nouvelle de laminage pour l’obtention de plaques d’épaisseur décroissante, 130.
- AM-9, produit chimique pour solidifier les sols mouvants, 140.
- Ambulance chirurgicale volante, 386.
- Amélioration des plantes et génétique, 385.
- Amiante et matière plastique, nouveau type de panneau chauffant, 160.
- Ampoules électriques au carbure de tantale,
- 171.
- Analyse documentaire en archéologie : utilisation des cartes perforées et ordinateurs,
- 449.
- Analyseur automatique des cellules cancéreuses, 520.
- Ângstrôm rattaché officiellement au Mètre,
- 3°.
- Année du Soleil calme (ier janvier 1964-septembre 1965), 289.
- Antarctique : découverte le 27 janvier 1820 (et non le 28), 333.
- Anti-vol nouveau pour véhicules automobiles, 85.
- Arabes sur les côtes du Nord-Mozambique,
- 414.
- Araignées détruites par un Coléoptère, 45. Arganeraie du Sud marocain, 390.
- Arsenic : création d’un centre d’information, 483.
- Art animalier de l’Iran : exposition à Paris,
- 32.
- — mexicain : exposition à Paris, 371. Aspects sociaux de la gérontologie, 76. Atropine et adrénaline contre le « réflexe
- du noyé », 3 84.
- Atterrissage des avions : nouveau système pour le balisage des pistes, 133.
- « Autisme » des enfants : expériences pour la guérison, 31.
- Auto volante, 9.
- Automatisation en psychologie expérimentale, 160.
- Automobiles : étude en Californie de dispositifs pour la combustion presque complète du carburant, 520.
- Auxines ou phytohormones de croissance,
- 387.
- «Aventure (L’) atomique», 532.
- Avion de transport supersonique français « Super-Caravelle », 133.
- Avions à grande vitesse : réglage des entrées d’air, 290.
- — à propulsion nucléaire, 131.
- — de transport supersoniques : moteurs,
- 525.
- A^otobacter : influence sur la « bactérisa-tion » du sol et des graines, 473.
- B
- « Bacchus », pendule qui... marche : remise en état à Moscou, 393.
- Bactéries dans l’eau lourde d’un réacteur atomique, 9.
- Bactéries (pile électrique à), 22.
- Bactérisation du sol et des graines par les
- A^ptobacter, 473.
- Baisse générale sur les masses atomiques, 30.
- Balisage des pistes d’atterrissage des avions : nouveau système de feux, 133.
- Balise de radionavigation aérienne à transistors, 337.
- « Bateau-éponge » pour le nettoyage des ports pétroliers en U.R.S.S., 291.
- Bateau fluvial propulsé par des moteurs à réaction hydraulique, 521.
- Battement des cellules cardiaques, 510.
- Béryllium : abandon pour le gainage des éléments combustibles dans les réacteurs nucléaires, 524.
- Besoins en eau des grandes villes, 106.
- — des laboratoires en isotopes stables, 139.
- Bison d’Europe, 378.
- Blanc d’œuf : propriétés antibiotiques, 500.
- Bouée portuaire expérimentale alimentée en électricité par une batterie nucléaire miniature (S.N.A.P.), 265.
- Brevet d’invention pris par un salarié : droits et protection, 305.
- Brûleur électrique de laboratoire, 227.
- Brûlures profondes : traitement par l’emploi de produits synthétiques de remplacement provisoire de la peau, 188.
- C
- Câbles téléphoniques sous-marins et leurs répéteurs, 503.
- Cactus pour pâturages, 140.
- Caméra sous-marine stéréoscopique, 333.
- Carburants à haute énergie issus du goudron, 264.
- Carpenter (commandant) : vol orbital, 283.
- Carte sous-marine de la Méditerranée occidentale, 475.
- 537
- p.537 - vue 541/551
-
-
-
- Cartes perforées et ordinateurs : utilisation pour l’analyse documentaire en archéologie, 449.
- Centenaires en U.R.S.S., 81.
- Centrale atomique miniature pour station météorologique, 86.
- — nucléaire de x ooo MW en proj-et aux Etats-Unis, 515.
- — nucléaire de Chinon: réacteurs E.D.F.i, E.D.F.2, E.D.F.3, 273.
- — nucléaire de Chinon : conversion partielle en plutonigène du réacteur E.D.F.i, 463.
- —- nucléaire E.D.F.4, 282.
- Centre Claude-Bernard de Gérontologie,
- 111.
- Cellule apte à une vie autonome : dimensions minimales, 316.
- Cellules cancéreuses : examen de certains types par analyseur automatique, 520.
- — cardiaques : étude du battement, 510. Chaîne montagneuse au fond du Pacifique
- Nord, 65.
- Chalumeaux alimentés par méthylacétylène stabilisé, 397, 536.
- Champs électriques utilisés pour mélanger les liquides, 44.
- Chant des oiseaux pendant la période de couvaison, 222.
- Charbon : utilisation en France, 351. Charges électriques : effets sur les précipitations atmosphériques, 283.
- Chauffage aux scories, 351.
- Chercheurs français dans les centres d’études nucléaires soviétiques, 397.
- Chinon, voir : Centrale nucléaire.
- Climats de la zone aride : oscillations dans le dernier million d’années, 67.
- « Clinocoptère », ambulance chirurgicale volante, 386.
- Clous romains : 7 tonnes découvertes en Ecosse, 293.
- Cœur mécanique permettant d’opérer en « état de mort contrôlée», 106.
- Coléoptère destructeur d’araignées, 45. Collecteurs de fraction, 89, 225.
- Colonne à distiller à bande tournante, 395. Comité de défense de la nature, 86. Commande automatique des phares de voiture, 384.
- Conduite en état d’ivresse : appareil pour détermination rapide du pourcentage d’alcool dans le sang, 528.
- Conférence des sciences et techniques dans l’intérêt des régions peu développées, 444. Conservation des fruits et légumes sous pellicule plastique comestible, 207. Convertisseurs magnétohydrodynamiques, 458.
- — thermoélectroniques, 245.
- Coques de navire : inspection par télévision, 521.
- Coton : obtention de fibres à coloration verdâtre par croisement de diverses variétés à fibres blanches, 152.
- Coulomètre automatique, 394.
- Cours d’eau russes détournés de l’Arctique vers la Caspienne, 221.
- — scientifiques d’été de l’O.T.A.N. pour 1963, 397.
- Cratère présumé de météorite en Sibérie méridionale, 393.
- Culture du tabac en France, 483. Cytoanalyseur pour cellules cancéreuses, 520.
- D
- Dégel hydroélectrique, 350.
- Démographie et rendements agricoles au Mexique, 462.
- — française : expansion, 311. Détournements de cours d’eau russes de l’Arctique vers la Caspienne, 221. Déviation de iet des réacteurs d’avion et des moteurs-fusées, 84.
- Diamants au fond de la mer, 333.
- — semi-conducteurs, 227.
- Diffusion incohérente, nouvelle méthode d’étude de l’ionosphère à partir du sol,
- 422.
- Documentation scientifique : création d’un Grand Prix, 130.
- Domaine élargi pour les radioéléments à Saclay, 204.
- Dômes de sels sous-marins dans le Golfe du Mexique, 65.
- Drainage des marais de la Vilaine, 106. Drogue tératogène : effets de la thalidomide, 384.
- E
- Eau : besoins des grandes villes, 106.
- — lourde des réacteurs : effets sur certaines bactéries, 9.
- Eaux souterraines : origines complexes, 438. Echangeur d’ions inorganique pour piles à combustible, 457.
- Eclairs en forme de boucle, 202, C 273. Ecrevisses françaises, 27.
- Effet de sol : adaptation à l’industrie sidérurgique, 222.
- — voir : Aéroglisseur.
- Efficacité des herbicides améliorée par un produit chimique, 389.
- Encre magnétique pour machines électroniques, 21.
- Endographie, endoscopie, 10.
- Energie vocale (pertes d’) : rôle physiologique, 430.
- Engins balistiques et spatiaux à propulsion nucléaire, 131.
- — propulsés par statoréacteurs, 370.
- — spatiaux : protection par matériaux à base de silicone ultra-réfractaire, 26.
- Engrais à base de charbon, 106.
- — en pilules, 202.
- Enseignement de la physique et photographie, 120.
- Entraîneur automatique parlant pour coureurs de fond, 140.
- Entrées d’air : réglage pour les avions à grande vitesse, 290.
- Epreuves photographiques : tirage express à partir de négatifs en couleurs, 377. Equilibre microbiologique du sol, 471. Erreur printanière dans le chant des oiseaux, 222.
- Espionnage spatial, 462.
- Etamage sur matelas d’air, 222.
- Etourneau dans l’histoire et la linguistique,
- 284.
- Etres organisés extra-terrestres : preuves d’existence contenues dans les météorites ? 482.
- Evolution des Mammifères à partir des Reptiles mammaliens, 256.
- Examen médical par infrasons, 444. Expansion démographique de la France, 311’
- Exposition d’art mexicain à Paris, 371.
- — d’art animalier de l’Iran à Paris, 32.
- — « Le Froid et ses Merveilles » : lyophilisation des produits organiques, 338.
- F
- Facteur sanguin lié au sexe, 350.
- Faune sauvage de l’Afrique : exploitation rationnelle, 18.
- Fièvre aphteuse : grave menace d’expansion, 444.
- Filtres de laboratoire « Millipore », 315.
- Fontainebleau : Comité de défense de la forêt, 86.
- « Formicage », heureux néologisme, 207.
- Fourmis et pucerons : symbiose, 292.
- Fruits et légumes : conservation sous pellicule plastique comestible, 207.
- Fusées spatiales : recherche de propergols de rendement élevé, 334.
- G
- Gabon : exploitation des ressources minérales, 421.
- Gaz : gisements dans les houillères, 250.
- Générateur nucléaire miniature pour explorateurs lunaires, 36.
- Génétique et amélioration des plantes, 385.
- Gérontologie : aspects sociaux, 76.
- — étude scientifique, 107.
- Gisements de gaz et grisou dans les houillères, 250.
- Gîtes minéraux : prospection chimique,
- 153.
- — minéraux : prospection botanique,
- 208.
- Glace : luminescence observée en mer d’Okhotsk, 93.
- Glenn (colonel) : vol orbital, 166.
- Grand Prix de la documentation scientifique, 130.
- «Grande Charte» de 1215 : conservation sous argon en Australie, 152.
- Graphite pyrolytique, matériau d’avenir, 171.
- Grillons : influence de la radioactivité sur la reproduction, 304.
- Grisou : gisements dans les houillères, 250.
- Grive dans l’histoire et la linguistique, 284.
- Groupe sanguin lié au sexe : nouvel antigène du sang plus fréquent chez les femmes, 350.
- H
- Harpon empoisonné contre les requins, 223.
- Hélicoptère : applications nouvelles, 82.
- Herbicides : efficacité améliorée par un produit chimique, 389.
- Hérédité non chromosomique, 233.
- « Horloge interne» du Moineau, 521.
- Hormones végétales, 387.
- Houillères : gisements de gaz et grisou, 250.
- Huîtres de pleine mer : protection bactériologique par les rayons ultraviolets, 345.
- Hydre d’eau douce, 464.
- Hydroaimant, 63, 192.
- I
- Ilots de congélation éternelle, 240.
- Imbrûlés (offensive contre les) en Californie, 520.
- Impesanteur : effets sur la fécondation, 255.
- Impression de caractères par procédé électrostatique nouveau, 93.
- Industrie du gaz en France, 218.
- « Infirmière électronique », 240.
- Influence des charges électriques sur la formation des nuages et les chutes de pluie, 283.
- Infrasons : emploi dans les examens médicaux, 444.
- 538
- p.538 - vue 542/551
-
-
-
- Inséparables, perroquets nains d’Afrique,
- 172.
- — : évolution révélée par le comportement, 175.
- Interconnexion des réseaux de distribution électrique de France et d’Angleterre, 467. Ionosphère : étude à partir du sol par la diffusion incohérente, 422.
- Ions atmosphériques : action sur l’organisme humain, 401.
- Iran : exposition d’art animalier à Paris, 32. Isotopes stables : enquête sur les besoins des laboratoires, 139.
- K
- Kalanchoés, plantes grasses de Madagascar,
- 516.
- L
- Lac Balkhach : variation de la composition chimique de l’eau, 136.
- — de Neuchâtel : signes graves de pollution, 302.
- — de sel pour record de vitesse automobile, 262.
- Lacs salés : exploitation en U.R.S.S., 244. Laminage de l’aluminium : technique nouvelle, 130. u
- Lampes à vapeur de mercure : rendement de lumière amélioré par adjonction de thallium, 510.
- — électriques : remplacement du tungstène par le carbure de tantale, 171.
- Langue étrusque : déchiffrement par comparaison avec l’albanais, 377.
- Lasers, 1.
- — : développement des applications, 410, 4x1.
- Lecteur binoculaire pour vues faibles, 258. Légumes et fruits : conservation sous pellicule plastique comestible, 207.
- Lignes de métro dans le monde, 483.
- Loriot dans l’histoire et la linguistique, 284. Luminescence de la glace, 93.
- — des solides appliqués à la détermination des températures de surface, 179.
- Lyophilisation des produits organiques, 338.
- M
- Machine à écrire I.B.M. « Spherdine » sans barres à caractères et sans chariot, 87. Mammifères : évolution à partir des Reptiles mammaliens, 256.
- Mannequins pour l’étude des effets biologiques des radiations à l’occasion des voyages interplantaires, 188.
- Marais de la Vilaine : assainissement, 106. Masses atomiques : carbone 12 pris comme base par les chimistes et les physiciens, 30. Matelas-litières en matières plastiques pour étables, 165.
- « Matin (Le) des Magiciens » : succès d’un mauvais livre, 263.
- Médicaments absorbés par la peau à l’aide des ultrasons, 224.
- — à base d’adrénaline et d’atropine pour le traitement de l’asphyxie par noyade, 384.
- Méditerranée occidentale : établissements de la carte sous-marine, 475.
- Mélange de liquides par utilisation de champs électriques, 44.
- Mélangeur à hautes performances, 137. Merle dans l’histoire et la linguistique, 284. Méson oméga : découverte, 74.
- Météorite( : cratère présumé en Sibérie méridionale, 393.
- — de 1908, 66.
- Méthylacétylène pour chalumeau, 396, 536.
- Métro : réseaux mondiaux, 483.
- Mexique : démographie et rendements agricoles, 462.
- — exposition d’art à Paris, 371.
- Mica : remplacement par de minces feuilles de verre collées, 397.
- Microdébitmètres pour mesures de précision, 41.
- Microfaune terricole : influence dans l’équilibre biologique du sol, 177.
- Micrométéorites récoltées par fusée, 22.
- Micropompe pour chromatographie, 91.
- Microscope métallographique plus puissant que les microscopes électroniques, 485.
- Migrations des oiseaux de mer, 56.
- Minéral nouveau dans le Meteor Crater : la « stichovite », 178.
- Mines cévenoles : exploitation, 383, 502.
- Mise sur orbite d’un satellite artificiel, 124.
- Moineau : rythme biologique, 521.
- Monographies de radiochimie, 314.
- Monts et dômes de sels sous-marins, 65.
- Mort et vieillissement des plantes, 522.
- Moteur « à tout faire », 268.
- Moteurs pour avions de transport supersoniques, 525.
- Mouche des fruits : irradiation des mâles pour les rendre stériles, 283.
- N
- Nanisme : essais pour en soigner certaines formes, 165.
- Navires : Inspection de la partie immergée au moyen d’un appareil utilisant la télévision, 521.
- Noyé (contre le réflexe du), 384.
- Nylon frisé obtenu par un procédé chimique, 524.
- O
- Océan Indien : reliefs, 303.
- Océans : vie animale et végétale sur le fond,
- 299.
- Oiseaux : erreur dans le chant pendant la période de couvaison, 222.
- — de mer : migrations, 56.
- Ordinateur miniature, 227.
- Ordinateurs et cartes perforées : utilisation pour l’analyse documentaire en archéologie, 449.
- Origines complexes des eaux souterraines,
- 438.
- Oscillations des climats de la zone aride dans le dernier million d’années, 67. O.T.A.N. : cours scientifiques d’été pour 1963, 397.
- Oxygène nécessaire aux astronautes : fourniture par les algues ? 29.
- P
- Panneau chauffant nouveau, à base d’amiante et de matière plastique, 160.
- Paon du Congo, 134.
- Papier : fabrication contrôlée au moyen du strontium radioactif, 520.
- — : nouveau système pour le séchage rapide, 463.
- Papillons : groupements en masses, 117.
- — à acide cyanhydrique, les Zygènes, 206. Parasitisme chez certains insectes : action
- imprévue, 436.
- Parcs nationaux en France : seconde étape vers la création, 116.
- Pâturages permanents à base de cactus, 140. Peinture par robot, 224.
- Pendule qui...Tmarche : remise en état à Moscou, 393.
- Période de rotation de Vénus, 188. Perroquets nains d’Afrique : les Inséparables, 172, 175.
- Pertes d’énergie vocale de la glotte aux lèvres : rôle physiologique, 430.
- Pesanteur et tuberculose, 463.
- Petits groupes : étude et ses applications, 346.
- ------: stage de travail, 350.
- Pétrole : gisement exploitable en Australie, 289.
- — et rendement du sol, 502.
- — saharien : première phase d’exploitation, 361, 448.
- Phaëton, projet français de propulseur spatial et satellite synchrone, 241.
- Phares de voiture : dispositif électronique de commande automatique, 384. Photographie et enseignement de la physique, 120.
- Photologie forestière, 145. Photothermomètre de surface pour la détermination des températures superficielles,
- 185.
- Phytohormones de croissance, 387.
- Pile électrique à bactéries, 22.
- Piles à combustible : utilisation d’une membrane inorganique échangeur d’ions comme électrolyte, 457.
- Plantes : rôle du vieillissement et de la mort dans l’adaptation, 522.
- —• cultivées : amélioration aidée par la connaissance de la génétique, 385.
- — grasses de Madagascar : les Kalanchoés, 516.
- Plaques d’aluminium d’épaisseur décroissante obtenues par nouvelle technique de laminage, 130.
- Plastiques : soudage par ultrasons, 92, 272.
- — pour le remplacement provisoire de la peau dans le traitement des grands brûlés, 188.
- Plateau de Rochebonne : levé de la carte des fonds, 66.
- Plongée sous-marine : appareil de communication entre plongeurs et pêcheurs sous-marins, 88.
- ------: nouveaux progrès, 329.
- Poison contre les requins, 88.
- — : injection à l’aide d’un harpon, 223. Poisson faucardeur, 178.
- Poissons mangeurs de nageoires, 161. Polarographes nouveaux, 312.
- Pollution de la mer : extension de la zone d’interdiction du rejet des résidus pétroliers, 386.
- — du lac de Neuchâtel, 302.
- Pompes doseuses de haute précision, 440. Potentio-pH-mètre de haute précision, 267. Priroda a cinquante ans, 2x4.
- Prix (Grand) de la documentation scientifique, 130.
- — Nobel de Sciences 1962, 501. Problème démographique et agricole du Mexique, 462.
- Procédé électrostatique d’impression, 93. Programme Ranger : faire un trou dans la Lune, 49.
- Programmes de recherches océanographiques de l’Unesco, 332.
- Progrès nouveaux dans la plongée sous-marine, 329.
- Projet Westford (aiguilles satellites) : nouvelle expérience en projet, 421. «Promotion» de l’arsenic, 483.
- Propergols pour fusées spatiales, 334. Propriétés antibiotiques du blanc d’œuf, 500.
- 539
- p.539 - vue 543/551
-
-
-
- Propulsion nucléaire des avions et engins,
- 131.
- Prospection chimique et botanique des gîtes minéraux, 153, 208.
- Protection des engins spatiaux par matériaux à base de silicone ultra-réfractaire, 26. Protéines comestibles fabriquées industriellement, 502.
- — et acides nucléiques : mécanismes d’édification, 489.
- Psychologie : expérimentation d’une « machine à tests » sur des singes, 160. Psycho-sociologie, 346, 350.
- Pucerons et fourmis : symbiose, 292.
- R
- Radioactivité au service de la fabrication du papier, 5 20.
- — : influence sur la reproduction des Grillons, 304.
- Radiochimie : monographies, 314. Radioéléments : développement de certaines fabrications à Saclay, 204. Radionavigation : système « Hi-Fix », 259.
- — aérienne : mise au point d’une balise transistorisée, 337.
- Radiophare toutes directions à système VHF sur un pic des Rocheuses, 429. Radio-sources lointaines, 97.
- Radiotélescope de Parkes (Australie) à grande surface collectrice, 23. Rassemblements de Papillons, 117. Réacteur E.D.F.i partiellement plutonigène, 463.
- — nucléaire miniature pour explorateurs lunaires, 36.
- Réacteurs E.D.F.i, E.D.F.2, E.D.F.3, de la centrale nucléaire de Chinon, 273. Récepteurs de lumière modulée, 4x1. Recherches océanographiques : programmes de l’Unesco, 332.
- — sur le nanisme, 165.
- Refroidissement par liquidés en ébullition,
- 43.
- Réglage des entrées d’air pour les avions à grande vitesse, 290.
- Reliefs de l’Océan Indien précisés par le Vitiaz, 303.
- Renaissance de la Saïga, 515.
- Rendement du sol favorisé par une émulsion à base de pétrole, 502.
- Répéteurs des câbles téléphoniques sous-marins, 503.
- Réseaux électriques de France et d’Angleterre (interconnexion), 467.
- Résidus pétroliers : extension de la zone d’interdiction de rejet en mer, 386. Résistance aux températures élevées en rapport avec le sexe, 165.
- Ressources minérales du Gabon, 42 t. Réunion : entraînement à la conduite ou à une participation utile, 346.
- Robot pour peindre horizontalement ou verticalement les grandes surfaces métalliques, 224.
- Rochebonne (carte du plateau), 66.
- Rôle physiologique des pertes d’énergie vocale de la glotte aux lèvres, 430. Rongeurs : vie et peuplements dans la zone aride, 352.
- Roskilde : obstruction du fjord par les Vikings, 162.
- Rythme biologique du Moineau, 521.
- S
- Sahara (première phase d’exploitation du pétrole), 361, 448.
- Saïga : protection et accroissement du troupeau, 515.
- Salarié inventeur : quand et comment prendre un brevet, 305.
- Satellite artificiel : problèmes posés par la mise sur orbite, 124.
- Satellites artificiels plus laconiques, 524.
- — de télécommunications, 193.
- — espions, 462.
- Scories des fours électriques des entreprises métallurgiques : utilisation pour le chauffage, 351.
- Séchage rapide du papier, 463.
- Sels sous-marins dans le Golfe du Mexique, 65.
- Sénescence humaine : étude scientifique, 107.
- — des végétaux : rôle dans l’adaptation,
- 522.
- Sérum de fécondité pour animaux d’élevage, 328.
- Sexe et résistance aux températures élevées, 165.
- Sidérurgie japonaise : essor, 413.
- Silicone ultra-réfractaire pour les engins spatiaux, 26.
- S.N.A.P. pour bouée lumineuse, 265.
- — pour station météorologique automatique, 86.
- Sol : équilibre biologique, 471.
- Sols mouvants solidifiés par un produit chimique, 140.
- Sons émis par les arbres, 75.
- Soucoupe plongeante du commandant Cousteau, 294.
- Soudage des plastiques par ultrasons, 92, 272.
- Soudure par friction, 160.
- Soufre de Lacq, source de richesse, 215.
- — : gisement sous la Vistule, 224.
- Source thermale en voie de refroidissement,
- 421.
- Spectromètre gamma à hautes performances, 139.
- Spectrophotomètre Jean et Constant pour le visible et l’ultraviolet, 529.
- « Spherdine », machine à écrire électrique I.B.M. sans barres à caractères et sans chariot, 87.
- Station météorologique automatique alimentée en énergie par une centrale atomique miniature (S.N.A.P.), 86. Statoréacteur : application à la propulsion des engins, 370.
- « Stichovite », minéral nouveau découvert dans le Meteor Crater, 178.
- Stylographe à ultrasons, 65. «Super-Caravelle», 133.
- Superpuissances nucléaires : étude d’une centrale de x 000 MW aux Etats-Unis, 5U-
- Supraconducteurs pour électroaimants, 397 . Symbiose des fourmis et des pucerons, 292. Système « Hi-Fix » : localisation radio en mer par tous les temps, 259.
- T
- Tabac : culture en France, 483.
- Tamiseuse électrique, 92.
- Téléphone avec l’U.R.S.S. : nouvel équipement du central téléphonique international semi-automatique, 244.
- Télévision (inspection des coques de navires par), 521.
- Températures de surface : détermination par la luminescence des solides, 179.
- — élevées : meilleure résistance en rapport avec le sexe, 165.
- Terraplane, aéroglisseur français, 511. Thalidomide : action tératogène, 384. Thallium dans les lampes à mercure, 510. Thermie : unité d’emploi légal en France, . "316.
- Tirage express d’épreuves photographiques à partir de négatifs en couleurs, 377. Topographie sous-marine, 475.
- Toxine de brûlure, 244.
- Traction électrique pour camions, 136. Trophallaxie des fourmis étudiée par les radioisotopes, 345.
- Truites transportées et larguées par avion pour le repeuplement des lacs et rivières, 37-
- Tuberculose et pesanteur, 463.
- U
- Ultrafiltre pour la concentration des substances de poids moléculaire élevé, 485. Ultramicrotome, 3x5.
- Ultrasons : emploi pour le soudage des plastiques, 92, 272.
- — : utilisations en métallurgie, 188.
- — : utilisations pour faire pénétrer des médicaments directement par la peau, 224.
- .Ultraviolet : emploi pour protéger les huîtres de pleine mer contre toute contamination bactériologique, 345.
- Ulysse, pile d’enseignement, 38. Unification des masses atomiques pour les chimistes et les physiciens, 30.
- Unité biologique autonome la plus petite, 316.
- — de temps : recherches pour une nouvelle définition, 203.
- Uranium de très haute pureté, 228.
- Y
- Vaccination par aérosols, 255.
- Végétaux et microbes du sol : rôle dans l’équilibre biologique, 471, 473.
- — benthiques, 299.
- Vénus : période de rotation en 13 jours, 188. Verre collé utilisé en remplacement du mica, 397.
- Verse du blé : déséquilibre carbone-azote,
- 321.
- Vestiges d’êtres extra-terrestres dans les météorites ? 482.
- — préhistoriques dans le Nord de l’Oural, 302.
- Vie animale et végétale sur le fond des océans, 299.
- — et peuplements des petits Rongeurs dans la zone aride, 352.
- Vieillissement de la population : aspects sociaux, 76.
- — et mort des plantes : rôle dans l’adaptation, 522.
- Vikings : obstruction du fjord de Roskilde,
- 162.
- Vol orbital du colonel Gîenn : enseignements, 166.'
- -----du commandant Carpenter, 283.
- Z
- Zone aride : oscillations des climats dans le dernier million d’années, 67.
- . — — : vie et peuplements des petits Rongeurs, 352.
- Zygènes, papillons à acide cyanhydrique,
- 206.
- 540
- p.540 - vue 544/551
-
-
-
- LISTE ALPHABETIQUE DES AUTEURS
- Balsan (François). — A la recherche des Arabes sur les côtes du Nord-Mozambique, 414.
- Benoit (Henri). — Voyez Carru, Benoit et Petit.
- C. (D.). — Les hauts-fonds du plateau de Rochebonne, 66. — Les lignes de métro dans le monde, 483.
- C. (G.). — Le lac de Neuchâtel, nouvelle victime de la pollution, 302.
- — L’expansion démographique de la France, 311. — La plus petite unité biologique autonome, 316. — Le Moineau possède une «horloge interne» d’une remarquable régularité, 521.
- C. (J.). — Grâce à l’encre magnétique, la machine et l’œil lisent désormais les mêmes caractères, 21. — Un nouveau méson : le méson oméga, 74. — Enseignement de la Physique et photographie, 120. — Le soufre de Lacq n’est pas abondance superflue mais source de richesse, 215. — Système « Hi-Fix » : localisation radio en mer par tous les temps, 259. — Alcoomètre contre automobiliste intempérant, 528.
- C. (L.). — Un Coléoptère destructeur d’Araignées, 45. — Radioactivité et reproduction des Grillons, 304. — Action imprévue du parasitisme chez certains insectes, 436. — La renaissance de la Saïga, 515.
- C. (S.) — Erreur printanière dans le chant des oiseaux, 222.
- Carbonnel (J.-P.). — Plus maniable que les bathyscaphes, la soucoupe plongeante permet l’exploration du plateau continental, 294.
- — Une science et un art : la topographie sous-marine. Comment fut établie la carte de la Méditerranée occidentale, 475.
- Carles (Jules). — La verse du blé, conséquence du déséquilibre carbone-azote, 321.
- Carru (Henri), Benoit (René) et Petit (Michel). — La diffusion incohérente, nouvelle méthode d’étude de l’ionosphère à partir du sol, 422.
- Cézaire (Jean). — Sources de lumière aux propriétés exceptionnelles, les lasers ouvrent des perspectives nouvelles en optique, télécommunications, chimie..., 1. — 120 ans après les expériences mémorables de Faraday. Les convertisseurs magnétohydrodynamiques transforment directement la chaleur en électricité, 458.
- Chambry (D.). — L’essor extraordinaire de la sidérurgie japonaise, 413.
- Chopard (Lucien). — Rassemblements de papillons, 117. — Une plume inconnue sur la tête d’un indigène : c’était le Paon du Congo, 134. — Poissons mangeurs de nageoires, 161. — La microfaune terricole, réactif biologique des modifications du milieu, 177. — Les Zygènes, papillons à acide cyanhydrique, 206. — La vie animale et végétale sur le fond des océans, 299. — La reine abeille attire les faux-bourdons par une puissante émanation chimique, 482.
- Clavel (Solange). — Comment se fit la symbiose des fourmis et des pucerons, 292. — Les propriétés antibiotiques du blanc d’œuf, 500.
- Cohen (Gaston). — Le vieillissement de la population et les aspects sociaux de la gérontologie, 76. —• Le phénomène de la sénescence soumis à l’investigation scientifique, 107. — Comment et pourquoi les Vikings ont-ils obstrué le fjord de Roskilde ? 162.
- D. (R.) et G. (J.). — Le vieillissement et la mort chez les plantes et leur rôle dans l’adaptation, 522.
- Dajoz (Roger). — La « trophallaxie » des fourmis étudiée par les radioisotopes, 345. — Survivant de la préhistoire, le bison d’Europe reprend vie et liberté en forêt de Bialowieza, 378.
- Decary (Raymond). — Plantes grasses belles ou curieuses. Les Kalanchoés de Madagascar, 516.
- Dorst (Jean). — Les immenses migrations des oiseaux de mer naguère insoupçonnées, 56.
- Filloux (Jean-Claude). — L’étude des « petits groupes » et ses applications. Comment on s’entraîne à conduire une réunion ou à y participer utilement, 346.
- Fouchet (Jacques). — Les radio-sources lointaines trancheront-elles entre les théories cosmogoniques ? 97. — Les câbles téléphoniques sous-marins et leurs répéteurs n’ont pas droit à la panne, 503.
- G. (H.). — Baisse générale sur les masses atomiques, 30.
- G. (J.). — Un Comité de défense de la nature veut sauver la forêt de Fontainebleau, 86. — A propos d’une drogue tératogène, 384.
- — La Génétique au service de l’amélioration des plantes, 385. — Le sol, siège d’une vie active et d’interrelations complexes, 471.
- G. (J.) et D. (R.). — Voyez D. (R.) et G. (J.).
- Gardin (Jean-Claude). — Cartes perforées et ordinateurs au service de l’archéologie, 449.
- Grive (Jean). — Les Ecrevisses françaises peuvent encore prospérer si nos eaux ne sont pas trop polluées, 27. — L’évolution (des Inséparables) révélée par le comportement, 175. — Comment les Mammifères sont sortis des Reptiles mammaliens, 256. — Une intéressante étude d’écologie. Vie et peuplements des petits Rongeurs dans la zone aride, 352. — Les auxines ou phytohormones de croissance, 387. — L’Hydre d’eau douce, animal immortel tant qu’il reste insexué, 464.
- Guienne (Paul). — Le Terraplane, aéroglisseur français, avale les obstacles, 511.
- Guinot (Bernard). — Vers une nouvelle définition de l’unité de temps, 203.
- Husson (Raoul). —• Les énormes pertes d’énergie vocale de la glotte aux lèvres et leur rôle physiologique, 430.
- Langevin (André). — Les ions atmosphériques et la vie. Des « petits ions » négatifs bénéfiques aux« gros ions » positifs malfaisants, 401.
- Legendre (Marcel). — Les vrais Inséparables, perroquets nains d’Afrique, 172.
- Le Gros (Charles). — Richesse pour l’Afrique : la grande faune sauvage rationnellement exploitée, 18.
- Lequeux (James). — L’Australie possédera bientôt un des radiotélescopes les plus puissants du monde, 23.
- Leroux (Jean-Pierre). — U Actualité instrumentale. La luminescence des solides et l’une de ses plus récentes applications : la détermination des températures de surface, 179.
- L’Héritier (Philippe). —- L’hérédité non chromosomique, 233.
- Lot (Fernand). — Les prix Nobel de Sciences 1962, 501.
- M. (C.). — Acoustique des arbres, 75. — Le lac Balkhach, paradoxe géographique, 136. — Des cours d’eau russes seront détournés de l’Arctique vers la Caspienne, 221. — Ilots de congélation éternelle, 240. — Vestiges préhistoriques dans le Nord de l’Oural, 302.
- — Les reliefs de l’Océan Indien précisés par le Vitia303.
- M. (H.). — Entraîneur automatique parlant, 140.
- M. (Y.). — Des bactéries prospèrent dans l’eau lourde d’un réacteur atomique, 9. — Ulysse, pile d’enseignement à nombreuses « facilités » expérimentales, 38. — Domaine élargi pour les • radioéléments à Saclay, 205. —• E.D.F.4 dans le Loir-et-Cher, 282. — L’Année du Soleil calme, 289. — Mutations en cours dans l’utilisation du charbon en France, 351. —-Les mines cévenoles fourniront à nouveau plomb, zinc, argent, 383. — Les origines complexes des eaux souterraines, 438. — L’espionnage spatial, 462. — A propos des mines cévenoles, 502. — Vers les superpuissances nucléaires, 515. — Offensive contre les imbrûlés en Californie, 520. — « L’Aventure atomique », 532.
- Manil (Paul). —- Végétaux et microbes du sol : l’action des A%oto-bacter, 473.
- Mériel (Yves). — Les oscillations des climats de la zone aride dans le dernier million d’années, 67. — Gisements de gaz et grisou dans les houillères, 250. — Panorama d’une expérience. La centrale nucléaire de Chinon et ses trois réacteurs, 273. — Le Sahara pétrolier dans sa première phase d’exploitation, 361, 448. —• E.D.F.i partiellement plutonigène, 463.
- Moreau (Henri). — Cessant sa dissidence, l’Ângstrôm s’est rattaché officiellement au Mètre, 30.
- Noix (Docteur Marcel). — Endoscopie et endographie, auxiliaires modernes du diagnostic médical et de la chirurgie, 10.
- Nordau (Claudy-Gabrielle). — Un chapitre des « merveilles du froid ». La lyophilisation des produits organiques, 338.
- 541
- p.541 - vue 545/551
-
-
-
- Ostoya (Paul). —- Le succès d’un mauvais livre : Le Matin des Ma& ciens, 263.
- Pelmont (Jean). — Les synthèses fondamentales de la vie en voie de s’éclaircir. De l’ADN à l’ARN et aux protéines, 489.
- Petit (Michel). — Voyez Carru, Benoit et Petit.
- R. A. — Bon conducteur seulement dans son plan de clivage, le graphite pyrolytique est un matériau d’avenir, 171. —• Essor et changements profonds de l’industrie du gaz en France, 218.
- R. (F.). — Les lasers en progrès rapide passent dans le domaine pratique, 410. — Le projet Westford (aiguilles satellites) n’a pas été abandonné, 421. — L’Actualité instrumentale : Refroidissement par liquides en ébullition, 43.
- R. (R.). — Une silicone ultra-réfractaire pour les engins spatiaux, 26.
- — Les Algues fourniront-elles l’oxygène aux astronautes ? 29. —-Pour guérir 1’ « autisme » des enfants, 31. — Pont aérien pour les truites, 37. —• Une station météorologique autonome alimentée en énergie par un S.N.A.P., 86. —• Une sphère de neuf grammes remplace les barres à caractères et le chariot des machines à écrire, 87. — Nouveau système de feux pour l’atterrissage des avions, 133.
- — Un produit chimique qui solidifie les sols mouvants, 140. — Cactus pour pâturages, 140. — Automatisation en psychologie expérimentale, 160. — Recherches sur le nanisme, 165. — Echangeur d’ions inorganique pour piles à combustible, 457. — U Actualité instrumentale : Microdébitmètres pour mesures de précision, 41 ; Nouveau collecteur de fractions, 89; Micropompe pour chromatographie, 91 ; Tamiseuse électrique, 92; Mélangeur à hautes performances, 137; Spectromètre gamma à hautes performances, 139; Nouveau collecteur de fractions, 225; Brûleur électrique de laboratoire, 227; Potentio-pH-mètre de haute précision, 267; Moteur « à tout faire », 268; Nouveaux polarographes, 312; Les filtres de laboratoire « Millipore », 315; Coulomètre automatique, 394; Colonne à distiller à bande tournante, 395; Pompes doseuses de haute précision, 440; Ultrafiltre pour la concentration des substances de poids moléculaire élevé, 485.
- Rivoire (Jean). — Nouveaux progrès dans la plongée sous-marine,
- 329.
- Roblin (Michel). — Etourneau, grive, merle, loriot dans l’histoire et la linguistique, 284.
- Rosset (Robert). — Les convertisseurs thermoélectroniques, nouveaux dispositifs pour la transformation directe de la chaleur en électricité, 245. — U Actualité instrumentale : Spectrophotomètre Jean et Constant pour le visible et l’ultraviolet, 529.
- Rousseau (Michel). — L’Iran à Paris... Sept mille ans d’art animalier, 32. — Seconde étape vers la création de parcs nationaux en France, 116. —- Des Olmèques aux Aztèques. Trois mille ans d’art mexicain,
- 371.
- Roussel (Louis). —- Une technique nouvelle au service de la Sylviculture. La Photologie forestière, 145.
- Roy (Félix). —• L’hydroaimant fournira-t-il un champ de 450 000 gauss ? 63; Erratum, 192. — Quelques problèmes posés par la mise sur orbite d’un satellite artificiel, 124. — Les satellites de télécommunications remédieront à la surcharge des voies classiques, 193. — L’interconnexion des réseaux de distribution électrique de France et d’Angleterre, 467.
- S- (J-)- — La déviation de jet des réacteurs d’avion et des moteurs-fusées, 84. — L’avion de transport supersonique français « Super-Caravelle », 133. —- Engins propulsés par statoréacteurs, 370.
- Spincourt (Jacques). —• Concurrencé par les avions à décollage vertical, l’hélicoptère cherche des voies nouvelles, 82. — Où en est la propulsion nucléaire des avions et engins, 131. — Le réglage des entrées d’air, nouvelle nécessité pour les avions à grande vitesse, 290. — En attendant la propulsion nucléaire ou électrique. Les propergols pour fusées spatiales, 334. — L’aile à flèche variable revient à l’ordre du jour, 437. — Les moteurs pour avions de transport supersoniques, 525.
- Tartois (Lucien). — Le ciel en chacun des mois de février 1962 à janvier 1963, 45, 93, 141, 189, 228, 269, 317, 358, 398, 444, 486, 533.
- Thaler (Louis). —• La prospection chimique des gîtes minéraux, 153. — La prospection botanique, auxiliaire de la prospection chimique des gîtes minéraux, 208.
- V. (N.). — Le vol orbital du commandant Carpenter, 283.
- Vichney (Nicolas). —- Programme Ranger : faire un trou dans la
- Lune, 49. — Les enseignements du vol orbital du colonel Glenn, 166. — Le Phaëton, projet français de propulseur spatial et satellite synchrone, 241.
- W. (P.). —- Programmes de recherches océanographiques, 332. — L’étrusque éclairé par l’albanais ? 377. — Le problème démographique et agricole du Mexique, 462.
- Wagret (Jean-Michel). —- Quand et comment le salarié inventeur peut prendre un brevet, 305.
- Wagret (Paul). — L’arganeraie du Sud marocain, relique du tertiaire et providence des populations, 390.
- p.542 - vue 546/551
-
-
-
- TABLE DES MATIERES
- I. — MATHÉMATIQUES ET ASTRONOMIE
- Micrométéorites récoltées par fusées......................... 22
- L’Australie possédera bientôt un des radiotélescopes les plus
- puissants du monde (James Lequeux)........................ 23
- Les radio-sources lointaines trancheront-elles entre les théories
- cosmogoniques ? (Jacques Fouchet)......................... 97
- Vénus tournerait bien en 13 jours . ........................188
- Le ciel en chacun des mois de février 1962 à janvier 1963 (Lucien
- Tartois), . 45, 93, 141, 189, 228, 269, 317, 358, 398, 444, 486, 533
- II. — SCIENCES PHYSIQUES 1. Physique
- Sources de lumière aux propriétés exceptionnelles, les lasers ouvrent des perspectives nouvelles en optique, télécommunications, chimie... (Jean Cézaire)......................... 1
- Cessant sa dissidence, l’Angstrôm s’est rattaché officiellement
- au Mètre (Henri Moreau)..................................... 30
- L’hydroaimant fournira-t-il un champ de 450 000 gauss ?
- (Félix Roy)................................................. 63
- Enseignement de la Physique et photographie (J. C.) . . . 120
- Erratum pour l’hydroaimant................................192
- Vers une nouvelle définition de l’unité de temps (Bernard
- Guinot)................................................203
- La « thermie » reste légale...............................316
- Les lasers en progrès rapide passent dans le domaine pratique
- (F. R.)................................................410
- Récepteurs de lumière modulée............................41 x
- Echangeur d’ions inorganique pour piles à combustible (R. R.) 457
- 120 ans après les expériences mémorables de Faraday. Les convertisseurs magnétohydrodynamiques transforment directement la chaleur en électricité (Jean Cézaire) .... 458
- L’Actualité instrumentale :
- Refroidissement par liquides en ébullition (F. R.) .... 43
- Spectromètre gamma à hautes performances (R. R.) . . 139
- La luminescence des solides et l’une de ses plus récentes applications : la détermination des températures de surface
- (Jean-Pierre Leroux).................................179
- Spectrophotomètre Jean et Constant pour le visible et l’ultraviolet (R. Rosset)......................................529
- 2. Chimie.
- Baisse générale sur les masses atomiques (H. G.).......... 30
- Uranium de très haute pureté...................................228
- Carburants à haute énergie, issus du goudron .... ? 264
- Monographies de Radiochimie....................................3x4
- L’actualité instrumentale :
- Nouveau collecteur de fractions (R. R.)................ 89
- Micropompe pour chromatographie (R. R.)............... 91
- Nouveau collecteur de fractions (R. R.) . . . . . . 225
- Potentio-pH-mètre de haute précision (R. R.)................267
- Nouveaux polarographes (R. R.)..............................313
- Coulomètre automatique (R. R.)..............................394
- Colonne à distiller à bande tournante (R. R.) ..... 395
- Ultrafïltre pour la concentration des substances de poids moléculaire élevé (R. R.)...............................485
- 3. Sciences nucléaires.
- Ulysse, pile d’enseignement à nombreuses « facilités » expérimentales (Y. M.) . 38
- Un nouveau méson : le méson oméga (J. C.).................... 74
- Enquête sur les besoins des laboratoires en isotopes stables . . 139 Domaine élargi pour les radioéléments à Saclay (Y. M.) . . 204 Panorama d’une expérience. La centrale nucléaire de Chinon
- et ses trois réacteurs (Yves Mériel)....................273
- E.D.F.4 dans le Loir-et-Cher (Y. M.).......................282
- Chercheurs français dans les Centres d’études nucléaires soviétiques .......................................................397
- E.D.F.i partiellement plutonigène (Y. Mériel)...............463
- Vers les superpuissances nucléaires (Y. M.).................515
- Les mécomptes du béryllium................................... 524
- III. — SCIENCES NATURELLES 1. Géologie. — Paléontologie. — Gîtes minéraux.
- La prospection chimique des gîtes minéraux (Louis Thaler) . 153
- La « stichovite » du Meteor Crater..............................178
- La prospection botanique, auxiliaire de la prospection chimique
- des gîtes minéraux (Louis Thaler)...........................208
- Soufre sous la Vistule.........................................224
- Comment les Mammifères sont sortis des Reptiles mammaliens
- (Jean Grive)................................................256
- Pétrole exploitable en Australie...............................289
- Diamants au fond de la mer......................................333
- Les mines cévenoles fourniront à nouveau plomb, zinc, argent
- (Y. M.).....................................................383
- Cratère présumé de météorite en Sibérie méridionale . . . 393
- Source thermale périssable.....................................421
- Les ressources minérales du Gabon..............................421
- Les origines complexes des eaux souterraines (Y. M.). . . . 438 A propos des mines cévenoles (Y. M.)...........................502
- 2. Physique du globe. — Météorologie. — Océanographie physique.
- Monts et dômes de sels sous-marins............................ 65
- Les hauts fonds du plateau de Rochebonne (D. C.) . 66
- L’introuvable météorite de 1908............................... 66
- Les oscillations des climats de la zone aride dans le dernier
- million d’années (Yves Mériel)............................... 67
- Une station météorologique automatique alimentée en énergie
- par un S.N.A.P. (R. R.)...................................... 86
- Pour se parler en plongée....................................... 88
- Luminescence de la glace........................................ 93
- Eclairs en forme de boucle.............................202, C 273
- Les effets des charges électriques sur les précipitations atmosphériques ...................................................283
- L’Année du Soleil calme (Y. M.).................................289
- Plus maniable que les bathyscaphes, la soucoupe plongeante permet l’exploration du plateau continental (J.-P. Carbonnel) 294 Les reliefs de l’Océan Indien précisés par le Vidaz (C. M.) . . 303
- Nouveaux progrès dans la plongée sous-marine (Jean Rivoire) 329 Programmes de recherches océanographiques (P. W.) . . . 332
- La diffusion incohérente, nouvelle méthode d’étude de l’ionosphère à partir du sol (Henri Carru, René Benoit et Michel Petit)........................................................422
- 543
- p.543 - vue 547/551
-
-
-
- Une science et un art : la topographie sous-marine. Comment fut établie la carte de la Méditerranée occidentale (J.-P. Car-bonnel)......................................................475
- 3. Biologie générale. — Physiologie. —
- Zoologie.
- Des bactéries prospèrent dans l’eau lourde d’un réacteur
- atomique (Y. M.)............................................. 9
- Un Coléoptère destructeur d’Araignées (L. C.).............. 45
- Les immenses migrations des oiseaux de mer naguère insoupçonnées (Jean Dorst).......................................... 56
- Un poison contre les requins.................................... 88
- Rassemblements de papillons (Lucien Chopard)....................117
- Une plume inconnue sur la tête d’un indigène : c’était le Paon
- du Congo (Lucien Chopard)................................. 134
- Automatisation en psychologie expérimentale (R. R.) ... 160
- Poissons mangeurs de nageoires (Lucien Chopard) .... 161
- Sexe et température extérieure.................................165
- Les vrais Inséparables, Perroquets nains d’Afrique (Marcel
- Legendre)...................................................172
- L’évolution (des Inséparables) révélée par le comportement
- (Jean Grive)................................................175
- La microfaune terricole, réactif biologique des modifications
- du milieu (Lucien Chopard)..................................177
- Les Zygènes, papillons à acide cyanhydrique (Lucien Chopard) 206
- « Formicage », heureux néologisme...............................207
- Erreur printanière dans le chant des oiseaux (S. C.) . . . . 222
- L’hérédité non chromosomique (Philippe L’Héritier) . . . 233
- Toxine de brûlure..............................................244
- Impesanteur et fertilité.......................................255
- Comment se fit la symbiose des fourmis et des pucerons (Solange
- Clavel) ....................................................292
- La vie animale et végétale sur le fond des océans (Lucien
- Chopard)....................................................299
- Radioactivité et reproduction des Grillons (L. C.) .... 304
- La plus petite unité biologique autonome (G. C.) . . . . 316
- Un chapitre des « merveilles du froid ». La lyophilisation des
- produits organiques (Claudy-Gabrielle Nordau).............. 338
- La « trophallaxie » des fourmis étudiée par les radioisotopes
- (Roger Dajoz)...............................................345
- Facteur sanguin lié au sexe....................................350
- Une intéressante étude d’écologie. Vie et peuplements des petits Rongeurs dans la zone aride (Jean Grive) .... 352
- A propos d’une drogue tératogène (J. G.).......................384
- Les énormes pertes d’énergie vocale de la glotte aux lèvres
- et leur rôle physiologique (Raoul Husson)...................430
- Action imprévue du parasitisme chez certains insectes (L. C.) . 436
- L’Hydre d’eau douce, animal immortel tant qu’il reste insexué
- (Jean Grive)................................................464
- La reine abeille attire les faux-bourdons par une puissante émanation chimique (Lucien Chopard)..............................482
- Les synthèses fondamentales de la vie en voie de s’éclaircir.
- De P ADN à l’ARN et aux protéines (Jean Pelmont) . . 489
- Les propriétés antibiotiques du blanc d’œuf (S. Clavel) . . 500
- Comment battent les cellules cardiaques........................510
- Le Moineau possède une « horloge interne » d’une remarquable
- régularité (G. C.)..........................................521
- 4. Botanique. — Agriculture. — Elevage.
- Acoustique des arbres (C. M.)..................................... 75
- Engrais à base de charbon.........................................106
- Cactus pour pâturages (R. R.).....................................140
- Une technique nouvelle au service de la Sylviculture. La Photo-
- logie forestière (Louis Roussel)...............................145
- Coton de couleur naturelle........................................152
- Matelas-litières pour étables.....................................165
- Engrais en pilules................................................202
- Expérience d’irradiation contre la mouche des fruits . . . 283
- La verse du blé, conséquence du déséquilibre carbone-azote
- (Jules Carles).................................................321
- Un sérum de fécondité.............................................328
- La Génétique au service de l’amélioration des plantes (J. G.) . 385
- Les auxines ou phytohormones de croissance (Jean Grive) . 387
- Pour l’efficacité des herbicides................................... 389
- L’arganeraie du Sud marocain, relique du tertiaire et providence des populations (Paul Wagret).................................390
- Grave menace de fièvre aphteuse.....................................444
- Le sol, siège d’une vie active et d’interrelations complexes (J. G.) 471
- Végétaux et microbes du sol : l’action des A^ptobacter (Paul
- Manil)...........................................................473
- La culture du tabac en France.......................................483
- Pétrole et rendement du sol.........................................502
- Plantes grasses belles ou curieuses. Les Kalanchoés de Madagascar (Raymond Decary).............................................516
- Le vieillissement et la mort chez les plantes et leur rôle dans
- l’adaptation (R. D. et J. G.)....................................522
- 5. Chasse. — Pêche. — Protection de la nature.
- Richesse pour l’Afrique : la grande faune sauvage rationnellement exploitée (Charles Le Gros)............................... 18
- Les Ecrevisses françaises peuvent encore prospérer si nos eaux
- ne sont pas trop polluées (Jean Grive).................... 27
- Pont aérien pour les truites (R. R.)......................... 37
- Un Comité de défense de la Nature veut sauver la forêt de
- Fontainebleau (J. G.)......................................... 86
- Seconde étape vers la création de parcs nationaux en France
- (Michel Rousseau).............................................116
- Poisson faucardeur...............................................178
- Contre les requins : le harpon empoisonné....................223
- Le lac de Neuchâtel, nouvelle victime de la pollution (G. C.) . 302
- Ultraviolet pour huîtres.........................................345
- Survivant de la préhistoire, le bison d’Europe reprend vie et
- liberté en forêt de Bialowieza (Roger Dajoz)..................378
- Contre la pollution de la mer.....................................386
- La renaissance de la Saïga (L. C.)................................515
- IV. — GÉOGRAPHIE. — DÉMOGRAPHIE. ETHNOGRAPHIE. — ARCHÉOLOGIE
- L’Iran à Paris... Sept mille ans d’art animalier (Michel Rousseau) 32 Le vieillissement de la population et les aspects sociaux de la
- gérontologie (Gaston Cohen)................................ 76
- Abondance de centenaires en U.R.S.S....................... 81
- Le lac Balkhach, paradoxe géographique (C. M.) . . . . 136
- Comment et pourquoi les Vikings ont-ils obstrué le fjord de
- Roskilde ? (Gaston Cohen)..................................162
- Ilots de congélation éternelle (C. M.)........................240
- Sept tonnes de clous romains..................................293
- Vestiges préhistoriques dans le Nord de l’Oural (C. M.) . . 302
- L’expansion démographique de la France (G. C.) . . . . 311
- L’Antarctique a été découvert un jour plus tôt !..............333
- Des Olmèques aux Aztèques. Trois mille ans d’art mexicain
- (Michel Rousseau)..........................................371
- A la recherche des Arabes sur les côtes du Nord-Mozambique
- (François Balsan).........................................414
- Cartes perforées et ordinateurs au service de l’Archéologie
- (Jean-Claude Gard in)......................................449
- Le problème démographique et agricole du Mexique (P. W.) . 462
- V. — ANTHROPOLOGIE. — HYGIÈNE. MÉDECINE. — PSYCHOLOGIE HUMAINE 4
- Endoscopie et endographie, auxiliaires modernes du diagnostic
- médical et de la chirurgie (Docteur Marcel Noix) .... 10
- Pour guérir 1’ « autisme » des enfants (R. R.)........... 31
- Cœur mécanique et hibernation................................106
- Le phénomène de la sénescence soumis à l’investigation scientifique (Gaston Cohen)....................................107
- Recherches sur le nanisme (R. R.)............................165
- Plastiques pour le traitement des grands brûlés..........188
- Fruits sous plastiques comestibles...........................207
- Médicaments par ultrasons....................................224
- Une « infirmière électronique »..............................240
- 544
- p.544 - vue 548/551
-
-
-
- Vaccination par aérosols.........................................255
- Lecteur binoculaire pour vues faibles............................258
- L’étude des « petits groupes » et ses applications. Comment on s’entraîne à conduire une réunion ou à y participer utilement (Jean-Claude Filloux)...................................346
- Un stage de travail en petits groupes : « Structures et communications dans l’entreprise »..................................350
- Atropine et adrénaline contre le « réflexe du noyé » . . . . 384
- Les ions atmosphériques et la vie. Des « petits ions » négatifs bénéfiques aux « gros ions » positifs malfaisants (André
- Langevin)....................................................401
- Examen médical par infrasons.....................................444
- Pesanteur et tuberculose.........................................463
- Un analyseur automatique des cellules cancéreuses .... 520
- Offensive contre les imbrûlés en Californie (Y. M.) .... 520
- Alcoomètre contre automobiliste intempérant......................528
- VI. — SCIENCES APPLIQUÉES
- 1. Mécanique. — Industrie. — Instruments variés.
- Stylographe à ultrasons.......................................... 65
- Une sphère de neuf grammes remplace les barres à caractères
- et le chariot des machines à écrire (R. R.)............... 87
- Soudage des plastiques par ultrasons............................. 92
- Un procédé électrostatique d’impression.......................... 93
- Plaques d’aluminium d’épaisseur décroissante pour réservoirs . 130
- Nouveau type de panneau chauffant............................160
- Soudure par friction.........................................160
- Bon conducteur seulement dans son plan de clivage, le graphite pyrolytique est un matériau d’avenir (R. A.) . . . 171
- Les ultrasons en métallurgie.................................188
- Le soufre de Lacq n’est pas abondance superflue, mais source
- de richesse (J. C.).......................................215
- Essor et changements profonds de l’industrie du gaz en
- France (R. A.)............................................218
- Etamage sur matelas d’air....................................222
- Peinture par robot...........................................224
- Ordinateur miniature.........................................227
- Diamants semi-conducteurs....................................227
- Exploitation des lacs salés en U.R.S.S.......................244
- Gisements de gaz et grisou dans les houillères (Yves Mériel) . 250
- A propos de soudage des plastiques...........................272
- Ultramicrotome...............................................315
- Mutations en cours dans l’utilisation du charbon en France
- (Y.M.)....................................................351
- Chauffage aux scories........................................351
- Le Sahara pétrolier dans sa première phase d’exploitation
- (Y ves Mériel)............................................361
- Méthylacétylène pour chalumeau...................................397
- Verre collé pour remplacer le mica...............................397
- L’essor extraordinaire de la sidérurgie japonaise (D. Ch amer y) . 412
- Le Sahara pétrolier : L’enrobage de l’oléoduc................448
- Séchage rapide du papier.....................................463
- Le plus puissant microscope..................................485
- Protéines industrielles..........................................502
- La radioactivité au service de la fabrication du papier ... 520
- Nylon frisé obtenu par un procédé chimique.......................524
- A propos du méthylacétylène pour chalumeau.......................536
- L’Actualité instrumentale :
- Microdébitmètres pour mesures de précision (R. R.) . . 41
- Tamiseuse électrique (R. R.).................................. 92
- Mélangeur à hautes performances (R. R.).......................137
- Brûleur électrique de laboratoire (R. R.).....................227
- Moteur « à tout faire » (R. R.)...............................268
- Les filtres de laboratoire « Millipore » (R. R.)..............315
- Pompes doseuses de haute précision (R. R.)....................440
- 2. Electricité. — Télévision. — T.S.F.—
- Télécommunications. — Photographie. — Cinéma.
- Grâce à l’encre magnétique, la machine et l’œil lisent désormais
- les mêmes caractères (J. C.)........................... 21
- Pile électrique à bactéries............................. 22
- Les champs électriques utilisés pour mélanger les liquides . . 44
- Ampoules au carbure de tantale..................................171
- Le téléphone avec l’U.R.S.S.....................................244
- Les convertisseurs thermoélectroniques, nouveaux dispositifs pour la transformation directe de la chaleur en électricité (Robert Rosset)........................................245
- Système « Hi-Fix >> : localisation radio en mer par tous les
- temps (J. C.)................................................259
- Caméra sous-marine stéréoscopique..............................333
- Tirage express en couleurs......................................377
- Supraconducteurs et électroaimants.............................397
- L’interconnexion des réseaux de distribution électrique de
- France et d’Angleterre (Félix Roy)...........................467
- Les câbles téléphoniques sous-marins et leurs répéteurs n’ont
- pas droit à la panne (Jacques Fouchet).......................503
- Thallium dans les lampes à mercure..............................5x0
- Coques de navire en télévision..................................521
- 3. — Travaux publics. — Urbanisme. — Arts de l’ingénieur.
- Besoins en eau des grandes villes............................106
- Drainage des marais de la Vilaine............................106
- Un produit chimique qui solidifie les sols mouvants (R. R.) . 140
- Des cours d’eau russes seront désormais détournés de l’Arctique vers la Caspienne (C. M.)..................................221
- 4. Transports. — Aviation. — Astronautique.
- Une auto volante, l’Aérocar................................. 9
- Une silicone ultra-réfractaire pour les engins spatiaux (R. R.) . 26 Les Algues fourniront-elles l’oxygène aux astronautes ? (R. R.) 29 Générateur nucléaire miniature pour explorateurs lunaires . 36
- Programme Ranger : faire un trou dans la Lune (Nicolas
- Vichney)...................................................... 49
- Concurrencé par les avions à décollage vertical, l’hélicoptère
- cherche des voies nouvelles (Jacques Spincourt) ... 82
- La déviation de jet des réacteurs d’avion et des moteurs-
- fusées (J. S.)................................................ 84
- Cinq précautions valent mieux qu’une............................. 85
- Quelques problèmes posés par la mise sur orbite d’un satellite
- artificiel (Félix Roy)......................................124
- Où en est la propulsion des avions et engins (Jacques Spincourt) ........................................................131
- L’avion de transport supersonique français « Super-Caravelle » (J. S.)................................................133
- Nouveau système de feux pour l’atterrissage des avions (R. R.) . 133
- Traction électrique pour camions.................................136
- Les enseignements du vol orbital du colonel Glenn (Nicolas
- Vichney)....................................................166
- Mannequins astronautes...........................................188
- Les satellites de télécommunications remédieront à la surcharge des voies classiques (Félix Roy)........................193
- Le premier aéroglisseur commercial.............................222
- Le Phaëton, projet français de propulseur spatial et satellite
- synchrone (Nicolas Vichney).................................241
- Lac de sel pour record de vitesse automobile.....................262
- S.N.A.P. pour bouée lumineuse....................................265
- Le vol orbital du commandant Carpenter (N. V.) . . . . 283
- Le réglage des entrées d’air, nouvelle nécessité pour les avions
- à grande vitesse (Jacques Spincourt)........................290
- Le « bateau-éponge »................................... 291
- En attendant la propulsion nucléaire ou électrique. Les pro-
- pergols pour fusées spatiales (Jacques Spincourt) . . . 334
- Une balise de radionavigation aérienne à transistors . . . 337
- Engins propulsés par statoréacteurs (J. S.)....................370
- Commande automatique des phares de voiture.....................384
- Ambulance volante..............................................386
- Le projet Westford (aiguilles satellites) n’a pas été abandonné
- (F. R.).....................................................421
- Radiophare sur un pic des Rocheuses............................429
- L’aile à flèche variable revient à l’ordre du jour (Jacques Spincourt) ........................................ .... 437
- L’espionnage spatial (Y. M.)...................................462
- 545
- p.545 - vue 549/551
-
-
-
- Les lignes de métro dans le monde (D. C.)........................483
- Le Terraplane, aéroglisseur français, avale les obstacles (Paul
- Guienne)......................................................511
- Bateau fluvial à réaction........................................521
- Des satellites plus laconiques...................................524
- Les moteurs pour avions de transport supersoniques (Jacques
- Spincourt)......................... 525
- VII. — HISTOIRE DES SCIENCES
- « L’Aventure atomique » (Y. M.)................532
- VIII. — VARIA
- Actualités et Informations, C 1, C 49, C 97, C 145, C 193, C 233,
- C 273, C 321, C 361, C401, C 449, C 489
- Les livres nouveaux, 46, 94, 141, 189, 229, 269, 317, 358, 398, 445,
- 486, 533
- Un Grand Prix de la documentation scientifique..................130
- Entraîneur automatique parlant (H. M.)..........................140
- La « Grande Charte » sous argon en Australie....................152
- « Priroda » a cinquante ans.....................................214
- Le succès d’un mauvais livre : Le Matin des Magiciens (Paul
- Ostoya)........................................................263
- Etourneau, grive, merle, loriot dans l’histoire et la linguistique
- (Michel Roblin)...............................................284
- Quand et comment le salarié inventeur peut prendre un brevet
- (Jean-Michel Wagret)...........................................305
- Dégel hydroélectrique...........................................350
- L’étrusque éclairé par l’albanais ? (P. W.).....................377
- Une pendule qui... marche........................................393
- Les cours scientifiques d’été de l’O.T.A.N. pour 1963 ... 397
- En 1963, Conférence des sciences et techniques dans l’intérêt des
- régions peu développées.......................................444
- Vestiges d’êtres extra-terrestres ?.............................482
- Pour une « promotion» de l’arsenic...............................483
- Les prix Nobel de Sciences 1962 (Fernand Lot)....................501
- 546
- p.546 - vue 550/551
-
-
-
- SUPPLÉMENT AU N° 3332 (DÉCEMBRE 1962J
- Le Gérant . F. Dunod. — DUNOD, Éditeur, Paris. — Dépôt légal : 4e trimestre 1962, N° 3957. — Imprimé en France. Imprimerie Bayeusaine, 6-8, rue Royale, Bayeux (Calvados), N" 3476. — 12-1962.
- p.n.n. - vue 551/551
-
-